Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Das ja, das Disk zu Share Problem aber nicht. Ich erinnere an Tiras, der erst vor kurzem seine Dateien deswegen gelöscht hat.
  2. Und was ist mit dem Disk zu Share Problem? Echt doof, dass man nicht /mnt/disk* zuweisen kann.
  3. Ja. Nur 0.6W mehr Verbrauch, dafür aber deutlich günstiger. Ja aber die 980 kostet doch dauerhaft 100 € pro TB 😉 Gut sind WD SN750, Crucial P5, Samsung Evo, Evo Plus und Pro und SanDisk Extreme. Es gibt auch Enterprise Varianten der Evo/Pro mit weniger Garantie. Bei MyDealz finde ich gerade nur 1TB im Angebot: https://www.mydealz.de/deals/samsung-970-evo-plus-1-tb-nvme-ssd-m2-1851700 Aber kommen ja ständig Angebote.
  4. Die Tage hatten wir ja noch jemanden mit massiven Problemen, weil kein Trim durchgeführt wurde. @ich777 ist Trim jetzt Standard? Und wenn ja ab welcher Version?
  5. Ja unRAID hat keine Treiber für WLAN. Eventuell musst du dann mit Disk Shares arbeiten, denn die CPU wird ordentlich belastet, wenn man über /mnt/user also User Shares arbeitet. Und du hast ja nur zwei eher schwache Kerne. Auf welche? Bei Krusader musst du neben /mnt/user noch /mnt/disks hinzufügen. @ich777 solltest du evtl direkt mit ins Template packen?! Vielleicht auch noch /mnt/remotes. Dann ist alles wichtige drin.
  6. Hier ein i3-8100 drauf? https://www.ebay-kleinanzeigen.de/s-anzeige/motherbord-asrock-b365m-pro4/1853867795-225-3356 16GB RAM verkauft er auch. Das Board ist gut. Hat 2x M.2 und 6x SATA.
  7. Ich habe deswegen /Filme/A/ 😉 Wie gesagt. Wenn du das Split Level entsprechend festlegst, wechselt der nicht die Platte. Allerdings musst du dann ausrechnen welche Anfangsbuchstaben wohin sollen.
  8. Der 05.09. ist doch der 1. Sonntag im Monat September?!
  9. Eventuell damit? https://www.manageengine.com/products/desktop-central/ Bis 25 Clients kostenlos. Nur Windows: https://chocolatey.org/ Allerdings setzen beide voraus, dass der Admin über einen Windows Rechner / VM arbeitet. Also nicht integriert in unRAID oder so.
  10. Each backup is a full backup which uses hardlinks to already existing files in previous backups. So if you create an archive from one backup, it can not take advantage of the hardlinks. Instead it copies all files. The only solution is to create archives of multiple backups like one archive per week. But the archive type must support hardlinks preserving. Rar supports it for NTFS: https://documentation.help/WinRAR/HELPSwOH.htm But I do not suggest to use NTFS. NTFS has an extremely bad hardlink performance and it is not possible to backup all files that could be present on a Linux disk. For example you can't save files with a question mark in the filename and many others which are supported in Linux. Use ext4 or BTRFS. There is a free windows driver for BTRFS available.
  11. Je nach Verteilungsregel kannst du ja die Unterordner auf einer Platte halten. Auf die Art bleiben Serien immer komplett auf einer Platte.
  12. Ich würde das Case andenken was in dem verlinkten Thread genutzt wird. Ist einfach flexibler und denke ich besser vom Airflow. Ansonsten halt dran denken, dass der i3 bereits einen Kühler dabei hat. Und ich würde mir eine andere NVMe besorgen. Die 980 ist ein Billigmodell. Lieber bei MyDealz nach einem Deal für eine gute NVMe Ausschau halten
  13. Da steht "hard resetting link". Kann es sein, dass du Stromsparmechanism aktiv hast? Wir sprechen von dem X470 Taichi Ultimate? Kann es sein, dass ata9 am ASMedia ASM1061 hängt? Das solltest du über Tools > System Devices > SCSI Devices erkennen können. Sonst einfach mal Screenshots davon und den IOMMU Gruppen posten.
  14. Externe Platten sind erst ab 10TB/12TB garantiert ohne SMR. Darunter muss man erst intensiv recherchieren. Laut hier wäre zB eine 6TB WD My Book eine SMR: https://forums.unraid.net/topic/82873-wb-my-book-6tb-smr/ https://www.amazon.de/gp/customer-reviews/RUWU6HJUD35V5/ Also besser weniger größere kaufen als viele kleine. Meine Empfehlung bei Laufwerken aus Gehäusen wäre die WD_BLACK 8TB D10, wenn es nicht noch größer werden soll. Da stecken original Ultrastar drin. Die sind allerdings sehr laut und waren auch schon länger nicht mehr im Angebot: https://geizhals.de/western-digital-wd-black-d10-game-drive-8tb-wdba3p0080hbk-nesn-a2118877.html Bei internen Platten kommt es schlicht darauf an, ob es schnell oder leise sein soll. Die Auswahl ist riesig: https://geizhals.de/?cat=hde7s&v=e&hloc=de&sort=r&bl1_id=30&xf=3772_3.5~8457_non-SMR~957_HGST~957_Seagate~957_Toshiba~957_Western+Digital Und sonst eben größere und damit weniger Platten kaufen. Hier gilt es zu beachten, dass die Toshiba HDDs keine Garantie für Endkunden bieten: https://www.toshiba-storage.com/de/warranty-information/ Ich habe dazu mal Mindfactory befragt und die haben mir klar gesagt, dass die ausschließlich die Gewährleistung übernehmen und die Platte nicht zu Toshiba einsenden: >Wir als Händler bieten die gesetzlich vorgeschriebene Gewährleistung für die Dauer von 24 Monaten bei Privatpersonen >Wenn die Gewährleistung abgelaufen ist müssen Sie sich an den Hersteller wenden. Also 2 Jahre mit Beweislastumkehr nach 6 Monaten = kann man vergessen. Ich habe übrigens auch mal meine Großhändler geprüft. Von denen führt leider keiner Toshiba Enterprise Laufwerke.
  15. Only for those who are interested how to verify SMR. The easiest way is to check the CDM benchmark. In the above example the benchmark resulted >10 MB/s for random writes. This is - as of today - impossible for CMR drives, so it must be a SMR. Compare the results with SMR benchmarks here (the fastest SMR drive reached 5 MB/s, which fits to the 250 MB/s for sequential writes): https://www.hardwareluxx.de/index.php/artikel/hardware/storage/49350-sieben-6-tb-festplatten-verschiedener-hersteller-im-test.html?start=10 Another method is to set more cycles in CDM and after it wrote multiple times the 4K random writes, copy the benchmark file that was generated on the disk through CDM to an external target. Now you can interrupt CDM (which usually deletes this file) and by that only a sequential copy transfer is running and if it is an SMR drive, it will be super slow (< 20 MB/s) as it needs to jump between media cache tracks (4K writes are cached here) and usual data tracks. By hearing or measuring the power consumption, there is even a third method. Wait for the multiple 4K random writes, copy the benchmark file and close CDM. Stop the copy transfer and directly after that the drive starts to clean the Media Cache, which is clearly audible (like a white noise). Power Consumption Example: This is why the power consumption of SMR drives is much higher than expected.
  16. Im aktuellen Newsletter wurde der Beitrag mit dem Download der nächsten Version verlinkt: https://forums.unraid.net/topic/92606-updates-on-nfsv4-support/?tab=comments#comment-1028865 Das Besondere: NSFv4 !
  17. Mich interessierte, wie man an die Originaldaten der Platte kommt. Also Array, stoppen, mit UD mounten und dann ein Backup machen. Die Idee wäre den Rebuild mit dem Backup abzugleichen, um bewerten zu können ob und welche Daten von einem evtl Verlust betroffen sind.
  18. Deine Optionen: a) Hätte man ein Backup, könnte man einen 1:1 Abgleich durchführen um korrupte Daten aufzudecken b) die Platte sichern und einen Rebuild durchführen. Danach mit dem Backup einen 1:1 Abgleich durchführen. c) einen Rebuild machen und beten das alles passt @ich777 Wenn eine Disk emuliert wird, ist sie dann über /mnt/diskX erreichbar? Also wie käme man bei einer Emulation an die realen Daten der Platte?
  19. Da du neugestartet hast, sind die Fehlermeldungen wohl weg: https://forums.unraid.net/topic/61438-disabled-disk-can-i-re-enable-and-how/ Oder hast du Syslog Mirror aktiviert? https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1008640
  20. Ich ziehe mal raus, was ich in den Logs so gefunden habe: system/vars.txt monitor ( [smart] => Array ( [disk7.199] => 20 [dev3.199] => 12198120 ) [u..d] => Array ( [disk1] => 95 [disk2] => 92 [disk3] => 92 [disk4] => 94 [disk5] => 90 [disk7] => 93 [disk8] => 91 [disk9] => 90 [disk6] => 93 ) [d..k] => Array ( [disk4] => red ) ) ... [disk4] => Array ( [idx] => 4 [name] => disk4 [device] => sdl [id] => ST10000NE0008-2PL103_ZS50728B [size] => 9766436812 [status] => DISK_DSBL [format] => GPT: 4KiB-aligned [rotational] => 1 [spundown] => 0 [temp] => 25 [numReads] => 0 [numWrites] => 0 [numErrors] => 0 [type] => Data [color] => red-on [spindownDelay] => 15 [spinupGroup] => [deviceSb] => md4 [idSb] => ST10000NE0008-2PL103_ZS50728B [sizeSb] => 9766436812 [luksState] => 0 [comment] => [exportable] => no [fsType] => xfs [fsStatus] => Mounted [fsColor] => yellow-on [fsSize] => 9764349900 [fsFree] => 973677136 [fsUsed] => 8790672764 [warning] => [critical] => ) logs/syslog.txt Aug 31 19:33:45 Jukes-Server kernel: scsi 6:0:4:0: Direct-Access ATA ST10000NE0008-2P EN02 PQ: 0 ANSI: 6 Aug 31 19:33:45 Jukes-Server kernel: scsi 6:0:4:0: SATA: handle(0x000c), sas_addr(0x4433221106000000), phy(6), device_name(0x0000000000000000) Aug 31 19:33:45 Jukes-Server kernel: scsi 6:0:4:0: enclosure logical id (0x50030057015e81c0), slot(5) Aug 31 19:33:45 Jukes-Server kernel: scsi 6:0:4:0: atapi(n), ncq(y), asyn_notify(n), smart(y), fua(y), sw_preserve(y) Aug 31 19:33:45 Jukes-Server kernel: scsi 6:0:4:0: qdepth(32), tagged(1), scsi_level(7), cmd_que(1) Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: Attached scsi generic sg11 type 0 Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: Power-on or device reset occurred Aug 31 19:33:45 Jukes-Server kernel: end_device-6:4: add: handle(0x000c), sas_addr(0x4433221106000000) Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] 19532873728 512-byte logical blocks: (10.0 TB/9.10 TiB) Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] 4096-byte physical blocks Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] Write Protect is off Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] Mode Sense: 7f 00 10 08 Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] Write cache: enabled, read cache: enabled, supports DPO and FUA Aug 31 19:33:45 Jukes-Server kernel: sdl: sdl1 Aug 31 19:33:45 Jukes-Server kernel: sd 6:0:4:0: [sdl] Attached SCSI disk ... Aug 31 19:34:17 Jukes-Server emhttpd: shcmd (67): mkdir -p /mnt/disk4 Aug 31 19:34:17 Jukes-Server emhttpd: shcmd (68): mount -t xfs -o noatime /dev/md4 /mnt/disk4 Aug 31 19:34:17 Jukes-Server kernel: XFS (md4): Mounting V5 Filesystem Aug 31 19:34:17 Jukes-Server kernel: XFS (md4): Ending clean mount Aug 31 19:34:17 Jukes-Server kernel: xfs filesystem being mounted at /mnt/disk4 supports timestamps until 2038 (0x7fffffff) Aug 31 19:34:17 Jukes-Server emhttpd: shcmd (69): xfs_growfs /mnt/disk4 Aug 31 19:34:17 Jukes-Server root: meta-data=/dev/md4 isize=512 agcount=10, agsize=268435455 blks Aug 31 19:34:17 Jukes-Server root: = sectsz=512 attr=2, projid32bit=1 Aug 31 19:34:17 Jukes-Server root: = crc=1 finobt=1, sparse=1, rmapbt=0 Aug 31 19:34:17 Jukes-Server root: = reflink=0 bigtime=0 inobtcount=0 Aug 31 19:34:17 Jukes-Server root: data = bsize=4096 blocks=2441609203, imaxpct=5 Aug 31 19:34:17 Jukes-Server root: = sunit=0 swidth=0 blks Aug 31 19:34:17 Jukes-Server root: naming =version 2 bsize=4096 ascii-ci=0, ftype=1 Aug 31 19:34:17 Jukes-Server root: log =internal log bsize=4096 blocks=521728, version=2 Aug 31 19:34:17 Jukes-Server root: = sectsz=512 sunit=0 blks, lazy-count=1 Aug 31 19:34:17 Jukes-Server root: realtime =none extsz=4096 blocks=0, rtextents=0 system/df.txt /dev/md4 9.1T 8.2T 929G 91% /mnt/disk4 system/lsscsi.txt [6:0:4:0] disk ATA ST10000NE0008-2P EN02 /dev/sdl /dev/sg11 state=running queue_depth=32 scsi_level=7 type=0 device_blocked=0 timeout=30 dir: /sys/bus/scsi/devices/6:0:4:0 [/sys/devices/pci0000:00/0000:00:1b.4/0000:03:00.0/host6/port-6:4/end_device-6:4/target6:0:4/6:0:4:0] Für mich sieht das alles in Ordnung aus und Fehler, die sich auf disk4, md4, sg11 oder sdl beziehen, kann ich keine finden. Ich mein man sieht, dass die Platte auf Rot steht, aber ich finde keinen Grund?! Es scheint sogar ein Prozess zu geben, der auf die Platte zugreift: root 29067 0.0 0.0 2648 724 ? S 19:35 0:00 | \_ /bin/timeout 150 find /mnt/disk4/Backups -noleaf -maxdepth 9 root 29072 1.0 0.0 4192 2364 ? D 19:35 0:00 | \_ find /mnt/disk4/Backups -noleaf -maxdepth 9 Was passiert denn wenn du im Terminal folgendes eingibst? du -smh /mnt/disk4/*
  21. Ich habe die Datei entfernt, da ich auch private Daten darin gesehen habe. Das taucht häufig auf: Sep 1 06:38:48 UNRAID avahi-daemon[27517]: Joining mDNS multicast group on interface 123456.IPv6 with address 1234::1234:1234:1234:1234. Sep 1 06:38:48 UNRAID avahi-daemon[27517]: New relevant interface 123456.IPv6 for mDNS. Sep 1 06:38:48 UNRAID avahi-daemon[27517]: Registering new address record for 1234::1234:1234:1234:1234 on 123456.*. Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered disabled state Sep 1 06:39:48 UNRAID kernel: vethe9e0d1f: renamed from eth0 Sep 1 06:39:48 UNRAID avahi-daemon[27517]: Interface 123456.IPv6 no longer relevant for mDNS. Sep 1 06:39:48 UNRAID avahi-daemon[27517]: Leaving mDNS multicast group on interface 123456.IPv6 with address 1234::1234:1234:1234:1234. Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered disabled state Sep 1 06:39:48 UNRAID kernel: device 123456 left promiscuous mode Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered disabled state Sep 1 06:39:48 UNRAID avahi-daemon[27517]: Withdrawing address record for 1234::1234:1234:1234:1234 on 123456. Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered blocking state Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered disabled state Sep 1 06:39:48 UNRAID kernel: device veth748acf4 entered promiscuous mode Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered blocking state Sep 1 06:39:48 UNRAID kernel: docker0: port 4(123456) entered forwarding state Sep 1 06:39:48 UNRAID kernel: eth0: renamed from 123456 Sep 1 06:39:48 UNRAID kernel: IPv6: ADDRCONF(NETDEV_CHANGE): 123456: link becomes ready Laut hier kommt das beim Starten / Stoppen von Containern: https://forums.unraid.net/topic/80687-network-connection-dropping/ https://forums.unraid.net/topic/106547-syslog-docker-meldungen/ Stoppen deine Container so oft? Denn das macht über die Hälfte der Logs aus und das ist eigentlich nicht normal. Aber auch das: Sep 1 11:31:07 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: update data pointers Sep 1 11:31:07 UNRAID kernel: BTRFS info (device sdb1): relocating block group 1137315938304 flags data Sep 1 11:31:12 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: move data extents Sep 1 11:31:12 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: update data pointers Sep 1 11:31:12 UNRAID kernel: BTRFS info (device sdb1): relocating block group 1136242196480 flags data Sep 1 11:31:16 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: move data extents Sep 1 11:31:16 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: update data pointers Sep 1 11:31:16 UNRAID kernel: BTRFS info (device sdb1): relocating block group 1135168454656 flags data Sep 1 11:31:21 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: move data extents Sep 1 11:31:21 UNRAID kernel: BTRFS info (device sdb1): found 4 extents, stage: update data pointers Machst du gerade einen BTRFS Balance bei sdb? Geht laut Google nämlich in diese Richtung.
  22. Das oder W480M ginge auch. Das Argument verstehe ich nicht. Der Xeon ist doch deutlich teurer?! Ich würde mit einem i3-8xxx oder 9xxx anfangen und darauf warten, dass ein gebrauchter Xeon angeboten wird. Lies mal bitte hier, da sind auch einige Bauvorschläge verlinkt: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1021228 Lies mal hier: https://forums.unraid.net/topic/107717-vorstellung-server-rack/
  23. Das ist vom File Activity Plugin? Da wäre die Frage ob dieses log "explodiert". Falls ja würde ich dem Entwickler vorschlagen ein Limit einzuführen. Du hast nach so kurzer Zeit schon sehr viele Einträge in deinen Logs. Schau dazu mal unter Tools > System Logs was da los ist.
  24. Yes. Add a redirection host with the following settings: Or if you want it for all domains:
×
×
  • Create New...