Smolo Posted November 10, 2022 Share Posted November 10, 2022 Ich bräuchte mal etwas Unterstützung und stehe grad vor einem riesen Problem. Nach dem Update auf >6.11 oder parallel dazu ist folgende Fehlermeldung aufgetreten. Unmountable: Wrong or no filesystem Auf der SSD liegt ein Share das nur auf dieser Platte liegt und plötzlich erscheint die Fehlermeldung und nix geht mehr. Smart Werte zeigen nichts an aber im Log steht folgendes? When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER ST SC SN CL CH DH -- -- -- -- -- -- -- 84 43 e8 9f ec e1 40 Error: ICRC, ABRT at LBA = 0x00e1ec9f = 14806175 Commands leading to the command that caused the error were: CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name -- -- -- -- -- -- -- -- ---------------- -------------------- 60 40 f0 a0 ec e1 40 00 07:42:55.172 READ FPDMA QUEUED 60 78 e8 28 e9 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 c8 e0 60 e7 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 e8 d8 78 e5 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 d8 d0 a0 e1 e1 40 00 07:42:55.169 READ FPDMA QUEUED Was genau ist jetzt zu tun bei Unraid? Parity Check lief parallel grad durch?! Quote Link to comment
mgutt Posted November 11, 2022 Share Posted November 11, 2022 Ein Parity Check bringt da nichts. Irgendwas hat das Dateisystem zerlegt. Wenn man nach "Error: ICRC, ABRT" googlet, dann kommt meist was Richtung defektes SATA Kabel oder Stromversorgung raus. Du kannst jetzt jedenfalls nur hingehen und die XFS Reparatur ausführen. Eventuell ist es nicht so schwerwiegend, dass er das wieder hinbekommt. Auf keinen Fall darfst du neu formatieren! 1 Quote Link to comment
vakilando Posted November 11, 2022 Share Posted November 11, 2022 2 hours ago, mgutt said: Wenn man nach "Error: ICRC, ABRT" googlet, dann kommt meist was Richtung defektes SATA Kabel oder Stromversorgung raus. ja, hab ich auch gefunden.... @mgutt würdest du vor einem Reparaturversuch einen reboot empfehlen, oder eher nicht? @Smolo Hast du vorher etwas am Server physisch gemacht? Vor einer Reparatur würde ich ggf. das Array im Wartungsmodus (maintenance mode) starten und einen Check ausführen mit den Optionen -nv (no modification, verbose). Danach eine XFS Reparatur. Siehe auch https://wiki.unraid.net/Check_Disk_Filesystems#Checking_and_fixing_drives_in_the_webGui 1 Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) @vakilando @mgutt Hardware habe ich nichts verändert Server lief einfach vor sich hin, das einzige was die Tage passiert war ist das Update auf die neue Version gewesen. Ansonsten kein Stromausfall oder dergleichen. Ich habe zuerst einen Plattencheck gemacht dabei kam folgendes raus: Phase 1 - find and verify superblock... - block cache size set to 3050336 entries Phase 2 - using internal log - zero log... zero_log: head block 169057 tail block 144289 ALERT: The filesystem has valuable metadata changes in a log which is being ignored because the -n option was used. Expect spurious inconsistencies which may be resolved by first mounting the filesystem to replay the log. - scan filesystem freespace and inode maps... sb_fdblocks 523062406, counted 529877321 - found root inode chunk Phase 3 - for each AG... - scan (but don't clear) agi unlinked lists... - process known inodes and perform inode discovery... - agno = 0 bad nblocks 18446744073708784089 for inode 144928554, would reset to 0 - agno = 1 - agno = 2 - agno = 3 - process newly discovered inodes... Phase 4 - check for duplicate blocks... - setting up duplicate extent list... - check for inodes claiming duplicate blocks... - agno = 0 - agno = 1 - agno = 3 - agno = 2 bad nblocks 18446744073708784089 for inode 144928554, would reset to 0 No modify flag set, skipping phase 5 Phase 6 - check inode connectivity... - traversing filesystem ... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - traversal finished ... - moving disconnected inodes to lost+found ... Phase 7 - verify link counts... No modify flag set, skipping filesystem flush and exiting. XFS_REPAIR Summary Fri Nov 11 16:47:34 2022 Phase Start End Duration Phase 1: 11/11 16:47:24 11/11 16:47:24 Phase 2: 11/11 16:47:24 11/11 16:47:25 1 second Phase 3: 11/11 16:47:25 11/11 16:47:31 6 seconds Phase 4: 11/11 16:47:31 11/11 16:47:31 Phase 5: Skipped Phase 6: 11/11 16:47:31 11/11 16:47:34 3 seconds Phase 7: 11/11 16:47:34 11/11 16:47:34 Total run time: 10 seconds ..............................Sorry, could not find valid secondary superblock Exiting now. Danach habe ich ein xfs_repair gemacht und dieser ist nach 2 1/2h mit folgendem geendet. ..............................Sorry, could not find valid secondary superblock Exiting now. Entsprechend der Anleitung versuche ich grad mit anderen Tools die Partition zu analysieren bzw. zu reparieren aber was wenn das nicht funktioniert?! Ich müsste doch über die Parity Platte meine Daten restoren können? Edited November 12, 2022 by Smolo Quote Link to comment
mgutt Posted November 12, 2022 Share Posted November 12, 2022 8 hours ago, Smolo said: Ich müsste doch über die Parity Platte meine Daten restoren können? Kommt drauf an. Du sagtest, dass du einen Parity Check gemacht hast: 1.) Gab es dabei Fehler? 2.) Wurden diese korrigiert? Nur wenn es Fehler gab und diese NICHT korrigiert wurden, ist die Parität noch auf dem alten Stand und ein Austausch des Datenträgers könnte helfen. Hast du allerdings die Fehler beheben lassen, dann haben die Daten auf den Disks Vorrang und die Parität wird dem kaputten Stand angepasst. Gab es dagegen gar keine Fehler, dann wurde der Schaden bereits vorher angerichtet und hat dabei die Parität ebenfalls aktualisiert. 9 hours ago, Smolo said: Danach habe ich ein xfs_repair gemacht und dieser ist nach 2 1/2h mit folgendem geendet. Hast du das Kommando manuell ausgeführt und versehentlich /dev/sdb statt /dev/sdb1 genommen? Wenn nein oder wenn du die Reparatur über die GUI angestoßen hast, dann sind die Daten komplett hinüber, denn XFS kopiert den primären Superblock mehrfach verteilt auf dem Datenträger ab und wenn er gar keinen Secondary findet, ist das ziemlich offensichtlich ein Totalschaden: https://manpages.ubuntu.com/manpages/jammy/man8/xfs_repair.8.html Quote Corrupted Superblocks XFS has both primary and secondary superblocks. xfs_repair uses information in the primary superblock to automatically find and validate the primary superblock against the secondary superblocks before proceeding. Should the primary be too corrupted to be useful in locating the secondary superblocks, the program scans the filesystem until it finds and validates some secondary superblocks. At that point, it generates a primary superblock. Quote Link to comment
mgutt Posted November 12, 2022 Share Posted November 12, 2022 On 11/11/2022 at 12:59 PM, vakilando said: @mgutt würdest du vor einem Reparaturversuch einen reboot empfehlen, oder eher nicht? Wenn ich das bei einem Kunden mache, dann nur mit einer dd-Kopie vom Datenträger. Bei mir privat hätte ich einfach direkt die Reparatur versucht und im Negativfall dann eben ein Backup wiederhergestellt. Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 12 minutes ago, mgutt said: Kommt drauf an. Du sagtest, dass du einen Parity Check gemacht hast: 1.) Gab es dabei Fehler? 2.) Wurden diese korrigiert? Nur wenn es Fehler gab und diese NICHT korrigiert wurden, ist die Parität noch auf dem alten Stand und ein Austausch des Datenträgers könnte helfen. Hast du allerdings die Fehler beheben lassen, dann haben die Daten auf den Disks Vorrang und die Parität wird dem kaputten Stand angepasst. Gab es dagegen gar keine Fehler, dann wurde der Schaden bereits vorher angerichtet und hat dabei die Parität ebenfalls aktualisiert. Hast du das Kommando manuell ausgeführt und versehentlich /dev/sdb statt /dev/sdb1 genommen? Wenn nein oder wenn du die Reparatur über die GUI angestoßen hast, dann sind die Daten komplett hinüber, denn XFS kopiert den primären Superblock mehrfach verteilt auf dem Datenträger ab und wenn er gar keinen Secondary findet, ist das ziemlich offensichtlich ein Totalschaden: https://manpages.ubuntu.com/manpages/jammy/man8/xfs_repair.8.html Nein keine Fehler. Ich bin grad echt im Krisenmodus. Keine Fehler zu keiner Zeit ausser die kleine Anzeige in der GUI das die Platte nicht gemounted werden kann. Und jetzt sind die Daten futsch das kann es dich nicht sein? Ich hatte grad auf der Platte wichtige Daten temporär abgelegt ...am normalen Speicherort wird alles 4 Fach gesichert nur zu dem Zeitpunkt grad nicht wegen Datenverschiebungen. Das kann es doch nicht sein und das bei ner neuen SSD / System ohne eine einzige Meldung 😮 Im GUI kann ich doch gar kein xfs repair fahren außer über die Konsole? Ich habe natürlich SDB genommen sdb1 existiert bei mir nicht. Irgendwelche Vorschläge? Quote Link to comment
hawihoney Posted November 12, 2022 Share Posted November 12, 2022 (edited) Mich wundert im Screenshot, dass Disk4 offline ist, Disk1 aktiv, die Parity aber nicht. Eigentlich müsste beim Zugriff auf Daten, die sich auf Disk4 befanden, emuliert werden. Dazu müsste aber die Parity mit einspringen. Greif bitte mal auf Daten zu, von denen Du weißt, dass sie auf Disk4 sein müssten. Was passiert? Fährt die Parity hoch? Edited November 12, 2022 by hawihoney Quote Link to comment
mgutt Posted November 12, 2022 Share Posted November 12, 2022 19 minutes ago, hawihoney said: dass Disk4 offline ist ... Eigentlich müsste beim Zugriff auf Daten sich auf Disk4 befanden, emuliert werden Das siehst du falsch. Disk4 ist aus Sicht von Unraid unformatiert. Also genauso als würdest du eine neue Disk dem Array hinzufügen. Und dieser unformatierte Zustand ist Teil des Zustands der Parität (weil smolo bestätigt hat, dass der letzte Parity Check keine Fehler zurückgegeben hat). Wenn man jetzt also die ersten Bytes einer Platte irgendwie überschreibt und damit die Partitionstabelle zerlegt, dann hat man genau diesen Zustand, der live auf die Parität geschrieben wird. 30 minutes ago, Smolo said: Ich habe natürlich SDB genommen sdb1 existiert bei mir nicht. Dann ist die Partitionstabelle hinüber. Check bitte mal mit: lsblk Sollte wirklich keine sdb1 existieren, dann solltest du mit testdisk versuchen die Partition wiederherzustellen (ich denke mal Array dann stoppen). Natürlich alles auf eigene Gefahr. @ich777 Kennst du ein testdisk Installationspaket für Unraid 6.11? Ich habe das gefunden, aber das will nicht funktionieren: https://slackware.pkgs.org/14.1/slacky-x86_64/testdisk-6.14-x86_64-2sl.txz.html Quote testdisk testdisk: error while loading shared libraries: libntfs-3g.so.84: cannot open shared object file: No such file or directory Quote Link to comment
hawihoney Posted November 12, 2022 Share Posted November 12, 2022 (edited) 31 minutes ago, mgutt said: Disk4 ist aus Sicht von Unraid unformatiert. Also genauso als würdest du eine neue Disk dem Array hinzufügen. Aber müsste dann nicht das Formatieren beim gestoppten Array angeboten werden (was natürlich nicht gemacht werden sollte)? Und noch ein Gedanke: Array stoppen, Disk4 ziehen und im Maintenance Modus starten. Was würde passieren? Dieser Zustand des Arrays verwirrt mich. Edited November 12, 2022 by hawihoney Quote Link to comment
ich777 Posted November 12, 2022 Share Posted November 12, 2022 41 minutes ago, mgutt said: @ich777 Kennst du ein testdisk Ich kann morgen am Abend eins kompilieren bzw. mir das mal ansehen sollte aber hoffentlich kein problem sein. Hab leider vor morgen Abend keine Zeit… Quote Link to comment
mgutt Posted November 12, 2022 Share Posted November 12, 2022 37 minutes ago, hawihoney said: Aber müsste dann nicht das Formatieren beim gestoppten Array angeboten werden Formatiert wird doch nach dem Start?! 37 minutes ago, hawihoney said: Und noch ein Gedanke: Array stoppen, Disk4 ziehen und im Maintenance Modus starten. Was würde passieren? Könnte man probieren, aber ich bin Recht sicher, dass das nichts ändert. Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) Also ich hatte die Platte rausgenommen und am Laptop Testdisk ausgeführt der Quick Check hat folgendes gesagt: Sat Nov 12 10:18:06 2022 Command line: TestDisk TestDisk 7.2-WIP, Data Recovery Utility, November 2022 Christophe GRENIER <[email protected]> https://www.cgsecurity.org OS: Windows 8 (9200) Compiler: GCC 11.2, Cygwin32 3001.4 ext2fs lib: 1.45.3, ntfs lib: 10:0:0, reiserfs lib: none, ewf lib: 20140608, curses lib: ncurses 6.1 disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\PhysicalDrive0)=256060514304 disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\PhysicalDrive1)=4000787030016 disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\C:)=254641487360 Hard disk list Disk \\.\PhysicalDrive0 - 256 GB / 238 GiB - CHS 31130 255 63, sector size=512 - SAMSUNG MZMTD256HAGM-000MV, S/N:S1GLNYADC01343, FW:DXT43M0Q Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63, sector size=512 - SanDisk SDSSDH3 4T00, S/N:060032200240 Partition table type (auto): EFI GPT Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - SanDisk SDSSDH3 4T00 Partition table type: EFI GPT Analyse Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63 hdr_size=92 hdr_lba_self=1 hdr_lba_alt=7814037167 (expected 7814037167) hdr_lba_start=34 hdr_lba_end=7814037134 hdr_lba_table=2 hdr_entries=128 hdr_entsz=128 Current partition structure: 1 P Linux filesys. data 2048 7814037134 7814035087 Backup partition structure partition_save search_part() Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63 XFS Marker at 0/32/33 recover_xfs Linux filesys. data 2048 7814037127 7814035080 XFS CRC enabled, blocksize=4096, 4000 GB / 3726 GiB file_win32_pread(604,1,buffer,3519069836(486401/80/28)) read err: read after end of file file_win32_pread(604,1,buffer,3519069837(486401/80/29)) read err: read after end of file file_win32_pread(604,14,buffer,3519069838(486401/80/30)) read err: read after end of file file_win32_pread(604,3,buffer,3519069852(486401/80/44)) read err: read after end of file file_win32_pread(604,1,buffer,3519069855(486401/80/47)) read err: read after end of file file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file file_win32_pread(604,1,buffer,3519069857(486401/80/49)) read err: read after end of file file_win32_pread(604,1,buffer,3519069840(486401/80/32)) read err: read after end of file file_win32_pread(604,1,buffer,3519069841(486401/80/33)) read err: read after end of file file_win32_pread(604,14,buffer,3519069842(486401/80/34)) read err: read after end of file file_win32_pread(604,1,buffer,3519069858(486401/80/50)) read err: read after end of file file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file file_win32_pread(604,1,buffer,3519069857(486401/80/49)) read err: read after end of file file_win32_pread(604,1,buffer,3519069860(486401/80/52)) read err: read after end of file file_win32_pread(604,1,buffer,3519069843(486401/80/35)) read err: read after end of file file_win32_pread(604,1,buffer,3519069844(486401/80/36)) read err: read after end of file file_win32_pread(604,14,buffer,3519069845(486401/80/37)) read err: read after end of file file_win32_pread(604,1,buffer,3519069861(486401/80/53)) read err: read after end of file file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file file_win32_pread(604,1,buffer,3519069860(486401/80/52)) read err: read after end of file file_win32_pread(604,1,buffer,3519069863(486401/80/55)) read err: read after end of file file_win32_pread(604,1,buffer,3519069846(486401/80/38)) read err: read after end of file file_win32_pread(604,1,buffer,3519069847(486401/80/39)) read err: read after end of file file_win32_pread(604,14,buffer,3519069848(486401/80/40)) read err: read after end of file file_win32_pread(604,1,buffer,3519069864(486401/80/56)) read err: read after end of file file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file file_win32_pread(604,1,buffer,3519069863(486401/80/55)) read err: read after end of file file_win32_pread(604,1,buffer,3519069866(486401/80/58)) read err: read after end of file file_win32_pread(604,1,buffer,3519069849(486401/80/41)) read err: read after end of file file_win32_pread(604,1,buffer,3519069850(486401/80/42)) read err: read after end of file file_win32_pread(604,14,buffer,3519069851(486401/80/43)) read err: read after end of file file_win32_pread(604,1,buffer,3519069867(486401/80/59)) read err: read after end of file file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file file_win32_pread(604,1,buffer,3519069866(486401/80/58)) read err: read after end of file file_win32_pread(604,1,buffer,3519069869(486401/80/61)) read err: read after end of file file_win32_pread(604,1,buffer,3519069852(486401/80/44)) read err: read after end of file file_win32_pread(604,1,buffer,3519069853(486401/80/45)) read err: read after end of file file_win32_pread(604,14,buffer,3519069854(486401/80/46)) read err: read after end of file file_win32_pread(604,1,buffer,3519069870(486401/80/62)) read err: read after end of file file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file file_win32_pread(604,1,buffer,3519069869(486401/80/61)) read err: read after end of file file_win32_pread(604,1,buffer,3519069855(486401/80/47)) read err: read after end of file file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file file_win32_pread(604,14,buffer,3519069857(486401/80/49)) read err: read after end of file file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file file_win32_pread(604,1,buffer,3519069858(486401/80/50)) read err: read after end of file file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file file_win32_pread(604,14,buffer,3519069860(486401/80/52)) read err: read after end of file file_win32_pread(604,1,buffer,3519069861(486401/80/53)) read err: read after end of file file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file file_win32_pread(604,14,buffer,3519069863(486401/80/55)) read err: read after end of file file_win32_pread(604,1,buffer,3519069864(486401/80/56)) read err: read after end of file file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file file_win32_pread(604,14,buffer,3519069866(486401/80/58)) read err: read after end of file file_win32_pread(604,1,buffer,3519069867(486401/80/59)) read err: read after end of file file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file file_win32_pread(604,14,buffer,3519069869(486401/80/61)) read err: read after end of file file_win32_pread(604,1,buffer,3519069870(486401/80/62)) read err: read after end of file file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file Results P Linux filesys. data 2048 7814037127 7814035080 XFS CRC enabled, blocksize=4096, 4000 GB / 3726 GiB interface_write() No partition found or selected for recovery Danach hab ich auf Advanced Search gemacht aber der lief dann 8h ohne das dann noch was passiert ist im Log stand folgendes: search_part() Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63 file_win32_pread(604,1,buffer,34(0/0/35)) read err: read after end of file file_win32_pread(604,1,buffer,35(0/0/36)) read err: read after end of file file_win32_pread(604,14,buffer,36(0/0/37)) read err: read after end of file file_win32_pread(604,3,buffer,50(0/0/51)) read err: read after end of file file_win32_pread(604,3,buffer,97(0/1/35)) read err: read after end of file file_win32_pread(604,8,buffer,113(0/1/51)) read err: read after end of file file_win32_pread(604,11,buffer,160(0/2/35)) read err: read after end of file file_win32_pread(604,2,buffer,2082(0/33/4)) read err: read after end of file file_win32_pread(604,1,buffer,53(0/0/54)) read err: read after end of file file_win32_pread(604,1,buffer,100(0/1/38)) read err: read after end of file file_win32_pread(604,1,buffer,121(0/1/59)) read err: read after end of file file_win32_pread(604,1,buffer,171(0/2/46)) read err: read after end of file file_win32_pread(604,1,buffer,2084(0/33/6)) read err: read after end of file file_win32_pread(604,1,buffer,54(0/0/55)) read err: read after end of file file_win32_pread(604,1,buffer,101(0/1/39)) read err: read after end of file file_win32_pread(604,1,buffer,122(0/1/60)) read err: read after end of file file_win32_pread(604,1,buffer,172(0/2/47)) read err: read after end of file file_win32_pread(604,1,buffer,2085(0/33/7)) read err: read after end of file file_win32_pread(604,1,buffer,55(0/0/56)) read err: read after end of file usw...... Ich hab jetzt noch mal den Quickcheck angeworfen dat schaut so hier aus Ich bin echt am verzweifeln wieso läuft der Parity Check da überhaupt durch und warum freezt geht das System nicht in vollstop wenn da einfach ne Platte aus dem Array fällt? Edited November 12, 2022 by Smolo Quote Link to comment
hawihoney Posted November 12, 2022 Share Posted November 12, 2022 (edited) 1 hour ago, mgutt said: Formatiert wird doch nach dem Start?! Aber angeboten vor dem Start. Nach dem Start wird dann formatiert. Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben? Über die Gründe kann man nur spekulieren. Mir ist noch nie (!!!) eine Harddisk fliegen gegangen ohne das Unraid das merkt. Ich hatte aber schon mehrere Ausfälle von SSD- und NVMe Disks die nicht zur Kenntnis genommen wurden. Das letzte mal vor 2 Wochen. Nachtrag: Du bist jetzt auf 6.9.1? Edited November 12, 2022 by hawihoney Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) 33 minutes ago, hawihoney said: Aber angeboten vor dem Start. Nach dem Start wird dann formatiert. Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben? Über die Gründe kann man nur spekulieren. Mir ist noch nie (!!!) eine Harddisk fliegen gegangen ohne das Unraid das merkt. Ich hatte aber schon mehrere Ausfälle von SSD- und NVMe Disks die nicht zur Kenntnis genommen wurden. Das letzte mal vor 2 Wochen. Nachtrag: Du bist jetzt auf 6.9.1? Version habe ich aus der Signatur rausgeschmissen bin jetzt bei 6.11.2. Ich habe grad den "genauen" Ablauf in meinen Telegram Meldungen gefunden: - Update eingespielt - Parity Check started - Fix Common Problems meldet ein Problem mit der DISK - Parity Check läuft ohne Problem durch?! Wie kann man denn einen Ausfall einer Platte nicht zur Kenntnis nehmen? Und selbst wenn dürfte Unraid niemals aber niemals einfach die aktuelle Parität wegschmeißen!!! Edited November 12, 2022 by Smolo Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) 51 minutes ago, hawihoney said: Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben? Wenn ich das System hochfahre ohne die Platte sieht es wie folgt aus: Es sind dann zwei Ordner da aber leider ist im "Bilder" Ordner nichts mehr enthalten. Im photoprism Ordner sind noch ein paar Thumbs und YML Dateien existient Edited November 12, 2022 by Smolo Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) Kann mir das jemand erklären wie die anderen Disks ungeschützt sein können wenn die 4er nicht existent ist und er sagt die 1er spinnt? Edited November 12, 2022 by Smolo Quote Link to comment
Smolo Posted November 12, 2022 Author Share Posted November 12, 2022 (edited) Also Starten ohne eingehange Platte war gar keine gute Idee. Wenn ich die Platte wieder reinhänge erkennt er diese jetzt nicht mehr und will Sie als neues Device reinpacken. Per UnassginedPlugin habe ich jetzt aber folgendes gefunden? Edited November 12, 2022 by Smolo Quote Link to comment
jj1987 Posted November 12, 2022 Share Posted November 12, 2022 1 hour ago, Smolo said: Und selbst wenn dürfte Unraid niemals aber niemals einfach die aktuelle Parität wegschmeißen!!! Kommt drauf an, was du beim Parity Check eingestellt hast. Fehler korrigieren oder nicht. Bin mir gerade nicht sicher was der Standard Wert ist, ich hab's bei mir auf alle Fälle auf deaktiviert stehen Quote Link to comment
jj1987 Posted November 12, 2022 Share Posted November 12, 2022 (edited) 39 minutes ago, Smolo said: Kann mir das jemand erklären wie die anderen Disks ungeschützt sein können wenn die 4er nicht existent ist Die Parity kann nur den Ausfall einer Disk abfangen, da Disk 4 raus ist = kein Schutz vor weiteren Ausfällen bis Wiederherstellung Disk 4 bzw neuer Parity Edited November 12, 2022 by jj1987 1 Quote Link to comment
Smolo Posted November 13, 2022 Author Share Posted November 13, 2022 (edited) 21 minutes ago, jj1987 said: Kommt drauf an, was du beim Parity Check eingestellt hast. Fehler korrigieren oder nicht. Bin mir gerade nicht sicher was der Standard Wert ist, ich hab's bei mir auf alle Fälle auf deaktiviert stehen Die Option ist bei mir auch deaktiviert das erklärt dann aber nicht wo die Daten hin sind. 17 minutes ago, jj1987 said: Die Parity kann nur den Ausfall einer Disk abfangen, da Disk 4 raus ist = kein Schutz vor weiteren Ausfällen bis Wiederherstellung Disk 4 bzw neuer Parity Ach ich war durch die Anzeige der Disk 1 im Fotos Share irritiert aber das ist die Disk Ausnahme. Danke bin schon voll im Daten Worst Case Wahnsinn untwegs^^ Edited November 13, 2022 by Smolo Quote Link to comment
JorgeB Posted November 13, 2022 Share Posted November 13, 2022 Click the force log zeroing option, it's the only option when the log cannot be cleared with a mount, and while there's a chance of some data loss it's the only option, and usually most data is recoverable. 1 Quote Link to comment
JorgeB Posted November 13, 2022 Share Posted November 13, 2022 Then mount the SSD with UD, don't add it back to the array or it will be rebuilt on top. 1 Quote Link to comment
hawihoney Posted November 13, 2022 Share Posted November 13, 2022 (edited) 7 hours ago, Smolo said: Wenn ich das System hochfahre ohne die Platte sieht es wie folgt aus: Und genau so muss es sein. Disk4 wird nun emuliert. Das degradierte Array zeigt nun "seinen" aktuellen Wissensstand. Dieser unterscheidet sich nicht von dem "Wissen" mit defekter Disk4. Jetzt mal auf die emulierte Disk4 zugreifen (ls -la /mnt/disk4 oder mc aufrufen). Was siehst Du? Danach guckst Du was den Inhalt des Arrays angeht und machst ggfs. ein Backup. Disk4 steht nun außerhalb des Arrays und sollte dort für Reparaturen/Analysen bleiben. Alles was Du mit ihr anstellst geht auch ohne das Array. Im Gegenteil: Das Array kannst Du jetzt auf Inhalt (nicht Parity) prüfen, sichern und nutzen. Und eventuelle Ergebnisse der Reparaturen können auf das Array kopiert werden. Wenn Du eine Reserve Platte in Größe der entfernten Platte (oder größer bis maximal Parity Größe) hast, dann könntest Du diese reinstecken und Disk4 rebuilden lassen. Dann hättest Du die Ausfallsicherheit wiederhergestellt. Selbst eine wiederhergestellte, schrottige Disk4 kann zur Ausfallsicherheit beitragen - es geht ja nur um Bits. Hauptsache die Bits stimmen über das Array hinweg. Irgendwann mal, nach Abschluss aller Arbeiten, muss die Disk4 - sofern sie defekt emuliert wurde (siehe /mnt/disk4 oben) - im Array aber neu aufgebaut (formatiert) werden. Oder man entfernt sie ganz. Das alles entscheidet man ganz zum Schluss. Edited November 13, 2022 by hawihoney Quote Link to comment
ich777 Posted November 13, 2022 Share Posted November 13, 2022 10 hours ago, mgutt said: @ich777 Kennst du ein testdisk Installationspaket für Unraid 6.11? Ich habe das gefunden, aber das will nicht funktionieren: So, hatte kurz Zeit, hab es auch kompiliert aber ich hab dann mal mit un-get gesucht und auch gefunden. Um es in gang zu bekommen einfach un-get installieren und dann: un-get update un-get install testdisk libewf (libewf brauchst damit testidsk läuft) Danach kannst: testdisk ganz normal ausführen. Zum löschen einfach wieder: un-get remove testdisk libewf 2 Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.