Unmountable: Wrong or no filesystem


Smolo
Go to solution Solved by JorgeB,

Recommended Posts

Ich bräuchte mal etwas Unterstützung und stehe grad vor einem riesen Problem. Nach dem Update auf >6.11 oder parallel dazu ist folgende Fehlermeldung aufgetreten.

 

Unmountable: Wrong or no filesystem

image.thumb.png.6bbb6783e0cfcbd662354d0438394cc9.png

 

Auf der SSD liegt ein Share das nur auf dieser Platte liegt und plötzlich erscheint die Fehlermeldung und nix geht mehr.

 

Smart Werte zeigen nichts an aber im Log steht folgendes?

 

When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER ST SC SN CL CH DH -- -- -- -- -- -- -- 84 43 e8 9f ec e1 40 Error: ICRC, ABRT at LBA = 0x00e1ec9f = 14806175 Commands leading to the command that caused the error were: CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name -- -- -- -- -- -- -- -- ---------------- -------------------- 60 40 f0 a0 ec e1 40 00 07:42:55.172 READ FPDMA QUEUED 60 78 e8 28 e9 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 c8 e0 60 e7 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 e8 d8 78 e5 e1 40 00 07:42:55.169 READ FPDMA QUEUED 60 d8 d0 a0 e1 e1 40 00 07:42:55.169 READ FPDMA QUEUED

 

Was genau ist jetzt zu tun bei Unraid? Parity Check lief parallel grad durch?!

Link to comment

Ein Parity Check bringt da nichts. Irgendwas hat das Dateisystem zerlegt. 

 

Wenn man nach "Error: ICRC, ABRT" googlet, dann kommt meist was Richtung defektes SATA Kabel oder Stromversorgung raus.

 

Du kannst jetzt jedenfalls nur hingehen und die XFS Reparatur ausführen. Eventuell ist es nicht so schwerwiegend, dass er das wieder hinbekommt.

 

Auf keinen Fall darfst du neu formatieren!

  • Thanks 1
Link to comment
2 hours ago, mgutt said:

Wenn man nach "Error: ICRC, ABRT" googlet, dann kommt meist was Richtung defektes SATA Kabel oder Stromversorgung raus.

ja, hab ich auch gefunden....

@mgutt würdest du vor einem Reparaturversuch einen reboot empfehlen, oder eher nicht?

@Smolo Hast du vorher etwas am Server physisch gemacht?

Vor einer Reparatur würde ich ggf. das Array im Wartungsmodus (maintenance mode) starten und einen Check ausführen mit den Optionen -nv (no modification, verbose).

Danach eine XFS Reparatur.

Siehe auch https://wiki.unraid.net/Check_Disk_Filesystems#Checking_and_fixing_drives_in_the_webGui 

  • Thanks 1
Link to comment

@vakilando @mgutt

Hardware habe ich nichts verändert Server lief einfach vor sich hin, das einzige was die Tage passiert war ist das Update auf die neue Version gewesen. Ansonsten kein Stromausfall oder dergleichen.

 

Ich habe zuerst einen Plattencheck gemacht dabei kam folgendes raus:

 

Phase 1 - find and verify superblock...
        - block cache size set to 3050336 entries
Phase 2 - using internal log
        - zero log...
zero_log: head block 169057 tail block 144289
ALERT: The filesystem has valuable metadata changes in a log which is being
ignored because the -n option was used.  Expect spurious inconsistencies
which may be resolved by first mounting the filesystem to replay the log.
        - scan filesystem freespace and inode maps...
sb_fdblocks 523062406, counted 529877321
        - found root inode chunk
Phase 3 - for each AG...
        - scan (but don't clear) agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
bad nblocks 18446744073708784089 for inode 144928554, would reset to 0
        - agno = 1
        - agno = 2
        - agno = 3
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 1
        - agno = 3
        - agno = 2
bad nblocks 18446744073708784089 for inode 144928554, would reset to 0
No modify flag set, skipping phase 5
Phase 6 - check inode connectivity...
        - traversing filesystem ...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify link counts...
No modify flag set, skipping filesystem flush and exiting.

        XFS_REPAIR Summary    Fri Nov 11 16:47:34 2022

Phase		Start		End		Duration
Phase 1:	11/11 16:47:24	11/11 16:47:24
Phase 2:	11/11 16:47:24	11/11 16:47:25	1 second
Phase 3:	11/11 16:47:25	11/11 16:47:31	6 seconds
Phase 4:	11/11 16:47:31	11/11 16:47:31
Phase 5:	Skipped
Phase 6:	11/11 16:47:31	11/11 16:47:34	3 seconds
Phase 7:	11/11 16:47:34	11/11 16:47:34

Total run time: 10 seconds


..............................Sorry, could not find valid secondary superblock
Exiting now.

 

Danach habe ich ein xfs_repair gemacht und dieser ist nach 2 1/2h mit folgendem geendet.

 

..............................Sorry, could not find valid secondary superblock
Exiting now.

 

Entsprechend der Anleitung versuche ich grad mit anderen Tools die Partition zu analysieren bzw. zu reparieren aber was wenn das nicht funktioniert?! Ich müsste doch über die Parity Platte meine Daten restoren können?

 

 

 

Edited by Smolo
Link to comment
8 hours ago, Smolo said:

Ich müsste doch über die Parity Platte meine Daten restoren können?

Kommt drauf an. Du sagtest, dass du einen Parity Check gemacht hast:

1.) Gab es dabei Fehler?

2.) Wurden diese korrigiert?

 

Nur wenn es Fehler gab und diese NICHT korrigiert wurden, ist die Parität noch auf dem alten Stand und ein Austausch des Datenträgers könnte helfen. Hast du allerdings die Fehler beheben lassen, dann haben die Daten auf den Disks Vorrang und die Parität wird dem kaputten Stand angepasst. Gab es dagegen gar keine Fehler, dann wurde der Schaden bereits vorher angerichtet und hat dabei die Parität ebenfalls aktualisiert.

 

9 hours ago, Smolo said:

Danach habe ich ein xfs_repair gemacht und dieser ist nach 2 1/2h mit folgendem geendet.

Hast du das Kommando manuell ausgeführt und versehentlich /dev/sdb statt /dev/sdb1 genommen? Wenn nein oder wenn du die Reparatur über die GUI angestoßen hast, dann sind die Daten komplett hinüber, denn XFS kopiert den primären Superblock mehrfach verteilt auf dem Datenträger ab und wenn er gar keinen Secondary findet, ist das ziemlich offensichtlich ein Totalschaden:

https://manpages.ubuntu.com/manpages/jammy/man8/xfs_repair.8.html

Quote

Corrupted Superblocks XFS has both primary and secondary superblocks. xfs_repair uses information in the primary superblock to automatically find and validate the primary superblock against the secondary superblocks before proceeding. Should the primary be too corrupted to be useful in locating the secondary superblocks, the program scans the filesystem until it finds and validates some secondary superblocks. At that point, it generates a primary superblock.

 

 

Link to comment
On 11/11/2022 at 12:59 PM, vakilando said:

@mgutt würdest du vor einem Reparaturversuch einen reboot empfehlen, oder eher nicht?

 

Wenn ich das bei einem Kunden mache, dann nur mit einer dd-Kopie vom Datenträger. Bei mir privat hätte ich einfach direkt die Reparatur versucht und im Negativfall dann eben ein Backup wiederhergestellt.

Link to comment
12 minutes ago, mgutt said:

Kommt drauf an. Du sagtest, dass du einen Parity Check gemacht hast:

1.) Gab es dabei Fehler?

2.) Wurden diese korrigiert?

 

Nur wenn es Fehler gab und diese NICHT korrigiert wurden, ist die Parität noch auf dem alten Stand und ein Austausch des Datenträgers könnte helfen. Hast du allerdings die Fehler beheben lassen, dann haben die Daten auf den Disks Vorrang und die Parität wird dem kaputten Stand angepasst. Gab es dagegen gar keine Fehler, dann wurde der Schaden bereits vorher angerichtet und hat dabei die Parität ebenfalls aktualisiert.

 

Hast du das Kommando manuell ausgeführt und versehentlich /dev/sdb statt /dev/sdb1 genommen? Wenn nein oder wenn du die Reparatur über die GUI angestoßen hast, dann sind die Daten komplett hinüber, denn XFS kopiert den primären Superblock mehrfach verteilt auf dem Datenträger ab und wenn er gar keinen Secondary findet, ist das ziemlich offensichtlich ein Totalschaden:

https://manpages.ubuntu.com/manpages/jammy/man8/xfs_repair.8.html

 

 

Nein keine Fehler. Ich bin grad echt im Krisenmodus. Keine Fehler zu keiner Zeit ausser die kleine Anzeige in der GUI das die Platte nicht gemounted werden kann. Und jetzt sind die Daten futsch das kann es dich nicht sein?

 

Ich hatte grad auf der Platte wichtige Daten temporär abgelegt ...am normalen Speicherort wird alles 4 Fach gesichert nur zu dem Zeitpunkt grad nicht wegen Datenverschiebungen. Das kann es doch nicht sein und das bei ner neuen SSD / System ohne eine einzige Meldung 😮

 

Im GUI kann ich doch gar kein xfs repair fahren außer über die Konsole?

 

Ich habe natürlich SDB genommen sdb1 existiert bei mir nicht.

 

Irgendwelche Vorschläge?

Link to comment

Mich wundert im Screenshot, dass Disk4 offline ist, Disk1 aktiv, die Parity aber nicht. Eigentlich müsste beim Zugriff auf Daten, die sich auf Disk4 befanden, emuliert werden. Dazu müsste aber die Parity mit einspringen.

 

Greif bitte mal auf Daten zu, von denen Du weißt, dass sie auf Disk4 sein müssten. Was passiert? Fährt die Parity hoch?

 

 

 

Edited by hawihoney
Link to comment
19 minutes ago, hawihoney said:

dass Disk4 offline ist  ... Eigentlich müsste beim Zugriff auf Daten sich auf Disk4 befanden, emuliert werden

Das siehst du falsch. Disk4 ist aus Sicht von Unraid unformatiert. Also genauso als würdest du eine neue Disk dem Array hinzufügen. Und dieser unformatierte Zustand ist Teil des Zustands der Parität (weil smolo bestätigt hat, dass der letzte Parity Check keine Fehler zurückgegeben hat). Wenn man jetzt also die ersten Bytes einer Platte irgendwie überschreibt und damit die Partitionstabelle zerlegt, dann hat man genau diesen Zustand, der live auf die Parität geschrieben wird.

 

30 minutes ago, Smolo said:

Ich habe natürlich SDB genommen sdb1 existiert bei mir nicht.

Dann ist die Partitionstabelle hinüber. Check bitte mal mit:

lsblk

 

Sollte wirklich keine sdb1 existieren, dann solltest du mit testdisk versuchen die Partition wiederherzustellen (ich denke mal Array dann stoppen). Natürlich alles auf eigene Gefahr.

 

@ich777 Kennst du ein testdisk Installationspaket für Unraid 6.11? Ich habe das gefunden, aber das will nicht funktionieren:

https://slackware.pkgs.org/14.1/slacky-x86_64/testdisk-6.14-x86_64-2sl.txz.html

Quote

testdisk
testdisk: error while loading shared libraries: libntfs-3g.so.84: cannot open shared object file: No such file or directory

 

 

Link to comment
31 minutes ago, mgutt said:

Disk4 ist aus Sicht von Unraid unformatiert. Also genauso als würdest du eine neue Disk dem Array hinzufügen.

 

Aber müsste dann nicht das Formatieren beim gestoppten Array angeboten werden (was natürlich nicht gemacht werden sollte)?

 

Und noch ein Gedanke: Array stoppen, Disk4 ziehen und im Maintenance Modus starten. Was würde passieren?

 

Dieser Zustand des Arrays verwirrt mich.

 

Edited by hawihoney
Link to comment
37 minutes ago, hawihoney said:

Aber müsste dann nicht das Formatieren beim gestoppten Array angeboten werden

Formatiert wird doch nach dem Start?!

 

37 minutes ago, hawihoney said:

Und noch ein Gedanke: Array stoppen, Disk4 ziehen und im Maintenance Modus starten. Was würde passieren?

Könnte man probieren, aber ich bin Recht sicher, dass das nichts ändert.

Link to comment

Also ich hatte die Platte rausgenommen und am Laptop Testdisk ausgeführt der Quick Check hat folgendes gesagt:

 

Sat Nov 12 10:18:06 2022
Command line: TestDisk

TestDisk 7.2-WIP, Data Recovery Utility, November 2022
Christophe GRENIER <[email protected]>
https://www.cgsecurity.org
OS: Windows 8 (9200)
Compiler: GCC 11.2, Cygwin32 3001.4
ext2fs lib: 1.45.3, ntfs lib: 10:0:0, reiserfs lib: none, ewf lib: 20140608, curses lib: ncurses 6.1
disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\PhysicalDrive0)=256060514304
disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\PhysicalDrive1)=4000787030016
disk_get_size_win32 IOCTL_DISK_GET_LENGTH_INFO(\\.\C:)=254641487360
Hard disk list
Disk \\.\PhysicalDrive0 - 256 GB / 238 GiB - CHS 31130 255 63, sector size=512 - SAMSUNG MZMTD256HAGM-000MV, S/N:S1GLNYADC01343, FW:DXT43M0Q
Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63, sector size=512 - SanDisk SDSSDH3 4T00, S/N:060032200240

Partition table type (auto): EFI GPT
Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - SanDisk SDSSDH3 4T00
Partition table type: EFI GPT

Analyse Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63
hdr_size=92
hdr_lba_self=1
hdr_lba_alt=7814037167 (expected 7814037167)
hdr_lba_start=34
hdr_lba_end=7814037134
hdr_lba_table=2
hdr_entries=128
hdr_entsz=128
Current partition structure:
 1 P Linux filesys. data         2048 7814037134 7814035087
Backup partition structure
partition_save

search_part()
Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63

XFS Marker at 0/32/33

recover_xfs
     Linux filesys. data         2048 7814037127 7814035080
     XFS CRC enabled, blocksize=4096, 4000 GB / 3726 GiB
file_win32_pread(604,1,buffer,3519069836(486401/80/28)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069837(486401/80/29)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069838(486401/80/30)) read err: read after end of file
file_win32_pread(604,3,buffer,3519069852(486401/80/44)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069855(486401/80/47)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069857(486401/80/49)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069840(486401/80/32)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069841(486401/80/33)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069842(486401/80/34)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069858(486401/80/50)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069857(486401/80/49)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069860(486401/80/52)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069843(486401/80/35)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069844(486401/80/36)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069845(486401/80/37)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069861(486401/80/53)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069860(486401/80/52)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069863(486401/80/55)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069846(486401/80/38)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069847(486401/80/39)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069848(486401/80/40)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069864(486401/80/56)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069863(486401/80/55)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069866(486401/80/58)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069849(486401/80/41)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069850(486401/80/42)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069851(486401/80/43)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069867(486401/80/59)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069866(486401/80/58)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069869(486401/80/61)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069852(486401/80/44)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069853(486401/80/45)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069854(486401/80/46)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069870(486401/80/62)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069869(486401/80/61)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069855(486401/80/47)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069856(486401/80/48)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069857(486401/80/49)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069858(486401/80/50)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069859(486401/80/51)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069860(486401/80/52)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069861(486401/80/53)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069862(486401/80/54)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069863(486401/80/55)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069864(486401/80/56)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069865(486401/80/57)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069866(486401/80/58)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069867(486401/80/59)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069868(486401/80/60)) read err: read after end of file
file_win32_pread(604,14,buffer,3519069869(486401/80/61)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069870(486401/80/62)) read err: read after end of file
file_win32_pread(604,1,buffer,3519069871(486401/80/63)) read err: read after end of file

Results
   P Linux filesys. data         2048 7814037127 7814035080
     XFS CRC enabled, blocksize=4096, 4000 GB / 3726 GiB

interface_write()
 
No partition found or selected for recovery

 

Danach hab ich auf Advanced Search gemacht aber der lief dann 8h ohne das dann noch was passiert ist im Log stand folgendes:

search_part()
Disk \\.\PhysicalDrive1 - 4000 GB / 3726 GiB - CHS 486401 255 63
file_win32_pread(604,1,buffer,34(0/0/35)) read err: read after end of file
file_win32_pread(604,1,buffer,35(0/0/36)) read err: read after end of file
file_win32_pread(604,14,buffer,36(0/0/37)) read err: read after end of file
file_win32_pread(604,3,buffer,50(0/0/51)) read err: read after end of file
file_win32_pread(604,3,buffer,97(0/1/35)) read err: read after end of file
file_win32_pread(604,8,buffer,113(0/1/51)) read err: read after end of file
file_win32_pread(604,11,buffer,160(0/2/35)) read err: read after end of file
file_win32_pread(604,2,buffer,2082(0/33/4)) read err: read after end of file
file_win32_pread(604,1,buffer,53(0/0/54)) read err: read after end of file
file_win32_pread(604,1,buffer,100(0/1/38)) read err: read after end of file
file_win32_pread(604,1,buffer,121(0/1/59)) read err: read after end of file
file_win32_pread(604,1,buffer,171(0/2/46)) read err: read after end of file
file_win32_pread(604,1,buffer,2084(0/33/6)) read err: read after end of file
file_win32_pread(604,1,buffer,54(0/0/55)) read err: read after end of file
file_win32_pread(604,1,buffer,101(0/1/39)) read err: read after end of file
file_win32_pread(604,1,buffer,122(0/1/60)) read err: read after end of file
file_win32_pread(604,1,buffer,172(0/2/47)) read err: read after end of file
file_win32_pread(604,1,buffer,2085(0/33/7)) read err: read after end of file
file_win32_pread(604,1,buffer,55(0/0/56)) read err: read after end of file


usw......

 

Ich hab jetzt noch mal den Quickcheck angeworfen dat schaut so hier aus

 

image.png.0bc485e5a88818af516983b6bc3f8fab.png

 

Ich bin echt am verzweifeln wieso läuft der Parity Check da überhaupt durch und warum freezt geht das System nicht in vollstop wenn da einfach ne Platte aus dem Array fällt?

Edited by Smolo
Link to comment
1 hour ago, mgutt said:

Formatiert wird doch nach dem Start?!

 

Aber angeboten vor dem Start. Nach dem Start wird dann formatiert.

 

Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben?

 

Über die Gründe kann man nur spekulieren. Mir ist noch nie (!!!) eine Harddisk fliegen gegangen ohne das Unraid das merkt. Ich hatte aber schon mehrere Ausfälle von SSD- und NVMe Disks die nicht zur Kenntnis genommen wurden. Das letzte mal vor 2 Wochen.

 

Nachtrag: Du bist jetzt auf 6.9.1?

 

Edited by hawihoney
Link to comment
33 minutes ago, hawihoney said:

 

Aber angeboten vor dem Start. Nach dem Start wird dann formatiert.

 

Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben?

 

Über die Gründe kann man nur spekulieren. Mir ist noch nie (!!!) eine Harddisk fliegen gegangen ohne das Unraid das merkt. Ich hatte aber schon mehrere Ausfälle von SSD- und NVMe Disks die nicht zur Kenntnis genommen wurden. Das letzte mal vor 2 Wochen.

 

Nachtrag: Du bist jetzt auf 6.9.1?

 

Version habe ich aus der Signatur rausgeschmissen bin jetzt bei 6.11.2.

 

Ich habe grad den "genauen" Ablauf in meinen Telegram Meldungen gefunden:

 

- Update eingespielt

- Parity Check started

- Fix Common Problems meldet ein Problem mit der DISK

- Parity Check läuft ohne Problem durch?!

 

image.png.5b8c91bc20da9eba619baf93111feae4.png image.thumb.png.425c397aed7685f5b072f732ef00d76c.png

 

Wie kann man denn einen Ausfall einer Platte nicht zur Kenntnis nehmen? Und selbst wenn dürfte Unraid niemals aber niemals einfach die aktuelle Parität wegschmeißen!!!

Edited by Smolo
Link to comment
51 minutes ago, hawihoney said:

Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben?

 

Wenn ich das System hochfahre ohne die Platte sieht es wie folgt aus:image.thumb.png.2bc23b45fa4ffee644843d9a21a11bec.png

 

 

Es sind dann zwei Ordner da aber leider ist im "Bilder" Ordner nichts mehr enthalten. Im photoprism Ordner sind noch ein paar Thumbs und YML Dateien existient

 

image.png.1d48457f38d20384ae21a29bb18a8a1c.png

Edited by Smolo
Link to comment

Also Starten ohne eingehange Platte war gar keine gute Idee. Wenn ich die Platte wieder reinhänge erkennt er diese jetzt nicht mehr und will Sie als neues Device reinpacken.

image.png.ba86b4e277648abc9a5bf959342f8690.png

 

Per UnassginedPlugin habe ich jetzt aber folgendes gefunden?

image.thumb.png.214b3dbd70d494a947828ae1f6f50f89.pngimage.thumb.png.b6bdbf48ad8714c8bc0fb616aa16cde2.pngimage.png.28b57e0374bbb4978b0365f4c1d801bf.png

Edited by Smolo
Link to comment
1 hour ago, Smolo said:

Und selbst wenn dürfte Unraid niemals aber niemals einfach die aktuelle Parität wegschmeißen!!!

Kommt drauf an, was du beim Parity Check eingestellt hast. Fehler korrigieren oder nicht.

Bin mir gerade nicht sicher was der Standard Wert ist, ich hab's bei mir auf alle Fälle auf deaktiviert stehen

Link to comment
39 minutes ago, Smolo said:

Kann mir das jemand erklären wie die anderen Disks ungeschützt sein können wenn die 4er nicht existent ist

Die Parity kann nur den Ausfall einer Disk abfangen, da Disk 4 raus ist = kein Schutz vor weiteren Ausfällen bis Wiederherstellung Disk 4 bzw neuer Parity 

Edited by jj1987
  • Thanks 1
Link to comment
21 minutes ago, jj1987 said:

Kommt drauf an, was du beim Parity Check eingestellt hast. Fehler korrigieren oder nicht.

Bin mir gerade nicht sicher was der Standard Wert ist, ich hab's bei mir auf alle Fälle auf deaktiviert stehen

Die Option ist bei mir auch deaktiviert das erklärt dann aber nicht wo die Daten hin sind.

 

 

17 minutes ago, jj1987 said:

Die Parity kann nur den Ausfall einer Disk abfangen, da Disk 4 raus ist = kein Schutz vor weiteren Ausfällen bis Wiederherstellung Disk 4 bzw neuer Parity 

 

Ach ich war durch die Anzeige der Disk 1 im Fotos Share irritiert aber das ist die Disk Ausnahme. Danke bin schon voll im Daten Worst Case Wahnsinn untwegs^^

Edited by Smolo
Link to comment
7 hours ago, Smolo said:

Wenn ich das System hochfahre ohne die Platte sieht es wie folgt aus:

 

Und genau so muss es sein.

 

Disk4 wird nun emuliert. Das degradierte Array zeigt nun "seinen" aktuellen Wissensstand. Dieser unterscheidet sich nicht von dem "Wissen" mit defekter Disk4.

 

Jetzt mal auf die emulierte Disk4 zugreifen (ls -la /mnt/disk4 oder mc aufrufen). Was siehst Du?

 

Danach guckst Du was den Inhalt des Arrays angeht und machst ggfs. ein Backup.

 

Disk4 steht nun außerhalb des Arrays und sollte dort für Reparaturen/Analysen bleiben. Alles was Du mit ihr anstellst geht auch ohne das Array. Im Gegenteil: Das Array kannst Du jetzt auf Inhalt (nicht Parity) prüfen, sichern und nutzen. Und eventuelle Ergebnisse der Reparaturen können auf das Array kopiert werden.

 

Wenn Du eine Reserve Platte in Größe der entfernten Platte (oder größer bis maximal Parity Größe) hast, dann könntest Du diese reinstecken und Disk4 rebuilden lassen. Dann hättest Du die Ausfallsicherheit wiederhergestellt. Selbst eine wiederhergestellte, schrottige Disk4 kann zur Ausfallsicherheit beitragen - es geht ja nur um Bits. Hauptsache die Bits stimmen über das Array hinweg.

 

Irgendwann mal, nach Abschluss aller Arbeiten, muss die Disk4 - sofern sie defekt emuliert wurde (siehe /mnt/disk4 oben) - im Array aber neu aufgebaut (formatiert) werden. Oder man entfernt sie ganz. Das alles entscheidet man ganz zum Schluss.

 

Edited by hawihoney
Link to comment
10 hours ago, mgutt said:

@ich777 Kennst du ein testdisk Installationspaket für Unraid 6.11? Ich habe das gefunden, aber das will nicht funktionieren:

So, hatte kurz Zeit, hab es auch kompiliert aber ich hab dann mal mit un-get gesucht und auch gefunden.

Um es in gang zu bekommen einfach un-get installieren und dann:

un-get update
un-get install testdisk libewf

(libewf brauchst damit testidsk läuft)

 

Danach kannst:

testdisk

ganz normal ausführen.

 

Zum löschen einfach wieder:

un-get remove testdisk libewf

 

  • Thanks 2
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.