Datenträger deaktiviert


LUCASINO

Recommended Posts

6 minutes ago, DataCollector said:

Ich bin eher hardwarebasiert unterwegs:

wenn ich richtig herausgefischt habe ist das Deine Hardware (soweit in der Diagnostics erkennbar):

 

- W480 Vision W  mit OnBoard ASM1062
- ASM1166
- ASUSTeK Computer Inc. AQC107
- Samsung Electronics Co Ltd SSD 970 EVO Plus 1TB
- Samsung Electronics Co Ltd SM963 2.5" NVMe PCIe SSD
  (komische Angabe, NVMe 2,5 ist eher selten)

 

Aber eigentlich ist da nichts wirklich ungewöhnliches bei.

Vielleicht bringt eine instabile Stromversorgung die Festplatten aus dem Tritt (Überlastung/Defekt)?

 

Wie sind die Festplatten mit dem Netzteil/Stromversorgung verkabelt?

Sind die betroffenen festplatten an dem selben Kabelstrang/Stromschienen?
Welches Netzteil ist es und wie alt ungefär?
Hat ein Netzteil vielleicht einen Schlag weg und der eine oder andere Anschluß bricht immer wieder zusammen?

 

Nein, da sind rund 5-6 versch. Kabel dran, es ist ein ASUS ROG Thor 1200W und ca. 1-1.5 Jahre alt, glaube ich nicht, da würd sich das NT anders verhalten, zudem wie gesagt bis zum Zeitpunkt des New Configs war alles super, da hab ich nicht wirklich das Gefühl es könnte ein Hardware Problem sein.

Link to comment

Nutzt du powertop oder andere Stromspar-Mechanismen?

 

Deine Platten zeigen beim Zugriff quasi alle Fehler. Auch der Pool. Dazu diverse Kernel Fehler. Ich denke aber dadurch, weil das Dateissystem repariert werden muss.

 

Jul  4 17:27:16 Tower kernel: blk_update_request: I/O error, dev loop2, sector 18424224 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0
Jul  4 17:27:16 Tower kernel: BTRFS error (device loop2): bdev /dev/loop2 errs: wr 2, rd 9, flush 0, corrupt 0, gen 0
Jul  4 17:27:16 Tower kernel: blk_update_request: I/O error, dev loop2, sector 18948512 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0
Jul  4 17:27:16 Tower kernel: BTRFS error (device loop2): bdev /dev/loop2 errs: wr 2, rd 10, flush 0, corrupt 0, gen 0
Jul  4 17:27:16 Tower kernel: BTRFS: error (device loop2) in btrfs_run_delayed_refs:2150: errno=-5 IO failure
Jul  4 17:27:16 Tower kernel: BTRFS info (device loop2): forced readonly

 

Jul  4 17:27:01 Tower kernel: XFS (md9): metadata I/O error in "xfs_imap_to_bp+0x4e/0x6a [xfs]" at daddr 0x100003b10 len 32 error 5

 

Jul  4 20:18:51 Tower kernel: XFS (md8): Log I/O Error (0x2) detected at xlog_ioend_work+0x50/0x6e [xfs] (fs/xfs/xfs_log.c:1377).  Shutting down filesystem.
Jul  4 20:18:51 Tower kernel: XFS (md8): Please unmount the filesystem and rectify the problem(s)
Jul  4 20:18:51 Tower kernel: XFS (md9): metadata I/O error in "xfs_imap_to_bp+0x4e/0x6a [xfs]" at daddr 0x1000039f0 len 32 error 5
Jul  4 20:18:51 Tower kernel: XFS (md9): metadata I/O error in "xfs_da_read_buf+0xa3/0x103 [xfs]" at daddr 0x5082f83c0 len 8 error 5
### [PREVIOUS LINE REPEATED 1 TIMES] ###
Jul  4 20:19:09 Tower kernel: XFS (md9): log I/O error -5
Jul  4 20:19:09 Tower kernel: XFS (md9): Log I/O Error (0x2) detected at xlog_ioend_work+0x50/0x6e [xfs] (fs/xfs/xfs_log.c:1377).  Shutting down filesystem.
Jul  4 20:19:09 Tower kernel: XFS (md9): Please unmount the filesystem and rectify the problem(s)

 

Link to comment

Du solltest übrigens Docker und VM komplett deaktivieren bis alles repariert ist. Das bringt in der aktuellen Situation eh nichts und wurde immer wieder crashen.

 

Vom Prinzip kannst du die Parity Korrektur auch erstmal stoppen. Die kann eh nichts mehr reparieren.

 

Dann würde ich:

- Array Autostart deaktivieren 

- Docker + VM deaktivieren

- das Array stoppen

- das Array im Wartungsmodus starten 

- alle Disks reparieren

- Array normal starten

- Pool reparieren

- Server neu starten und Logs sichten, ob da noch Kernel Fehler auftauchen

- wenn nein Array starten

- Logs wieder sichten

- keine Fehler, dann Parity korrigieren

- jetzt mal alle Disks per SMART und erweitertem Test durchtesten

- und auch jetzt immer wieder Logs checken

 

 

Link to comment
6 minutes ago, mgutt said:

Nutzt du powertop oder andere Stromspar-Mechanismen?

 

Deine Platten zeigen beim Zugriff quasi alle Fehler. Auch der Pool. Dazu diverse Kernel Fehler. Ich denke aber dadurch, weil das Dateissystem repariert werden muss.

 

Jul  4 17:27:16 Tower kernel: blk_update_request: I/O error, dev loop2, sector 18424224 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0
Jul  4 17:27:16 Tower kernel: BTRFS error (device loop2): bdev /dev/loop2 errs: wr 2, rd 9, flush 0, corrupt 0, gen 0
Jul  4 17:27:16 Tower kernel: blk_update_request: I/O error, dev loop2, sector 18948512 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0
Jul  4 17:27:16 Tower kernel: BTRFS error (device loop2): bdev /dev/loop2 errs: wr 2, rd 10, flush 0, corrupt 0, gen 0
Jul  4 17:27:16 Tower kernel: BTRFS: error (device loop2) in btrfs_run_delayed_refs:2150: errno=-5 IO failure
Jul  4 17:27:16 Tower kernel: BTRFS info (device loop2): forced readonly

 

Jul  4 17:27:01 Tower kernel: XFS (md9): metadata I/O error in "xfs_imap_to_bp+0x4e/0x6a [xfs]" at daddr 0x100003b10 len 32 error 5

 

Jul  4 20:18:51 Tower kernel: XFS (md8): Log I/O Error (0x2) detected at xlog_ioend_work+0x50/0x6e [xfs] (fs/xfs/xfs_log.c:1377).  Shutting down filesystem.
Jul  4 20:18:51 Tower kernel: XFS (md8): Please unmount the filesystem and rectify the problem(s)
Jul  4 20:18:51 Tower kernel: XFS (md9): metadata I/O error in "xfs_imap_to_bp+0x4e/0x6a [xfs]" at daddr 0x1000039f0 len 32 error 5
Jul  4 20:18:51 Tower kernel: XFS (md9): metadata I/O error in "xfs_da_read_buf+0xa3/0x103 [xfs]" at daddr 0x5082f83c0 len 8 error 5
### [PREVIOUS LINE REPEATED 1 TIMES] ###
Jul  4 20:19:09 Tower kernel: XFS (md9): log I/O error -5
Jul  4 20:19:09 Tower kernel: XFS (md9): Log I/O Error (0x2) detected at xlog_ioend_work+0x50/0x6e [xfs] (fs/xfs/xfs_log.c:1377).  Shutting down filesystem.
Jul  4 20:19:09 Tower kernel: XFS (md9): Please unmount the filesystem and rectify the problem(s)

 


Powertop hat mir ja die Disk 6 deaktiviert, hab danach Powertop deinstalliert und nach nem Neustart hat alles wieder gefunzt. Oder blieb da noch was über von Powertop?

Link to comment
6 minutes ago, LUCASINO said:

Powertop hat mir ja die Disk 6 deaktiviert, hab danach Powertop deinstalliert und nach nem Neustart hat alles wieder gefunzt. Oder blieb da noch was über von Powertop?

Nein, aber durch powertop hat es dir bestimmt das Dateisystem von den HDDs zerlegt, die an der zusätzlichen SATA Karte dran waren. Die müssen jetzt erstmal alle repariert werden. Das selbe gilt, falls du den Server hart abschaltest oder dieser abstürzt. Dann immer vorsichtshalber eine XFS und BTRFS Reparatur durchführen.

 

Du hast aber sonst keine Stromsparkommandos zb in der Go Datei? Weil das sollte am besten alles entfernt werden.

 

 

Link to comment
7 minutes ago, mgutt said:

Du solltest übrigens Docker und VM komplett deaktivieren bis alles repariert ist. Das bringt in der aktuellen Situation eh nichts und wurde immer wieder crashen.

 

Vom Prinzip kannst du die Parity Korrektur auch erstmal stoppen. Die kann eh nichts mehr reparieren.

 

Dann würde ich:

- Array Autostart deaktivieren 

- Docker + VM deaktivieren

- das Array stoppen

- das Array im Wartungsmodus starten 

- alle Disks reparieren

- Array normal starten

- Pool reparieren

- Server neu starten und Logs sichten, ob da noch Kernel Fehler auftauchen

- wenn nein Array starten

- Logs wieder sichten

- keine Fehler, dann Parity korrigieren

- jetzt mal alle Disks per SMART und erweitertem Test durchtesten

- und auch jetzt immer wieder Logs checken

 

 

ok wie reparier ich die? dann mach ich mich mal dran

Link to comment
Just now, mgutt said:

Nein, aber durch powertop hat es dir bestimmt das Dateisystem von den HDDs zerlegt, die an der zusätzlichen SATA Karte dran waren. Die müssen jetzt erstmal alle repariert werden. Das selbe gilt, falls du den Server hart abschaltest oder dieser abstürzt. Dann immer vorsichtshalber eine XFS und BTRFS Reparatur durchführen.

 

Du hast aber sonst keine Stromsparkommandos zb in der Go Datei? Weil das sollte am besten alles entfernt werden.

 

 

Sonst sollte nix da sein, ich hab damals nur das autotune kommando ausgeführt, dann deinstalliert.

Link to comment

Reparatur:

- Array stoppen

- Array im Wartungsmodus starten

- auf "Disk1" klicken

- nun im Abschnitt mit xfs repair das -n entfernen und die Reparatur starten (-n simuliert nur und macht nichts)

- das bei jeder Disk wiederholen 

 

Der zeigt nun einen Bericht an. Den kannst du bei Bedarf kopieren und später als ZIP hier alles Posten. Aber normalerweise ist die Reparatur erfolgreich.

 

Falls bei der Reparatur Dateien wiederhergestellt werden, landen die in einem Lost+Found Ordner auf der jeweiligen HDD.

 

Bei BTRFS ist es ähnlich. Nur dafür muss man das Array normal starten und auf "cache" klicken. Da dann scrub starten.

Link to comment
3 minutes ago, mgutt said:

Reparatur:

- Array stoppen

- Array im Wartungsmodus starten

- auf "Disk1" klicken

- nun im Abschnitt mit xfs repair das -n entfernen und die Reparatur starten (-n simuliert nur und macht nichts)

- das bei jeder Disk wiederholen 

 

Der zeigt nun einen Bericht an. Den kannst du bei Bedarf kopieren und später als ZIP hier alles Posten. Aber normalerweise ist die Reparatur erfolgreich.

 

Bei BTRFS ist es ähnlich. Nur dafür muss man das Array normal starten und auf "cache" klicken. Da dann scrub starten.

Super danke, mal gucken, er hängt gerade beim stoppen fest-.-
Falls das nicht mehr weggeht halt abwürgen?

grafik.png.f2a6bf30deade7c0a1d138c5f98cbba9.png

Edited by LUCASINO
Link to comment
12 minutes ago, LUCASINO said:

Falls das nicht mehr weggeht halt abwürgen?

Ja geht nicht anders, da das Dateisystem nicht mehr reagiert. Am besten mal komplett ausschalten. Also dass der Strom mal aus war. Dann ist die SATA Karte auch wieder normal da, falls die ausgestiegen sein sollte.

Link to comment
8 minutes ago, mgutt said:

Ja geht nicht anders, da das Dateisystem nicht mehr reagiert. Am besten mal komplett ausschalten. Also dass der Strom mal aus war. Dann ist die SATA Karte auch wieder normal da, falls die ausgestiegen sein sollte.

grafik.thumb.png.15ca79ff5c0846a17d697fd9818715a2.png

Das kam bis jetzt nur bei Disk 6 (die ist eh leer) und offenbar auch bei der 12.

Edited by LUCASINO
Link to comment
7 minutes ago, LUCASINO said:

bei der 12 sieht das anders aus, die hat Daten

Andere Optionen hast du jetzt eh keine mehr außer ein komplettes Backup von disk12 machen.

 

4 minutes ago, LUCASINO said:

So siehts nun bei der 6 aus.

Versuch noch mal eine Reparatur ohne Optionen, aber ich denke die ist jetzt repariert. Vermutlich gibt es jetzt einen löst+found Ordner. Irgendwas von Interesse da drin?

 

EDIT: ich bin für heute raus.. 

Link to comment
1 minute ago, mgutt said:

Andere Optionen hast du jetzt eh keine mehr außer ein komplettes Backup von disk12 machen.

 

Versuch noch mal eine Reparatur ohne Optionen, aber ich denke die ist jetzt repariert. Vermutlich gibt es jetzt einen löst+found Ordner. Irgendwas von Interesse da drin?

Hmm ok na dann... nene die 6 hab ich geleert, bei der stört mich gar nichts^^

Link to comment

Ja sieht jetzt wieder normal aus.

 

Jetzt lösch mal die überflüssigen appdata Ordner von den Disks, damit das auch wieder sauber ist:

 

rm -r /mnt/disk*/appdata

 

Dann müssen wir mal über die Cache Einstellung von system sprechen. Die steht auf "Ja". Dh das docker.img und alle VM Disks, werden vom Cache auf das Array verschoben. Willst du das? Wenn nein, würde ich den Cache auf "Bevorzugt" umstellen und dann den Mover starten. Dafür muss aber Docker und VM jeweils deaktiviert sein.

 

Hinweis: Du darfst auf keinen Fall "Nur" nehmen, weil sonst zerlegst du dir alles,

Link to comment
1 hour ago, mgutt said:

Ja sieht jetzt wieder normal aus.

 

Jetzt lösch mal die überflüssigen appdata Ordner von den Disks, damit das auch wieder sauber ist:

 

rm -r /mnt/disk*/appdata

 

Dann müssen wir mal über die Cache Einstellung von system sprechen. Die steht auf "Ja". Dh das docker.img und alle VM Disks, werden vom Cache auf das Array verschoben. Willst du das? Wenn nein, würde ich den Cache auf "Bevorzugt" umstellen und dann den Mover starten. Dafür muss aber Docker und VM jeweils deaktiviert sein.

 

Hinweis: Du darfst auf keinen Fall "Nur" nehmen, weil sonst zerlegst du dir alles,

Super, alles klar habe ich mal so ausgeführt.

 

Ok ich änder die Cache Einstellung mal.

 

Soll ich die Disk 6 nun irgendwie formatieren am besten und dann wieder ein Parity Check starten?

Link to comment
1 hour ago, mgutt said:

Nö. Die ist nun in Ordnung. Parity Check und Dateien löschen kannst du ganz normal.

 

Zb so über die Kommandozeile:

 

rm -r /mnt/disk6/*

 

 

Naja ist halt verwirrend, die 6 sollte ja eig keine Daten haben, weil ich die vor dem Chaos ja auf die 10 kopiert hab xD und nun zeigt die wieder den Stand von vor dem verschieben an, sodass ich eig nun die Daten doppelt habe, sie aber nicht doppelt sehe^^

Da frag ich mich halt obs tragisch ist nun die 6 eig zu löschen.

Edited by LUCASINO
Link to comment
1 hour ago, LUCASINO said:

Da frag ich mich halt obs tragisch ist nun die 6 eig zu löschen.

Im Gegenteil. Da beide im selben Unterordner liegen, weist du gar nicht ob der die von Disk6 oder Disk10 siehst. Bzw wenn du die nun über Windows löschst, dann zb von Disk6 und sie sind trotzdem noch da. Also unRAID kann dir die selbe Datei auf zwei verschiedenen Disks nicht parallel anzeigen. Daher entweder löschen oder du den Unterordner auf Disk6 umbenennen. Das ist dann auch automatisch ein neuer Share.

 

Link to comment
28 minutes ago, mgutt said:

Im Gegenteil. Da beide im selben Unterordner liegen, weist du gar nicht ob der die von Disk6 oder Disk10 siehst. Bzw wenn du die nun über Windows löschst, dann zb von Disk6 und sie sind trotzdem noch da. Also unRAID kann dir die selbe Datei auf zwei verschiedenen Disks nicht parallel anzeigen. Daher entweder löschen oder du den Unterordner auf Disk6 umbenennen. Das ist dann auch automatisch ein neuer Share.

 

Alles klar danke, mach ich so und lasse mal einen Parity Check nun durchlaufen, danach sollte hoffentlich wieder alles friedlich sein.
Jedenfalls wieder einmal vielen vielen Dank für die Hilfe, das weiss ich sehr zu schätzen:)

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.