Tidus1307 Posted June 4 Posted June 4 Hallo und guten Abend Ich bitte um eure mithilfe. Heute hat sich meine Parity verabschiedet und ich habe keine Ahnung wieso. Ich weis das folgendes geht Array stoppen Datenträger entfernen Array Starten Array Stoppen Datenträger einbinden Parity check durchlaufen lassen Das wollte ich allerdings nicht ohne das ich den Grund gefunden habe. Könnte mir einer bitte dabei helfen und sagen was passiert ist und auch sagen wie er gegeben falls zur Lösung gekommen ist? EREIGNIS 04-06-2024 19:32Unraid Parity disk errorAlert [HANASSELNAS] - Parity disk in error state (disk dsbl)WDC_WD120EFAX-68UNTN0_5PHU29ED (sdi)Alarm Ich habe die Log und ein Snip angehangen. Danke im Voraus diagnostics-20240604-2028.zip Quote
DataCollector Posted June 4 Posted June 4 (edited) Ich kann Dir nicht wirklich sagen, was passiert ist, aber die Paritydisk "sdi" hast Du die ziemlich gestresst. Es gibt in den Logs Tage in denen die Spindown geschickt wurde um dann wenige Sekunden bis wenige Minuten später sofort wieder aufzuwecken. Und dann kamen die ersten I/O-Fehler. (siehe beil. Textdatei) Wobei diese Fehler anscheinend die Übertragung und nicht die Disk selber betreffen. Wenn ich die Smart werte richtig interpretiere ist die Festplatte selber ok. Vermutung: Die wird also wohl wegen der Kommunikationsfehler aus dem Array geflogen sein. Hast Du da zwischenzeitlich mal an den Kabeln gewackelt oder so? Ich würde (aufgrund der I/O Fehler welche ja auch unraid als Fehler in Deinem Screenshot anzuzeigen scheint) erst einmal alles relevante Backuppen und dann mal die Kabel und Ports durchtauschen um zu prüfen ob der Fehler "wandert". Wenn es kein großer Aufwand ist, würde ich die Kabel sogar mal tauschen (und ja, ich würde zumindest auch die Stromkabel mindestens einmal abziehen und wieder aufstecken, allein um Oxidation/Dreck mal 'wegzukratzen'. P.S.: gaaaanz anderer Punkt: bist Du sicher, daß Du btrfs im Pool einsetzen willst? P.S.2: und noch gaaaanz anderer Punkt - Ich verstehe Dein Setup (zumindest aus energetischer Sicht) nicht. Dein Mainboard scheint 4x SATA 6Gb/s (B550) + 4x SATA 6Gb/s (ASM1061) (an einem AsMedia ASM1184e PCIe Switch) zu haben. - (Die ASMedia am PCIe Switch sind zwar ein gewisser Flaschenhals, aber Du hast ja sowieso nicht wirklich neueste oder gar flotte Datenträger in Deinem SATA Zoo.) Deine Aussattung scheint folgendes zu enthalten: SSD - Micron 1100 512GB, 2.5" / SATA 6Gb/s MTFDDAK512TBN-1AR1ZABYY HDD - Toshiba Enterprise Capacity MG04ACA 2TB HDD - WDC_WD120EFAX-68UNTN0 (Parity) HDD - WDC_WD120EFAX-68UNTN0 HDD - WDC_WD40EFRX HDD - WDC_WDS100T1R0A HDD - WDC_WDS100T1R0A PIONEER_BD-RW_BDR-S09 (Pool 2x Samsung 970 Evo NVMe) Das sind 8 SATA Datenträger und 2x NVMe. Wofür ist der Dell OEM - Broadcom/LSI SAS2008 da und wäre ein ASM1166 vielleicht sparsamer? Ich schätze der SAS Kontroller macht in dem Setup sowieso die C-States 'kaputt'. SDI-FILTER-relavent.txt Edited June 5 by DataCollector Typos 1 Quote
Tidus1307 Posted June 5 Author Posted June 5 Hallo und vielen danke ersteinmal für deine Hilfe. Ich kann das alles erst nächste Woche machen da ich natürlich nicht daheim bin wenn so etwas passiert. 🫣 Also denkst du es ist ein verbindungs Probleme? Wie kommst du denn darauf, Erfahrung bei IO fehler? Die Kabel kann ich durch tauschen und wechseln. Das ist eigentlich kein Problem. Und mache ich dann auch. Danke für die Info. Auch mit dem Stromkabel ist ein guter Hinweis, hätte ich nie dran gedacht. Ich hatte den dell genommen weil viele von den SAS geschwärmt haben. Zur Zeit sind noch 2 hot Swap Laufwerke dran die ich für Backups benutze (10sata). Könnte ich allerdings auch umstellen auf USB 3.0 intern oder den ASM1166. Wahrscheinlich dadurch auch leichter durchzureichen in VM's etc. Hättest du da einen Tip für mich? Und bringt das denn viele Strom Vorteile? Und entschuldige die wahrscheinlich dämlich naive Frage, aber was ist denn das Problem mit btrfs? Dachte das Standard für cach. Danke für die Hilfe. Gruẞ Quote
Archonw Posted June 5 Posted June 5 2 hours ago, Tidus1307 said: Wie kommst du denn darauf, Erfahrung bei IO fehler? Ist nicht das erste Mal das diese Art Fehler hier bearbeitet wurden. Ich bin z.b. selbst davon betroffen gewesen Zu BTRFS: leider kommt sehr häufig hier zu Problemen, wenn BTRFS als Filesystem benutzt wird, vor allem beim Cache. Auch hier musste ich auch selber Erfahrungen dazu sammeln. Leider läuft BTRFS nicht stabil und nimmt man dann noch für Docker auf Filesystem anstatt Image stellt wird es richtig wild. Daher ist zumindesten hier die Empfehlung wenn Verbund im Cache dann ZFS ansonsten im Single Modus XFS 1 Quote
DataCollector Posted June 5 Posted June 5 2 hours ago, Tidus1307 said: Hallo und vielen danke ersteinmal für deine Hilfe. Ich kann das alles erst nächste Woche machen da ich natürlich nicht daheim bin wenn so etwas passiert. 🫣 Also denkst du es ist ein verbindungs Probleme? Das ist zumindest der erste Step, der sich mit wenig Aufwand testen läßt: ja. 2 hours ago, Tidus1307 said: Wie kommst du denn darauf, Erfahrung bei IO fehler? Ich habe im Dezember schmerzlich erfahren, daß bei mir unraid bei mein SAS Kontroller (in meinem großen unraidsystem) auf einmal bei fast allen angeschlossenen Festplatten (nachdem ich meine Finger mal im laufenden System hatte und rumgebastelt habe) spontan bis zu einigen tausenden Fehler zählte und eien Festplatte 'rauswarf'. Austausch der festplatte verschlimmerte das Problem, weil dann beim Rebuild die nächste rausflog... . Aus Faulheit und anderweitiger beschäftigung bin ich erst sein Mitte Mai dabei das Array wieder aufzubauen, nachdem ich meine SAS Kontroller getauscht und sogar auf neues Firmware umgeflasht hatte. Aktuell befülle ich das Array wieder und bin gerade erst so bei 50% Füllstand (das Array war mit >300TB recht groß). Bei anderen Leuten, die ich hier las, war es oft (aber nicht immer!) die Verkabelung. Die Verkabelung zu testen/auszutauschen ist eben auch meist die einfachste und billigste Methode. Wenn das nichts bringt wird es eben komplizierter/teurer. Und nur so nebenbei: ich nutze gerne diese sehr dünnsen SATA/SAS Kabel, die nur so wuassehen, als hätten sie diesen blauen oder gelben aluminium kaschierten Schutz drum. Die Dinger sind (bei mir) überraschend empfindlich was Biegeradien angehen. Nachdem ich einmal so ein Kabel beom Anschluß einer Festplatte etwas mehr belastet hatte, sind die CRC Fehler spontan weit in die Höhe geschnellt. 2 hours ago, Tidus1307 said: Ich hatte den dell genommen weil viele von den SAS geschwärmt haben. SAS ist gut, aber wenn es um ein stromsparendes NAS geht (welches oft (fast) idle ist) ist SAS eher weniger stromsparend. Bei (sehr) vielen SATA/SAS Ports kommt man kaum um SAS kontrtoller herum (ich verwende einen mit 24 Ports unter unraid und unter 2 Windowsmaschinen steuern meien SAS kOntroller einmalca. 50 und einmal ca. 70 Festplatten). Aber wenn man zusätzlich zu dem Mainboardports nur so 4 - 6 SATA Ports dazu braucht, wäre ein ASM1166 Kontroller aktuell eine Wahl, bei der man die Chance hat SATA Festplatten ebenfalls sehr gut anzubinden und weniger Strom zu verschwenden. 2 hours ago, Tidus1307 said: Zur Zeit sind noch 2 hot Swap Laufwerke dran die ich für Backups benutze (10sata). HotPlugging betreibe ich nicht, auch wenn meine Kontroller/Anschlüsse das könnten. 2 hours ago, Tidus1307 said: Hättest du da einen Tip für mich? Zu Hotplugging halte ich mich raus. der ASM1166 soll es (glaube ich können), aber aus der Praxis her ist das nichts für mich. 2 hours ago, Tidus1307 said: Und bringt das denn viele Strom Vorteile? Ich kenne den verbrauch Deines SAS Kontrollers nicht 8der ist ja schon etwas älter und auch nicht so eien Heizkachel wie der 9300-16i mit seinen (fast) 30W, aber ein ASM1166 allen kommt irgendwo bei 1 - 1,5W idle an. Sowas niedriges ist mit keinem mir bekannten SAS Kontroller möglich. 2 hours ago, Tidus1307 said: Und entschuldige die wahrscheinlich dämlich naive Frage, aber was ist denn das Problem mit btrfs? Wenn Du hier im Forum des öfteren von Prob,ene liest, ist gelegentlich btrfs schuld. Deshalb umgehe ich es, wenn es geht. Bei einzeldatenträgern nehmen ich xfs und wenn man mehrere verbinden will (äquivalent zu Raid 1, 5 oder 6) ist seit unraid 6.12.x dafür ja zfs möglich. 2 hours ago, Tidus1307 said: Dachte das Standard für cach. Das war mal so, wenn man im cache mehrere Datenträger koppeln will. 1 Quote
Tidus1307 Posted June 5 Author Posted June 5 ok, Danke für die super Antwort. Ich habe auch diese Blauen dünnen Kabel am SAS Kontroller. Ich werde diese erst einmal ersetzten. Alles andere nach und nach. Das klingt aber schon einmal vielversprechend aber auch nach einer Wochenendaufgabe. Gruß 1 Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.