HDD wacht nach Update auf 6.9.1 immer zum read smart auf und geht nicht mehr in den Spindown


Xav

Recommended Posts

18 minutes ago, Ford Prefect said:

und sdf geht nicht schlafen

Ja doch. Wird nur wieder geweckt 😁

 

Hast du manuell die Platte gestoppt und gestartet? Vielleicht auch mal new config probieren und Parity als bereits valide markieren. Gefühl ist da  einfach nur irgendein Timing Banane zu sein, so dass der Smart Check zu spät kommt.

Link to comment
9 minutes ago, mgutt said:

Ja doch. Wird nur wieder geweckt 😁

😂

 

9 minutes ago, mgutt said:

Hast du manuell die Platte gestoppt und gestartet?

Nope.

 

9 minutes ago, mgutt said:

Vielleicht auch mal new config probieren und Parity als bereits valide markieren. Gefühl ist da einfach nur irgendein Timing Banane zu sein, so dass der Smart Check zu spät kommt.

Ich habe von 6.8.3 das Upgrade gemacht dann neues MB und 2x M2 eingebaut..dann im Cache die 2xSSD gegen die 2xM2 "ausgetauscht", aber das Array nicht angefasst, nix manuell konfiguriert übers CLI.

Bilde mir ein, dass ist erst seit ein paar Tagen so...der Umbau war letztes WE.

 

...was geht bei new config nochmal hopps? Shares mit Rechten/User+PWD oder nur das Array neu aufbauen?

Letzteres würde ich noch machen, aber auf ganz neu, kein Bock,,,,dann gehe ich lieber auf 6.8.3 zurück.

Link to comment
43 minutes ago, ich777 said:

Wie gesagt, hatte ich auch, mit 6.10.0-rc1 nicht mehr. ;)

Verstehe aber wenn du auf keine rc willst. :)

Macht in meinem Fall auch keinen Unterschied von daher egal. Ich bin mittlerweile ziemlich enttäuscht über den nicht existenten Support von der Unraid Truppe bzw. das sich hier nicht mal jemand dazu äussert?!

Link to comment
12 minutes ago, Ford Prefect said:

was geht bei new config nochmal hopps? Shares mit Rechten/User+PWD oder nur das Array neu aufbauen?

Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast. Die Shares, deren Einstellungen, die User, usw bleiben alle erhalten. EDIT: ich meine Disk Share Einstellungen gehen verloren. Also falls du die nutzt, vielleicht einen Screenshot davon machen.

 

Du gehst auf New Config und klickst Pools an, dass die erhalten bleiben sollen. Also nur Parity und Array soll "neu" sein. Dann weist du Parity und Array Disk wie zuvor zu (nicht vertauschen!). Dann anklicken, dass die Partity bereits richtig ist und Array starten. Das war's.

 

Mach vorher vielleicht noch ein Backup von Stick und einen Screenshot von der Disk Übersicht.  Aber vom Prinzip ist New Config nichts besonderes. Habe ich bestimmt schon 20x gemacht.

  • Thanks 1
Link to comment
10 minutes ago, mgutt said:

Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast.

Tja, egal..das funzt ja auch nicht, für die M2 NVMe 😝

10 minutes ago, mgutt said:

Du gehst auf New Config und klickst Pools an, dass die erhalten bleiben sollen. Also nur Parity und Array soll "neu" sein. Dann weist du Parity und Array Disk wie zuvor zu (nicht vertauschen!). Dann anklicken, dass die Partity bereits richtig ist und Array starten. Das war's.

[...]

Habe ich bestimmt schon 20x gemacht.

Danke, war ja bei 2 Disks nicht die Welt ;-)

...warten wir mal, was passiert

Link to comment
17 minutes ago, ich777 said:

Hast du schon einen bug thread aufgemacht im englischen bereich?

 

Wenn ja wo, ich weiß da noch gerne mal drauf hin.

Der wurde bereits im März eröffnet und es melden sich immer wieder User und es gibt keinerlei Feedback?

 

 

 

😞

Edited by Smolo
Link to comment
1 hour ago, mgutt said:

Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast.

OK, spindown delay stand nach dem new config erstmal auf "never"...nach 1h warten und dann der Umstellung auf 15min gingen sie sofort aus....mal sehen, ob sie bis zum Morgen durchhalten ;-)

 

Erstmal vielen Dank!

  • Like 1
Link to comment
11 hours ago, Smolo said:

Der wurde bereits im März eröffnet und es melden sich immer wieder User und es gibt keinerlei Feedback?

Das problem hierbei ist oftmals das irgendwas die disk aufweckt, und ich rede hier nicht von smart read, sondern irgendwas anderes und smart read wird nur ausgeführt wenn die platte wirklich aufgeweckt wird weil du in unraid angezeigt haben willst wieviel grad die platte hat usw...

 

Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt.

 

Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist.

 

10 hours ago, Ford Prefect said:

spindown delay stand nach dem new config erstmal auf "never"...nach 1h warten

Yep, new config setzt die einstellungen für die platten zurück.

Link to comment
1 hour ago, ich777 said:

Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt.

Nextcloud ist auch so ein Kandidat, wenn der automatische Upload aktiviert ist. Habe ich ein paar Seiten vorher schon erklärt.

Bis auf die Nextcloud-Platte wacht keine auf und auch nur wenn ich den Standort verändere. 
Version: 6.9.2

  • Like 1
Link to comment
2 hours ago, ich777 said:

Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist.

..das habe ich zwar nicht gemacht, aber hoite morgen waren Parity+Data im Array "still".

Habe dann später gegen 09:56 ein paar daten auf einem Share mit cache=yes hochgeladen (nix gelöscht, also in dem fall "cache-only").

Auch dann scheint "SMART" die Werte abzurufen (zu dem Zeitpunkt hat der mover noch nix gemacht, die neuen Daten waren noch auf dem cache).

Sep 13 03:28:15 alarm emhttpd: spinning down /dev/sda
Sep 13 03:58:16 alarm emhttpd: spinning down /dev/sda
Sep 13 04:28:17 alarm emhttpd: spinning down /dev/sda
Sep 13 04:58:18 alarm emhttpd: spinning down /dev/sda
Sep 13 05:28:19 alarm emhttpd: spinning down /dev/sda
Sep 13 05:58:20 alarm emhttpd: spinning down /dev/sda
Sep 13 06:00:01 alarm root: mover: started
Sep 13 06:00:01 alarm root: mover: finished
Sep 13 06:28:21 alarm emhttpd: spinning down /dev/sda
Sep 13 06:58:22 alarm emhttpd: spinning down /dev/sda
Sep 13 07:28:23 alarm emhttpd: spinning down /dev/sda
Sep 13 07:58:24 alarm emhttpd: spinning down /dev/sda
Sep 13 08:28:25 alarm emhttpd: spinning down /dev/sda
Sep 13 08:58:26 alarm emhttpd: spinning down /dev/sda
Sep 13 09:00:01 alarm root: mover: started
Sep 13 09:00:01 alarm root: mover: finished
Sep 13 09:28:27 alarm emhttpd: spinning down /dev/sda
Sep 13 09:56:37 alarm emhttpd: read SMART /dev/sdf
Sep 13 09:58:28 alarm emhttpd: spinning down /dev/sda
Sep 13 10:26:53 alarm emhttpd: spinning down /dev/sdf
Sep 13 10:28:29 alarm emhttpd: spinning down /dev/sda
Sep 13 10:39:49 alarm emhttpd: read SMART /dev/sdf
Sep 13 10:58:30 alarm emhttpd: spinning down /dev/sda
Sep 13 11:09:52 alarm emhttpd: spinning down /dev/sdf
Sep 13 11:28:31 alarm emhttpd: spinning down /dev/sda
Sep 13 11:58:32 alarm emhttpd: spinning down /dev/sda
Sep 13 12:00:01 alarm root: mover: started
Sep 13 12:00:01 alarm move: move: file /mnt/cache/backup/Mikrotik/MT4011-back-13092021.backup
Sep 13 12:00:01 alarm root: mover: finished
Sep 13 12:00:01 alarm emhttpd: read SMART /dev/sdf
Sep 13 12:00:06 alarm emhttpd: read SMART /dev/sdd
Sep 13 12:28:33 alarm emhttpd: spinning down /dev/sda
Sep 13 12:31:52 alarm emhttpd: spinning down /dev/sdd
Sep 13 12:31:52 alarm emhttpd: spinning down /dev/sdf

 

2 hours ago, ich777 said:

Yep, new config setzt die einstellungen für die platten zurück.

...muss man halt wissen oder erstmal, wie ich, warten 🤣

 

Edit: Also, hier schein es jetzt zu gehen...

Edited by Ford Prefect
  • Like 1
Link to comment
On 9/13/2021 at 10:31 AM, ich777 said:

Das problem hierbei ist oftmals das irgendwas die disk aufweckt, und ich rede hier nicht von smart read, sondern irgendwas anderes und smart read wird nur ausgeführt wenn die platte wirklich aufgeweckt wird weil du in unraid angezeigt haben willst wieviel grad die platte hat usw...

 

Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt.

 

Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist.

 

Yep, new config setzt die einstellungen für die platten zurück.

Sorry aber da wird es doch mittlerweile echt lächerlich und gruselig. Es kommt eine neue Version eines OS raus und plötzlich gibt es bei vielen Usern Probleme mit dem Spin Down! Zuerst sind die Platten schuld, dann PlugIns, dann wieder Platten, dann die Apps / Konfiguration. Alle Raten fröhlich rum und basteln an ihren produktiven Maschinen rum und vom offiziellen Support ist derweil kein einziger Kommentar dazu zu lesen. Sowas macht mich dann wirklich sprachlos.

 

Ich hatte mittlerweile wirklich alles deaktiviert und es gab keinerlei Änderung zum Status Quo! Ich hatte mich jetzt auch auf die RC Version eingelassen und ein paar Tage nicht auf das System geschaut. Das Ergebnis? Die Platten waren tatsächlich aus leider hatte sich nach 19 Tage Uptime irgendwas dermaßen im System verklemmt das drei Cores ständig auf 100% unterwegs waren. Docker halb tot, ein Reboot per SSH oder Weboberfläche hat nicht funktioniert. Am Ende musste ich die Maschine mittles Reset durchstarten 😞🤐😱

 

 

Link to comment
8 minutes ago, Smolo said:

Sorry aber da wird es doch mittlerweile echt lächerlich und gruselig.

 

Sorry, "meistens" ist es am Ende jedoch ein plugin, docker mit "seltsamen" mounts, "leswütige" Docker, was auch immer ...

 

Mein letztes Spinup Problem war auch am Ende ein plugin was sich mit der 6.10 nicht vertragen hat ... plugin runter, alles top.

 

der einfachste Test um zu sehen ob es das NAS an sich ist oder ein plugin, docker, vm ... Start ohne plugins (safe mode), ohne dockers und vm's .... dann beobachten, wenn spinup's dann auftreten hängt es am System.

 

Wenn da alles gut ist geht es los auf Fehlersuche, nur oftmals kommt dann "ich hab nichts gemacht" usw usw ... anstelle mal einzeln abzuschalten und die Ursache zu finden, hier kommt halt immer mehr zusammen, von einem NAS zu Erweiterungen durch plugins für alles Mögliche, dann Docker mit allen möglichen Mountpoints, dann VM's die auf alles Mögliche evtl. zugreifen, ... das Ganze auch noch aus allen diversen Quellen ... sprich, die Dinge kommen ja nichtmal von Limetech

da macht debugging echt keinen Spaß und bei der Vielfalt ist es mittlerweile auch nicht mehr so einfach da direkt zu sagen "genau daran liegt es" ...

 

Das ist nur meine Meinung zu deinem Kommentar.

 

ps. Ich hatte auch lange damit zu kämpfen da mein "Server" im Wohnzimmer steht (da er auch zugleich Desktop PC ist) und am Ende ... lag es nicht an unraid, das kann ich dazu sagen ;) 

  • Like 1
Link to comment
54 minutes ago, Smolo said:

Support ist derweil kein einziger Kommentar dazu zu lesen. Sowas macht mich dann wirklich sprachlos.

Das Problem ist das keiner oder wenige die sachen ausprobiert die den usern geraten werden bzw. winfach die bereitwilligkeit fehlt.

Safe boot über nacht alle container abschalten usw...

Hab schon ein paar probleme lösen können von englischsprachigen usern bei dem einen war es Nextcloud beim anderen Jellyfin und bei noch einem auch Jellyfin.

 

Du musst auch die entwickler verstehen, man kann auf seinem server so viel installieren und ein container, speziell emby, jellyfin usw. wecken die platten in regelmäßugen abständen auf standardmäsig nur weiß das fast keiner.

 

54 minutes ago, Smolo said:

Ich hatte mittlerweile wirklich alles deaktiviert und es gab keinerlei Änderung zum Status Quo!

Warst du schon im safe mode mit allem abgeschaltet?

 

54 minutes ago, Smolo said:

Ich hatte mich jetzt auch auf die RC Version eingelassen und ein paar Tage nicht auf das System geschaut. Das Ergebnis?

Das kann aber auch ein container usw gewesen sein, vl war es auch gvt-g oder eine vm die hängen geblieben ist.

 

Siehst du auf was ich damit raus will, es ist einfach schwierig da niemand wissen kann was du alles installiert hast, wie sich deine vms, plugins usw verhalten... Es kann auch mal eine vm unraid zum absturz bringen, wäre nicht das erste mal.

 

Ich schließe mich hier @alturismo's kommentar an...

 

EDIT: eins das ich ncoh vergessen hab, wenn dir die RC nicht passt kannst du doch immer wieder downgraden, das ist das schöne an unRAID, geht mit anderen system nicht zumindest nicht so einfach. ;)

  • Like 1
Link to comment

@alturismo @ich777

VMs, Docker, etc. alles getestet das hatten wir jetzt ja schon x Mal! SafeMode war mir bisher nicht klar bzw. unbekannt dafür bin ich noch zu frisch im Unraid Thema das werde ich dann noch mal testen.

Mir ging es aber beim letzten Posts um etwas anderes. Unraid selbst ist ClosedSource mit Lizenz und entsprechend hat der Hersteller auch darauf zu reagieren wenn es Probleme gibt. Problematisch sehe ich hier das man ohne Doku auf die Community verwiesen wird und das kanns dann doch nicht sein...bei solchen Fehlern erwartet man zumindest mal einen BugReport mit einem Status und möglichen Workarounds von offizieller Seite und kein Stillschweigen!

 

Ich habe wirklich Verständnis für die möglichen Probleme aber am Ende des Tages möchte man für sein Geld schon ein stabiles System haben bzw. zumindest einen Support der sich der Thematik auch mal an nimmt. Es soll ja Developer geben die bei ungeklärten Problemen das Logging Konzept erweitern um mögliche Ursachen besser ergründen zu können ^^

 

Und nicht das ihr mich falsch versteht ...ich finde Unraid bzw. das Konzept extrem gut und die Community hier ist wirklich top aber vom Hersteller kommt mir da zu wenig?!

Edited by Smolo
Link to comment
23 minutes ago, Smolo said:

Unraid selbst ist ClosedSource mit Lizenz und entsprechend hat der Hersteller auch darauf zu reagieren wenn es Probleme gibt.

Machen sie doch aber spin down ist ein heikles thema da es so viele variablen gibt und meistens gibt es einen auslöser der nicht unraid bezogen ist...

 

Ich kenne die leute die hinter unraid stehen und die lesen wirklich jeden bug eintrag.

 

Sorry aber das mit bezahlsoftware und die müssen antworten ist für mich kein argument, beispiel microsoft. 🤣

 

23 minutes ago, Smolo said:

Ich habe wirklich Verständnis für die möglichen Probleme aber am Ende des Tages möchte man für sein Geld schon ein stabiles System haben bzw. zumindest einen Support der sich der Thematik auch mal an nimmt.

Das problem fängt bei Docker an, geht über Plugins, bis hin zu Custom Scripten und dann schlussendlich zu VMs...

 

23 minutes ago, Smolo said:

Es soll ja Developer geben die bei ungeklärten Problemen das Logging Konzept erweitern um mögliche Ursachen besser ergründen zu können ^^

Also wenn du das logging in unraid nicht gut findest kann ich nicht helfen. :D

Könntes aber auch mal die logs von deinen ganzen Dockern und VMs durchsehen ob dort was die platten aufweckt. ;)

 

23 minutes ago, Smolo said:

aber vom Hersteller kommt mir da zu wenig?!

Versteh mich jetzt nicht falsch aber mit den vielen variablen wie will der hersteller was feststellen und das problem haben verhältnismäßig wenige, aich nicht falsch verstehen bitte, aber sieh es mal in relation, nur meine meinung. ;)

  • Like 1
Link to comment
2 hours ago, Smolo said:

plötzlich gibt es bei vielen Usern Probleme mit dem Spin Down

Da nur wenige das Problem haben, ist ein Bug eh unwahrscheinlich.

 

Zuerst muss man auswerten was die Platten weckt. Dafür gibt es diverse Möglichkeiten. Beispielsweise könnte man mit inotifywait ein Monitoring starten, das alle Zugriffe auf Disk X loggt.

 

 

 

2 hours ago, Smolo said:

leider hatte sich nach 19 Tage Uptime irgendwas dermaßen im System verklemmt das drei Cores ständig auf 100% unterwegs waren. Docker halb tot, ein Reboot per SSH oder Weboberfläche hat nicht funktioniert. Am Ende musste ich die Maschine mittles Reset durchstarten 😞🤐😱

Und da du die Ursache an Hand der Logs nicht ausgewertet hast, kann das jederzeit wieder passieren.

 

2 hours ago, Smolo said:

vom offiziellen Support ist derweil kein einziger Kommentar dazu zu lesen

Hier wird Lizenz mit Support gleichgesetzt. Wenn du persönlichen Support haben willst, dann musst du schon jemanden dazu beauftragen. Limetech wird sicher nicht hingehen und bei einzelnen Kunden per Fernwartung eine Fehlersuche machen. Warum sollten sie auch.

 

Ansonsten ist unRAID stark Community geprägt und viele Komponenten sind sehr wohl Open Source. Daher kann man nicht einfach ohne Analyse den oder den Dev oder eben Limetech als Ursache ausmachen.

  • Like 2
Link to comment
21 hours ago, mgutt said:

Da nur wenige das Problem haben, ist ein Bug eh unwahrscheinlich.

 

Zuerst muss man auswerten was die Platten weckt. Dafür gibt es diverse Möglichkeiten. Beispielsweise könnte man mit inotifywait ein Monitoring starten, das alle Zugriffe auf Disk X loggt.

Der Augenschein ist eigentlich anders rum.

Das, was die Platten unnötig weckt ist wohl der smartctl Befehl auf der Disk.

Warum sonst sollte der Befehl manchmal kurz nach dem Spindown kommen.?

 

Ein "intelligentes System, dass ja eben schon weiss, dass die Platte nicht im Spindown ist, würde die Werte abfragen, kurz bevor der Spindown erfolgen würde.

Die sichtbare, sinnvolle Reihenfolge der Events wäre also anderrum, nämlich "Egal, was die Platten weckt, nutze die Gelegenheit die aktuellen Smart-Werte zu holen, vor dem nächsten Spindown"

 

Ich habe hier nur 1x Parity und 1x Data im Array....während Parity tagelang nicht abgefragt wird, ist es bei der Daten DIsk in unterschiedlichen Intervallen, zwischen zwei spindown Befehlen.

 

Das ist mMn ein BUG!

Edit: vor allem, weil es mit der 6.8.3 auf dem gleichen Hardware-System reproduzierbar *nicht* so war.

Edited by Ford Prefect
Link to comment
24 minutes ago, Ford Prefect said:

Das, was die Platten unnötig weckt ist wohl der smartctl Befehl auf der Disk.

Warum sonst sollte der Befehl manchmal kurz nach dem Spindown kommen.?

Weil unRAID einen Cronjob hat, der den Status der HDDs ständig prüft und wenn diese aufwachen, macht unRAID automatisch einen SMART Check. Es ist also nicht der Auslöser, sondern eine Folgeaktion.

 

Auch das ließe sich übrigens einfach ermitteln. unRAID macht das an Hand der Read / Write Werte. Auch das könnte man loggen und du wirst sehen, dass die Werte erst steigen, bevor der Smart Check startet.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.