Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 19 minutes ago, ich777 said: Probier mal die 6.10.0-rc1 ...danke nein, ich hab ja schon genug Probleme mit der 6.9.2....ich weiss warum mein grosser Filer noch auf 6.7.2 ist 😇 Das Ding muss laufen, hier im Home-Office...keine Zeit zum probieren. Quote Link to comment
Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 (edited) 4 minutes ago, mgutt said: Nein, das ist egal. Es darf nur kein Slot im Array mittendrin leer sein. Ich hätte zb Disk5 nicht zugewiesen. ..ich habe aber nur Parity und eine Disk: ...und sdf geht nicht schlafen Edited September 12, 2021 by Ford Prefect Quote Link to comment
ich777 Posted September 12, 2021 Share Posted September 12, 2021 10 minutes ago, Ford Prefect said: ...und sdf geht nicht schlafen Wie gesagt, hatte ich auch, mit 6.10.0-rc1 nicht mehr. Verstehe aber wenn du auf keine rc willst. 1 Quote Link to comment
mgutt Posted September 12, 2021 Share Posted September 12, 2021 18 minutes ago, Ford Prefect said: und sdf geht nicht schlafen Ja doch. Wird nur wieder geweckt 😁 Hast du manuell die Platte gestoppt und gestartet? Vielleicht auch mal new config probieren und Parity als bereits valide markieren. Gefühl ist da einfach nur irgendein Timing Banane zu sein, so dass der Smart Check zu spät kommt. Quote Link to comment
Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 9 minutes ago, mgutt said: Ja doch. Wird nur wieder geweckt 😁 😂 9 minutes ago, mgutt said: Hast du manuell die Platte gestoppt und gestartet? Nope. 9 minutes ago, mgutt said: Vielleicht auch mal new config probieren und Parity als bereits valide markieren. Gefühl ist da einfach nur irgendein Timing Banane zu sein, so dass der Smart Check zu spät kommt. Ich habe von 6.8.3 das Upgrade gemacht dann neues MB und 2x M2 eingebaut..dann im Cache die 2xSSD gegen die 2xM2 "ausgetauscht", aber das Array nicht angefasst, nix manuell konfiguriert übers CLI. Bilde mir ein, dass ist erst seit ein paar Tagen so...der Umbau war letztes WE. ...was geht bei new config nochmal hopps? Shares mit Rechten/User+PWD oder nur das Array neu aufbauen? Letzteres würde ich noch machen, aber auf ganz neu, kein Bock,,,,dann gehe ich lieber auf 6.8.3 zurück. Quote Link to comment
Smolo Posted September 12, 2021 Share Posted September 12, 2021 43 minutes ago, ich777 said: Wie gesagt, hatte ich auch, mit 6.10.0-rc1 nicht mehr. Verstehe aber wenn du auf keine rc willst. Macht in meinem Fall auch keinen Unterschied von daher egal. Ich bin mittlerweile ziemlich enttäuscht über den nicht existenten Support von der Unraid Truppe bzw. das sich hier nicht mal jemand dazu äussert?! Quote Link to comment
ich777 Posted September 12, 2021 Share Posted September 12, 2021 14 minutes ago, Smolo said: Ich bin mittlerweile ziemlich enttäuscht über den nicht existenten Support von der Unraid Truppe bzw. das sich hier nicht mal jemand dazu äussert?! Hast du schon einen bug thread aufgemacht im englischen bereich? Wenn ja wo, ich weiß da noch gerne mal drauf hin. Quote Link to comment
mgutt Posted September 12, 2021 Share Posted September 12, 2021 12 minutes ago, Ford Prefect said: was geht bei new config nochmal hopps? Shares mit Rechten/User+PWD oder nur das Array neu aufbauen? Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast. Die Shares, deren Einstellungen, die User, usw bleiben alle erhalten. EDIT: ich meine Disk Share Einstellungen gehen verloren. Also falls du die nutzt, vielleicht einen Screenshot davon machen. Du gehst auf New Config und klickst Pools an, dass die erhalten bleiben sollen. Also nur Parity und Array soll "neu" sein. Dann weist du Parity und Array Disk wie zuvor zu (nicht vertauschen!). Dann anklicken, dass die Partity bereits richtig ist und Array starten. Das war's. Mach vorher vielleicht noch ein Backup von Stick und einen Screenshot von der Disk Übersicht. Aber vom Prinzip ist New Config nichts besonderes. Habe ich bestimmt schon 20x gemacht. 1 Quote Link to comment
Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 10 minutes ago, mgutt said: Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast. Tja, egal..das funzt ja auch nicht, für die M2 NVMe 😝 10 minutes ago, mgutt said: Du gehst auf New Config und klickst Pools an, dass die erhalten bleiben sollen. Also nur Parity und Array soll "neu" sein. Dann weist du Parity und Array Disk wie zuvor zu (nicht vertauschen!). Dann anklicken, dass die Partity bereits richtig ist und Array starten. Das war's. [...] Habe ich bestimmt schon 20x gemacht. Danke, war ja bei 2 Disks nicht die Welt ...warten wir mal, was passiert Quote Link to comment
Smolo Posted September 12, 2021 Share Posted September 12, 2021 (edited) 17 minutes ago, ich777 said: Hast du schon einen bug thread aufgemacht im englischen bereich? Wenn ja wo, ich weiß da noch gerne mal drauf hin. Der wurde bereits im März eröffnet und es melden sich immer wieder User und es gibt keinerlei Feedback? 😞 Edited September 12, 2021 by Smolo Quote Link to comment
Manyak Posted September 12, 2021 Share Posted September 12, 2021 Deinstalliere mal bitte das My Servers Plugin. Der war bei mir der Übeltäter. Quote Link to comment
Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 ...mein 6.9.2 hat es nicht installiert....ist also hier nicht das Problem. Quote Link to comment
Ford Prefect Posted September 12, 2021 Share Posted September 12, 2021 1 hour ago, mgutt said: Da geht nichts verloren außer die Warngrenzen zu Speicherplatz und Temperatur, sofern du die überhaupt bei den einzelnen Disks eingestellt hast. OK, spindown delay stand nach dem new config erstmal auf "never"...nach 1h warten und dann der Umstellung auf 15min gingen sie sofort aus....mal sehen, ob sie bis zum Morgen durchhalten Erstmal vielen Dank! 1 Quote Link to comment
ich777 Posted September 13, 2021 Share Posted September 13, 2021 11 hours ago, Smolo said: Der wurde bereits im März eröffnet und es melden sich immer wieder User und es gibt keinerlei Feedback? Das problem hierbei ist oftmals das irgendwas die disk aufweckt, und ich rede hier nicht von smart read, sondern irgendwas anderes und smart read wird nur ausgeführt wenn die platte wirklich aufgeweckt wird weil du in unraid angezeigt haben willst wieviel grad die platte hat usw... Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt. Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist. 10 hours ago, Ford Prefect said: spindown delay stand nach dem new config erstmal auf "never"...nach 1h warten Yep, new config setzt die einstellungen für die platten zurück. Quote Link to comment
i-B4se Posted September 13, 2021 Share Posted September 13, 2021 1 hour ago, ich777 said: Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt. Nextcloud ist auch so ein Kandidat, wenn der automatische Upload aktiviert ist. Habe ich ein paar Seiten vorher schon erklärt. Bis auf die Nextcloud-Platte wacht keine auf und auch nur wenn ich den Standort verändere. Version: 6.9.2 1 Quote Link to comment
Ford Prefect Posted September 13, 2021 Share Posted September 13, 2021 (edited) 2 hours ago, ich777 said: Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist. ..das habe ich zwar nicht gemacht, aber hoite morgen waren Parity+Data im Array "still". Habe dann später gegen 09:56 ein paar daten auf einem Share mit cache=yes hochgeladen (nix gelöscht, also in dem fall "cache-only"). Auch dann scheint "SMART" die Werte abzurufen (zu dem Zeitpunkt hat der mover noch nix gemacht, die neuen Daten waren noch auf dem cache). Sep 13 03:28:15 alarm emhttpd: spinning down /dev/sda Sep 13 03:58:16 alarm emhttpd: spinning down /dev/sda Sep 13 04:28:17 alarm emhttpd: spinning down /dev/sda Sep 13 04:58:18 alarm emhttpd: spinning down /dev/sda Sep 13 05:28:19 alarm emhttpd: spinning down /dev/sda Sep 13 05:58:20 alarm emhttpd: spinning down /dev/sda Sep 13 06:00:01 alarm root: mover: started Sep 13 06:00:01 alarm root: mover: finished Sep 13 06:28:21 alarm emhttpd: spinning down /dev/sda Sep 13 06:58:22 alarm emhttpd: spinning down /dev/sda Sep 13 07:28:23 alarm emhttpd: spinning down /dev/sda Sep 13 07:58:24 alarm emhttpd: spinning down /dev/sda Sep 13 08:28:25 alarm emhttpd: spinning down /dev/sda Sep 13 08:58:26 alarm emhttpd: spinning down /dev/sda Sep 13 09:00:01 alarm root: mover: started Sep 13 09:00:01 alarm root: mover: finished Sep 13 09:28:27 alarm emhttpd: spinning down /dev/sda Sep 13 09:56:37 alarm emhttpd: read SMART /dev/sdf Sep 13 09:58:28 alarm emhttpd: spinning down /dev/sda Sep 13 10:26:53 alarm emhttpd: spinning down /dev/sdf Sep 13 10:28:29 alarm emhttpd: spinning down /dev/sda Sep 13 10:39:49 alarm emhttpd: read SMART /dev/sdf Sep 13 10:58:30 alarm emhttpd: spinning down /dev/sda Sep 13 11:09:52 alarm emhttpd: spinning down /dev/sdf Sep 13 11:28:31 alarm emhttpd: spinning down /dev/sda Sep 13 11:58:32 alarm emhttpd: spinning down /dev/sda Sep 13 12:00:01 alarm root: mover: started Sep 13 12:00:01 alarm move: move: file /mnt/cache/backup/Mikrotik/MT4011-back-13092021.backup Sep 13 12:00:01 alarm root: mover: finished Sep 13 12:00:01 alarm emhttpd: read SMART /dev/sdf Sep 13 12:00:06 alarm emhttpd: read SMART /dev/sdd Sep 13 12:28:33 alarm emhttpd: spinning down /dev/sda Sep 13 12:31:52 alarm emhttpd: spinning down /dev/sdd Sep 13 12:31:52 alarm emhttpd: spinning down /dev/sdf 2 hours ago, ich777 said: Yep, new config setzt die einstellungen für die platten zurück. ...muss man halt wissen oder erstmal, wie ich, warten 🤣 Edit: Also, hier schein es jetzt zu gehen... Edited September 13, 2021 by Ford Prefect 1 Quote Link to comment
Smolo Posted September 18, 2021 Share Posted September 18, 2021 On 9/13/2021 at 10:31 AM, ich777 said: Das problem hierbei ist oftmals das irgendwas die disk aufweckt, und ich rede hier nicht von smart read, sondern irgendwas anderes und smart read wird nur ausgeführt wenn die platte wirklich aufgeweckt wird weil du in unraid angezeigt haben willst wieviel grad die platte hat usw... Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt. Du müsstest mal alle container und VMs ausschalten und über nacht unraid so laufen lassen und nachsehen ob es dann das gleiche ist, besser wäre du bootest unraid im safe mode (dabei werden die plugins deaktiviert) und deaktivierst dann auch noch alle container und wartest über nacht und probierst dann morgens ob dein array "wach" ist. Yep, new config setzt die einstellungen für die platten zurück. Sorry aber da wird es doch mittlerweile echt lächerlich und gruselig. Es kommt eine neue Version eines OS raus und plötzlich gibt es bei vielen Usern Probleme mit dem Spin Down! Zuerst sind die Platten schuld, dann PlugIns, dann wieder Platten, dann die Apps / Konfiguration. Alle Raten fröhlich rum und basteln an ihren produktiven Maschinen rum und vom offiziellen Support ist derweil kein einziger Kommentar dazu zu lesen. Sowas macht mich dann wirklich sprachlos. Ich hatte mittlerweile wirklich alles deaktiviert und es gab keinerlei Änderung zum Status Quo! Ich hatte mich jetzt auch auf die RC Version eingelassen und ein paar Tage nicht auf das System geschaut. Das Ergebnis? Die Platten waren tatsächlich aus leider hatte sich nach 19 Tage Uptime irgendwas dermaßen im System verklemmt das drei Cores ständig auf 100% unterwegs waren. Docker halb tot, ein Reboot per SSH oder Weboberfläche hat nicht funktioniert. Am Ende musste ich die Maschine mittles Reset durchstarten 😞🤐😱 Quote Link to comment
alturismo Posted September 18, 2021 Share Posted September 18, 2021 8 minutes ago, Smolo said: Sorry aber da wird es doch mittlerweile echt lächerlich und gruselig. Sorry, "meistens" ist es am Ende jedoch ein plugin, docker mit "seltsamen" mounts, "leswütige" Docker, was auch immer ... Mein letztes Spinup Problem war auch am Ende ein plugin was sich mit der 6.10 nicht vertragen hat ... plugin runter, alles top. der einfachste Test um zu sehen ob es das NAS an sich ist oder ein plugin, docker, vm ... Start ohne plugins (safe mode), ohne dockers und vm's .... dann beobachten, wenn spinup's dann auftreten hängt es am System. Wenn da alles gut ist geht es los auf Fehlersuche, nur oftmals kommt dann "ich hab nichts gemacht" usw usw ... anstelle mal einzeln abzuschalten und die Ursache zu finden, hier kommt halt immer mehr zusammen, von einem NAS zu Erweiterungen durch plugins für alles Mögliche, dann Docker mit allen möglichen Mountpoints, dann VM's die auf alles Mögliche evtl. zugreifen, ... das Ganze auch noch aus allen diversen Quellen ... sprich, die Dinge kommen ja nichtmal von Limetech da macht debugging echt keinen Spaß und bei der Vielfalt ist es mittlerweile auch nicht mehr so einfach da direkt zu sagen "genau daran liegt es" ... Das ist nur meine Meinung zu deinem Kommentar. ps. Ich hatte auch lange damit zu kämpfen da mein "Server" im Wohnzimmer steht (da er auch zugleich Desktop PC ist) und am Ende ... lag es nicht an unraid, das kann ich dazu sagen 1 Quote Link to comment
ich777 Posted September 18, 2021 Share Posted September 18, 2021 54 minutes ago, Smolo said: Support ist derweil kein einziger Kommentar dazu zu lesen. Sowas macht mich dann wirklich sprachlos. Das Problem ist das keiner oder wenige die sachen ausprobiert die den usern geraten werden bzw. winfach die bereitwilligkeit fehlt. Safe boot über nacht alle container abschalten usw... Hab schon ein paar probleme lösen können von englischsprachigen usern bei dem einen war es Nextcloud beim anderen Jellyfin und bei noch einem auch Jellyfin. Du musst auch die entwickler verstehen, man kann auf seinem server so viel installieren und ein container, speziell emby, jellyfin usw. wecken die platten in regelmäßugen abständen auf standardmäsig nur weiß das fast keiner. 54 minutes ago, Smolo said: Ich hatte mittlerweile wirklich alles deaktiviert und es gab keinerlei Änderung zum Status Quo! Warst du schon im safe mode mit allem abgeschaltet? 54 minutes ago, Smolo said: Ich hatte mich jetzt auch auf die RC Version eingelassen und ein paar Tage nicht auf das System geschaut. Das Ergebnis? Das kann aber auch ein container usw gewesen sein, vl war es auch gvt-g oder eine vm die hängen geblieben ist. Siehst du auf was ich damit raus will, es ist einfach schwierig da niemand wissen kann was du alles installiert hast, wie sich deine vms, plugins usw verhalten... Es kann auch mal eine vm unraid zum absturz bringen, wäre nicht das erste mal. Ich schließe mich hier @alturismo's kommentar an... EDIT: eins das ich ncoh vergessen hab, wenn dir die RC nicht passt kannst du doch immer wieder downgraden, das ist das schöne an unRAID, geht mit anderen system nicht zumindest nicht so einfach. 1 Quote Link to comment
Smolo Posted September 18, 2021 Share Posted September 18, 2021 (edited) @alturismo @ich777 VMs, Docker, etc. alles getestet das hatten wir jetzt ja schon x Mal! SafeMode war mir bisher nicht klar bzw. unbekannt dafür bin ich noch zu frisch im Unraid Thema das werde ich dann noch mal testen. Mir ging es aber beim letzten Posts um etwas anderes. Unraid selbst ist ClosedSource mit Lizenz und entsprechend hat der Hersteller auch darauf zu reagieren wenn es Probleme gibt. Problematisch sehe ich hier das man ohne Doku auf die Community verwiesen wird und das kanns dann doch nicht sein...bei solchen Fehlern erwartet man zumindest mal einen BugReport mit einem Status und möglichen Workarounds von offizieller Seite und kein Stillschweigen! Ich habe wirklich Verständnis für die möglichen Probleme aber am Ende des Tages möchte man für sein Geld schon ein stabiles System haben bzw. zumindest einen Support der sich der Thematik auch mal an nimmt. Es soll ja Developer geben die bei ungeklärten Problemen das Logging Konzept erweitern um mögliche Ursachen besser ergründen zu können ^^ Und nicht das ihr mich falsch versteht ...ich finde Unraid bzw. das Konzept extrem gut und die Community hier ist wirklich top aber vom Hersteller kommt mir da zu wenig?! Edited September 18, 2021 by Smolo Quote Link to comment
ich777 Posted September 18, 2021 Share Posted September 18, 2021 23 minutes ago, Smolo said: Unraid selbst ist ClosedSource mit Lizenz und entsprechend hat der Hersteller auch darauf zu reagieren wenn es Probleme gibt. Machen sie doch aber spin down ist ein heikles thema da es so viele variablen gibt und meistens gibt es einen auslöser der nicht unraid bezogen ist... Ich kenne die leute die hinter unraid stehen und die lesen wirklich jeden bug eintrag. Sorry aber das mit bezahlsoftware und die müssen antworten ist für mich kein argument, beispiel microsoft. 🤣 23 minutes ago, Smolo said: Ich habe wirklich Verständnis für die möglichen Probleme aber am Ende des Tages möchte man für sein Geld schon ein stabiles System haben bzw. zumindest einen Support der sich der Thematik auch mal an nimmt. Das problem fängt bei Docker an, geht über Plugins, bis hin zu Custom Scripten und dann schlussendlich zu VMs... 23 minutes ago, Smolo said: Es soll ja Developer geben die bei ungeklärten Problemen das Logging Konzept erweitern um mögliche Ursachen besser ergründen zu können ^^ Also wenn du das logging in unraid nicht gut findest kann ich nicht helfen. Könntes aber auch mal die logs von deinen ganzen Dockern und VMs durchsehen ob dort was die platten aufweckt. 23 minutes ago, Smolo said: aber vom Hersteller kommt mir da zu wenig?! Versteh mich jetzt nicht falsch aber mit den vielen variablen wie will der hersteller was feststellen und das problem haben verhältnismäßig wenige, aich nicht falsch verstehen bitte, aber sieh es mal in relation, nur meine meinung. 1 Quote Link to comment
mgutt Posted September 18, 2021 Share Posted September 18, 2021 2 hours ago, Smolo said: plötzlich gibt es bei vielen Usern Probleme mit dem Spin Down Da nur wenige das Problem haben, ist ein Bug eh unwahrscheinlich. Zuerst muss man auswerten was die Platten weckt. Dafür gibt es diverse Möglichkeiten. Beispielsweise könnte man mit inotifywait ein Monitoring starten, das alle Zugriffe auf Disk X loggt. 2 hours ago, Smolo said: leider hatte sich nach 19 Tage Uptime irgendwas dermaßen im System verklemmt das drei Cores ständig auf 100% unterwegs waren. Docker halb tot, ein Reboot per SSH oder Weboberfläche hat nicht funktioniert. Am Ende musste ich die Maschine mittles Reset durchstarten 😞🤐😱 Und da du die Ursache an Hand der Logs nicht ausgewertet hast, kann das jederzeit wieder passieren. 2 hours ago, Smolo said: vom offiziellen Support ist derweil kein einziger Kommentar dazu zu lesen Hier wird Lizenz mit Support gleichgesetzt. Wenn du persönlichen Support haben willst, dann musst du schon jemanden dazu beauftragen. Limetech wird sicher nicht hingehen und bei einzelnen Kunden per Fernwartung eine Fehlersuche machen. Warum sollten sie auch. Ansonsten ist unRAID stark Community geprägt und viele Komponenten sind sehr wohl Open Source. Daher kann man nicht einfach ohne Analyse den oder den Dev oder eben Limetech als Ursache ausmachen. 2 Quote Link to comment
sonic6 Posted September 18, 2021 Share Posted September 18, 2021 Ich reihe mich einfach mal mit ein: Quote Link to comment
Ford Prefect Posted September 19, 2021 Share Posted September 19, 2021 (edited) 21 hours ago, mgutt said: Da nur wenige das Problem haben, ist ein Bug eh unwahrscheinlich. Zuerst muss man auswerten was die Platten weckt. Dafür gibt es diverse Möglichkeiten. Beispielsweise könnte man mit inotifywait ein Monitoring starten, das alle Zugriffe auf Disk X loggt. Der Augenschein ist eigentlich anders rum. Das, was die Platten unnötig weckt ist wohl der smartctl Befehl auf der Disk. Warum sonst sollte der Befehl manchmal kurz nach dem Spindown kommen.? Ein "intelligentes System, dass ja eben schon weiss, dass die Platte nicht im Spindown ist, würde die Werte abfragen, kurz bevor der Spindown erfolgen würde. Die sichtbare, sinnvolle Reihenfolge der Events wäre also anderrum, nämlich "Egal, was die Platten weckt, nutze die Gelegenheit die aktuellen Smart-Werte zu holen, vor dem nächsten Spindown" Ich habe hier nur 1x Parity und 1x Data im Array....während Parity tagelang nicht abgefragt wird, ist es bei der Daten DIsk in unterschiedlichen Intervallen, zwischen zwei spindown Befehlen. Das ist mMn ein BUG! Edit: vor allem, weil es mit der 6.8.3 auf dem gleichen Hardware-System reproduzierbar *nicht* so war. Edited September 19, 2021 by Ford Prefect Quote Link to comment
mgutt Posted September 19, 2021 Share Posted September 19, 2021 24 minutes ago, Ford Prefect said: Das, was die Platten unnötig weckt ist wohl der smartctl Befehl auf der Disk. Warum sonst sollte der Befehl manchmal kurz nach dem Spindown kommen.? Weil unRAID einen Cronjob hat, der den Status der HDDs ständig prüft und wenn diese aufwachen, macht unRAID automatisch einen SMART Check. Es ist also nicht der Auslöser, sondern eine Folgeaktion. Auch das ließe sich übrigens einfach ermitteln. unRAID macht das an Hand der Read / Write Werte. Auch das könnte man loggen und du wirst sehen, dass die Werte erst steigen, bevor der Smart Check startet. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.