S3-Sleep geht nicht mehr?


Ford Prefect

Recommended Posts

So, seit knapp 2 Wochen geht mein grosser Backup/Medienserver nicht mehr von allein schlafen.

 

Das Ding hat wirklich ewig funktioniert....

 

 

....letztes Reboot war am 05.Januar (glaube da kam vorher ein 6.8.3er Patch) und seitdem war aufwecken mit WoL und automagiches schlafengehen kein Thema.

Das letzte Updade des S3-Sleep Pluging ist vom Juni 2020....auch da seither kein Problem.

 

Ich habe nun das "Active Streams" und das "Open Files" Pluging installiert...da ist nix zu sehen und die Platten sind im Standby...er schläft von allein nicht ein....manuell im UI den Knopf drücken geht allerdings.

 

Ich habe an dem Server nix verändert, weder Hardware noch Config.

Es ist ein umgeflschter M1015 in HBA mode mit Intel RESCV240 Expander im 24er 4U-Rack...11x3TB  HDDs und eine SSD als Cache....keine Docker, keine VMs (alles disabled).

Das Log ist in dieser Hinsicht auch unauffällig...

 

Ich stehe auf dem Schlauch.

Irgendwelchen sachdienlichen Hinweise von Euch würden mich sehr freuen...das Ding soll erstmal weiterleben, bis ich meine 10G Strategie durchdacht habe

 

 

 

 

Link to comment
1 hour ago, Ford Prefect said:

manuell im UI den Knopf drücken geht allerdings.

Ok, damit ist schon mal gewährleistet, dass das Script an sich geht.

 

Hier ist der Quelltext vom S3 Plugin:

https://github.com/bergware/dynamix/blob/master/source/s3-sleep/scripts/s3_sleep

 

Dadurch sehe ich schon mal, dass man das Script auch manuell über das WebTerminal ausführen kann. So bekommen wir zB alle Optionen angezeigt:

/usr/local/emhttp/plugins/dynamix.s3.sleep/scripts/s3_sleep -?

Außerdem sehe ich, dass das Plugin Logs schreibt:

# Use this feature only in case of sleep not working
# It is intended to help in troubleshooting
log() {
  case $debug in
    1) logger -t "$program" "$1"
       echo "`date`: $1" >>/boot/logs/$program.log ;;
    2) logger -t "$program" "$1" ;;
    3) echo "`date`: $1" >>/boot/logs/$program.log ;;
    4) echo "`date`: $1" ;;
  esac
}

Schau also mal auf dem USB Stick unter /boot/logs/s3_sleep.log was sich da seit dem Tag wo es nicht mehr geht geändert hat?

Link to comment

...leider war kein Debug eingeschaltet....hab das jetzt mal aktiviert und werde mal sehen, was da so rauskommt.

 

Edit: ...war ja klar...kaum ist das Debug aktiviert, geht er brav in den Sleep ....arrgh!

Edit: OK, er sagt das eine Daten-Disk, 1h später eine der beiden Parity noch aktiv ist....im UI ist aber nichts davon zu sehen,,,alle Disks in spindown.

Macht man manuell einen spindown, greift das Script danach und legt ihn schlafen.

 

Habe jetzt doch mal gebootet....jetzt läuft ein Parity-Check weil er nen unclean shutdowen gemacht hat (wieso eigentlich? ...ok, ich mache sowas nur alle paar Jahre mal).

 

...mal sehen, ob der Effekt dann weg ist.

Warum die Disks trotzdem drehen soll ist mir schleierhaft.

Muss ich im Plugin vor dem sleep oder nach dem wakeup etwas eingeben/konfigurieren...disks spinup/spindown oder so?

Edited by Ford Prefect
Link to comment
15 hours ago, Ford Prefect said:

Muss ich im Plugin vor dem sleep oder nach dem wakeup etwas eingeben/konfigurieren...disks spinup/spindown oder so?

Kann man machen, aber ich vermute, dass das Problem (Unraid erkennt nicht den Schlafzustand) zeitversetzt entsteht.

15 hours ago, Ford Prefect said:

Habe jetzt doch mal gebootet....jetzt läuft ein Parity-Check weil er nen unclean shutdowen gemacht hat

Hast du über den Button in der WebGUI neu gestartet? Dann darf das eigentlich nicht passieren.

 

Eventuell, aber das weiß ich nicht, kann er das Beenden des Arrays erzwingen, weil irgendwas dies verhindert hat?! 

 

15 hours ago, Ford Prefect said:

OK, er sagt das eine Daten-Disk, 1h später eine der beiden Parity noch aktiv ist....im UI ist aber nichts davon zu sehen,,,alle Disks in spindown.

Liste mal bitte die HDD Modelle auf, die Probleme gemacht haben und wie sie verbunden sind (onboard SATA, SATA Karte XYZ, USB XYZ Adapter, etc). 

 

Unraid nutzt das smartctl Kommando ca alle 10 Minuten, um den Status von HDDs zu prüfen. Ich hatte vor kurzem auf meinem Backup NAS auch einen Fehler damit:

https://forums.unraid.net/bug-reports/stable-releases/683-hdds-are-spinning-but-webgui-status-shows-spindown-r1104/

 

Da bei mir wirklich alle Platten an waren und an blieben, tippe ich auf einen Absturz des entsprechenden Cronjobs.

Link to comment
5 minutes ago, mgutt said:

Hast du über den Button in der WebGUI neu gestartet? Dann darf das eigentlich nicht passieren.

 

Eventuell, aber das weiß ich nicht, kann er das Beenden des Arrays erzwingen, weil irgendwas dies verhindert hat?! 

 

Ja, über das UI neu gebootet.

Das Array ist aber encrypted und BTRFS....evtl. liegt es daran?

 

5 minutes ago, mgutt said:

Liste mal bitte die HDD Modelle auf, die Probleme gemacht haben und wie sie verbunden sind (onboard SATA, SATA Karte XYZ, USB XYZ Adapter, etc). 

 

Unraid nutzt das smartctl Kommando ca alle 10 Minuten, um den Status von HDDs zu prüfen. Ich hatte vor kurzem auf meinem Backup NAS auch einen Fehler damit:

https://forums.unraid.net/bug-reports/stable-releases/683-hdds-are-spinning-but-webgui-status-shows-spindown-r1104/

 

Da bei mir wirklich alle Platten an waren und an blieben, tippe ich auf einen Absturz des entsprechenden Cronjobs.

Das ist aber mal intereressant.

Wenn das Array benutzt wird, werden aber die Disks, auch einzelne, zB meim abspielen eines Videos,  durchaus als aktiv im UI angezeigt (Temps hängen etwas hinterher, aber das ist ja normal) und gehen dann brav in den spindown nach 30min....zumindest laut Anzeige und Log.

 

Alle Disks sitzen an einem cross-flash LSI2008 (M1015) HBA mit RESCV240 Expander... die Cache Disk am onboard SATA

 

image.thumb.png.489bd7b833bbab5c83f3fd01195e0591.png

 

Das hier ist im Syslog, von vor dem Sleep und kurz nach dem aktuellen Aufwecken...unauffällig:

Dec 22 08:14:35 tank s3_sleep: Disk activity on going: sdb
Dec 22 08:14:35 tank s3_sleep: Disk activity detected. Reset timers.
Dec 22 08:15:34 tank kernel: mdcmd (65): spindown 0
Dec 22 08:15:35 tank kernel: mdcmd (66): spindown 1
Dec 22 08:15:35 tank kernel: mdcmd (67): spindown 2
Dec 22 08:15:35 tank kernel: mdcmd (68): spindown 3
Dec 22 08:15:36 tank kernel: mdcmd (69): spindown 4
Dec 22 08:15:36 tank kernel: mdcmd (70): spindown 5
Dec 22 08:15:36 tank kernel: mdcmd (71): spindown 6
Dec 22 08:15:37 tank kernel: mdcmd (72): spindown 7
Dec 22 08:15:37 tank s3_sleep: Disk activity on going: sdi
Dec 22 08:15:37 tank s3_sleep: Disk activity detected. Reset timers.
Dec 22 08:15:38 tank kernel: mdcmd (73): spindown 8
Dec 22 08:15:39 tank kernel: mdcmd (74): spindown 9
Dec 22 08:15:39 tank kernel: mdcmd (75): spindown 29
Dec 22 08:16:37 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:16:37 tank s3_sleep: Extra delay period running: 15 minute(s)
Dec 22 08:17:37 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:17:37 tank s3_sleep: Extra delay period running: 14 minute(s)
Dec 22 08:18:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:18:38 tank s3_sleep: Extra delay period running: 13 minute(s)
Dec 22 08:19:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:19:38 tank s3_sleep: Extra delay period running: 12 minute(s)
Dec 22 08:20:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:20:38 tank s3_sleep: Extra delay period running: 11 minute(s)
Dec 22 08:21:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:21:38 tank s3_sleep: Extra delay period running: 10 minute(s)
Dec 22 08:22:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:22:38 tank s3_sleep: Extra delay period running: 9 minute(s)
Dec 22 08:23:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:23:38 tank s3_sleep: Extra delay period running: 8 minute(s)
Dec 22 08:24:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:24:38 tank s3_sleep: Extra delay period running: 7 minute(s)
Dec 22 08:25:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:25:38 tank s3_sleep: Extra delay period running: 6 minute(s)
Dec 22 08:26:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:26:38 tank s3_sleep: Extra delay period running: 5 minute(s)
Dec 22 08:27:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:27:38 tank s3_sleep: Extra delay period running: 4 minute(s)
Dec 22 08:28:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:28:38 tank s3_sleep: Extra delay period running: 3 minute(s)
Dec 22 08:29:38 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:29:38 tank s3_sleep: Extra delay period running: 2 minute(s)
Dec 22 08:30:39 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:30:39 tank s3_sleep: Extra delay period running: 1 minute(s)
Dec 22 08:31:39 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:31:39 tank s3_sleep: Extra delay period running: 0 minute(s)
Dec 22 08:31:39 tank s3_sleep: Initialize TCP activity counter
Dec 22 08:32:39 tank s3_sleep: All monitored HDDs are spun down
Dec 22 08:32:39 tank s3_sleep: Check TCP/SSH/TTY/IP activity
Dec 22 08:32:39 tank s3_sleep: Communication state is idle
Dec 22 08:32:39 tank s3_sleep: Execute custom commands before sleep
Dec 22 08:32:39 tank s3_sleep: Enter sleep state now
Dec 22 08:32:39 tank kernel: PM: suspend entry (deep)
Dec 22 08:32:39 tank kernel: PM: Syncing filesystems ... done.
Dec 22 09:30:06 tank kernel: Freezing user space processes ... (elapsed 0.001 seconds) done.
Dec 22 09:30:06 tank kernel: OOM killer disabled.
Dec 22 09:30:06 tank kernel: Freezing remaining freezable tasks ... (elapsed 0.001 seconds) done.
Dec 22 09:30:06 tank kernel: Suspending console(s) (use no_console_suspend to debug)
Dec 22 09:30:06 tank kernel: sd 4:0:0:0: [sdm] Synchronizing SCSI cache
Dec 22 09:30:06 tank kernel: sd 1:0:10:0: [sdl] Synchronizing SCSI cache
Dec 22 09:30:06 tank kernel: sd 4:0:0:0: [sdm] Stopping disk
Dec 22 09:30:06 tank kernel: sd 1:0:9:0: [sdk] Synchronizing SCSI cache

 

Link to comment

...grrr....ok, nach dem aufwecken für den Post da oben, bleiben die Platten an, ohne dass das UI es zeigt, wie in Deinem Post ( @mgutt ) beschrieben.

Ein manuelles Spindown im UI und das S3-Pluging fängt an runterzuzählen.

 

Warum das jetzt plötzlich so ist, kann ich nicht sagen...besondere Aktionen werden nicht ausgeführt....naja.

 

Wie lauten nochmal die "zu Fuss Befehle" für spindown, spinup für "Alle" oder muss man die einzeln ansteuern mit Nummer?

Link to comment
  • 3 weeks later...

Ah, danke...am WE, nach der Kino-Nacht ist er dann doch wieder allein eingeschlafen....

 

Wie löse ich das Probem, dass automagisch das spindown ausgeführt wird, ohne dass es zu probemen kommt?

...und was müsste ich nun im S3-Plugin eingeben, bei vorher/nachher?

 

- Command vor dem Sleep: spindown

- Command nach dem Sleep: spinup

 

...wäre ja logisch...

 

andererseits: 

 

 

 

Link to comment
  • 2 weeks later...

Ganz ehrlich ob ein Server mit mit dem S3 Sleep Script runter fährt ist seit ca Anfang 2018 ziemliche Glückssache seitdem der Status und nicht nur die Counter geprüft werden. 

Und mit der neusten RC2 geht das Plugin garnicht mehr. Nur scheint bisher keiner gemerkt zu haben. Entweder benutzt niemand das Plugin oder niemand nutzt die möglichkeit das Array auf Inaktivität zu prüfen. 

Link to comment

Tja, das Ding ist leider für mich essentiell...mein grosser Server mit Mediengrab und als backup des kleinen zieht halt doch soviel Strom, dass der nur per WoL geweckt wird, wenn es nötig ist.

Die letzten paar Male ist er eigenständig wieder schlafen gegangen, ohne das sich das Disks zuvir in den spindown lege....werde das beobachten...

Link to comment

Kann ich nachvollziehen, ist bei mir ja auch nicht anders, schließlich haben wir in Deutschland die höchsten Strompreise weltweit. Ausserdem ist es auch aus ökologischer sicht wenig sinnvoll einen Server 24/7 laufen zu lassen wenn er nur 12Std. am Tag genutzt wird.

Mit der Meinung sind wir hier aber in der Minderheit. Ein großteil der unRaid User sitzt in den USA. Dort ist der Strom vergleichsweise günstig und das Umweltdenken nicht sonderlich ausgeprägt.

 

Wie gesagt ist das Sleep Plugin schon seit einiger Zeit nicht mehr vollkommen funktional, ich habe das im entsprechenden Thread öfters angemerkt ohne jegliche Reaktion des Entwicklers. Daraufhin hab ich es für mich geforked und in einen funktionierenden Zustand gebracht.

Ich hätte dazu jetzt einen PR schreiben können, aber wenn ich sehe das PR's zu dem Plugin im Repo des Entwicklers versauern dann kann ich mir vorstellen das dieses Plugin keinen großen Stellenwert dort hat. Da geht es eher darum das irgendwelche Lüftersteuerungen besser laufen.

 

Lustig daran ist das ich beim Übergang auf 6.9 nun bemerkt habe das die Array Überwachung im Plugin komplett kaputt ist und das wahrscheinlich schon seit vergangenem Sommer, aber es scheint bisher keiner gemerkt zu haben.

Ich kann das Plugin in v6.8.3 von unRaid seit meinem Fork problemlos nutzten, für 6.9 arbeite ich derzeit noch an einem Fix.

  • Thanks 1
Link to comment
1 hour ago, mgutt said:

Ich möchte anmerken, dass mein C246N-WU2 mit i3-8100 und 64GB ECC RAM, ohne 10G Karte und mit 8 HDDs im Spindown 14W zieht. Vielleicht macht es Sinn sparsamere Hardware zu kaufen und das Thema Sleep grundsätzlich abzuhaken.

 

Tut mir leid aber das macht weder vom ökologischen noch vom ökonomischen Standpunkt her sinn.

Edited by darkside40
Link to comment
5 hours ago, darkside40 said:

Kann ich nachvollziehen, ist bei mir ja auch nicht anders, schließlich haben wir in Deutschland die höchsten Strompreise weltweit. Ausserdem ist es auch aus ökologischer sicht wenig sinnvoll einen Server 24/7 laufen zu lassen wenn er nur 12Std. am Tag genutzt wird.

Mit der Meinung sind wir hier aber in der Minderheit. Ein großteil der unRaid User sitzt in den USA. Dort ist der Strom vergleichsweise günstig und das Umweltdenken nicht sonderlich ausgeprägt.

...zum Glück hab ich ne relativ grosse PV gebaut, letztes Jahr und mit dem EEG-2021 sind Abgaben auf Eigenverbrauch ja weg ;-)

Aber trotzdem, tanke ich das lieber ins Auto statt es daheim als Wärme abzugeben...

 

5 hours ago, darkside40 said:

Wie gesagt ist das Sleep Plugin schon seit einiger Zeit nicht mehr vollkommen funktional, ich habe das im entsprechenden Thread öfters angemerkt ohne jegliche Reaktion des Entwicklers. Daraufhin hab ich es für mich geforked und in einen funktionierenden Zustand gebracht.

Ich hätte dazu jetzt einen PR schreiben können, aber wenn ich sehe das PR's zu dem Plugin im Repo des Entwicklers versauern dann kann ich mir vorstellen das dieses Plugin keinen großen Stellenwert dort hat. Da geht es eher darum das irgendwelche Lüftersteuerungen besser laufen.

Ja, ich denke, dahinter steckt das Problem, dass dieser Teil der Features sehr, sehr stark vom Setup und dem useCase abhängen kann.

Da ist der Support echt schwierig. Viele Entwickler machen das ja in erster Linie für sich selbst und nicht zuerst für Andere.

Insofern ist dies halt das Für-und-Wider von unraid - Plugins oder auch OSS im Allgemeinen (siehe zB Docker). 

 

Wenn Du es für Dich erweitert/gefixt hast...statt PR, ginge doch auch eine alternative, Community-Version, oder nicht?

Sozusagen "S3-Sleep NG" ;-)

 

 

 

5 hours ago, darkside40 said:

Lustig daran ist das ich beim Übergang auf 6.9 nun bemerkt habe das die Array Überwachung im Plugin komplett kaputt ist und das wahrscheinlich schon seit vergangenem Sommer, aber es scheint bisher keiner gemerkt zu haben.

Ich kann das Plugin in v6.8.3 von unRaid seit meinem Fork problemlos nutzten, für 6.9 arbeite ich derzeit noch an einem Fix.

Meinen "dicken" muss auch auch nicht auf 6.9 heben...der bekommt eher noch ne 10G Karte...bis sehr zufrieden, wie stabil es läuft.

Hint hint! ...Ich würde es ja ausprobieren ;-)

Link to comment
51 minutes ago, darkside40 said:

Tut mir leid aber das macht weder vom ökologischen noch vom ökonomischen Standpunkt her sinn.

 

Kommt auf dein Setup an und weiter verkaufen heißt ja nicht entsorgen. Ökologisch kann es also durchaus sein. Der dein Setup kauft, kauft ja kein neues.

 

Aber klar, wenn du eh schon einen geringen Verbrauch hast und die meiste Zeit die Kiste "aus" hast, ist das natürlich keinesfalls ökonomisch.

 

 

Link to comment
On 1/25/2021 at 8:43 AM, darkside40 said:

Ich kann das Plugin in v6.8.3 von unRaid seit meinem Fork problemlos nutzten, für 6.9 arbeite ich derzeit noch an einem Fix.

@darkside40...blöde Frage ob ich das mal probieren darf bzw. wie ich das installier...

 

...Dein .plg von hier: https://github.com/bjoerns1983/S3Sleep/tree/master/unRAIDv6 auf den Stick unter ./config/plugins austauschen ...und dann reboot?

Dann holt er sich das .tgz aus dem Archiv ja von selbst, oder?

Link to comment
48 minutes ago, Ford Prefect said:

Dann holt er sich das .tgz aus dem Archiv ja von selbst, oder?

Schmeiß diesen link einfach in 'Install Plugin rein auf der Plugin page:

https://raw.githubusercontent.com/bjoerns1983/S3Sleep/master/unRAIDv6/dynamix.s3.sleep.plg

https://raw.githubusercontent.com/bjoerns1983/S3Sleep/master/unRAIDv6/dynamix.s3.sleep.plg

 

EDIT: Altes plugin vorher deinstallieren! Reboot solltest nicht brauchen.

  • Thanks 2
Link to comment
2 minutes ago, darkside40 said:

Solltest damit aber am besten noch mal warten, ich möchte heute Abend noch eine Version raufladen die auch unter unRaid 6.9 funktioniert.

Die ist bisher im Beta Repo drin.

Darf ich fragen was du da geändert hast? Wäre es nicht besser einen PR zurück zum original repo zu machen damit der fix für alle zur verfügung steht?

Link to comment

Was dagegen spricht ist das es bei unRaid einfach keine vernünftige Entwickler Doku gibt. Ich kann das Script zwar am laufen halten, wenn aber mal wieder die halbe WebGui über den Haufen gehauen wird dann hab ich ein Problem. Ich würde mal behaupten das es nur eine Handvoll von Personen gibt die davon wirklich Ahnung haben.

 

Und mit der Unterstützung ist es auch nicht weit her. Hab letztens mal gefragt wie eigentlich der neue spundown Status in der disks.ini ermittelt wird: Antwort: Das weiss nur Limetech aber von dem kriegt man keine Antwort ;-)

 

Ausserdem wird das original Plugin ja weiter gepflegt, bloss ob die änderungen darin funktionieren stört wohl kaum einen, oder es wird nur so wenig genutzt das es keinem aufällt. Oder die meisten vertrauen einfach darauf das ihr Server schlafen geht und merken es nicht wenn das nicht passiert.

Edited by darkside40
Link to comment
3 hours ago, darkside40 said:

Und mit der Unterstützung ist es auch nicht weit her. Hab letztens mal gefragt wie eigentlich der neue spundown Status in der disks.ini ermittelt wird: Antwort: Das weiss nur Limetech aber von dem kriegt man keine Antwort

Das glaub ich eher nicht da das Plugin jemand anders entwickelt, steht auch so im Bugtracker.

 

3 hours ago, darkside40 said:

Was dagegen spricht ist das es bei unRaid einfach keine vernünftige Entwickler Doku gibt. Ich kann das Script zwar am laufen halten, wenn aber mal wieder die halbe WebGui über den Haufen gehauen wird dann hab ich ein Problem.

Was wurde denn über den Haufen geschmissen? Es stimmt du kannst jetzt deine Plugins multilungual erstellen, musst aber nicht.

 

3 hours ago, darkside40 said:

Ausserdem wird das original Plugin ja weiter gepflegt, bloss ob die änderungen darin funktionieren stört wohl kaum einen, oder es wird nur so wenig genutzt das es keinem aufällt.

Was spricht dann gegen einen PR?

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.