MPC561

Members
  • Posts

    709
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by MPC561

  1. A bit late but, btw. I told you this already on reddit, if you are not able to get this board lower, then the board is faulty, some component(s) avoid deeper C-Pkg-States or you are the problem. Btw. in the German Unraid Forum part we have also others then me which get the board to such values I describe below. Here runs this Board with 1xNVME (2TB), 2xSSD (2TB + 4TB) and 32GB RAM with below 6W min. Idle consumption and an accumulated idle mean value (1 day) with 5 Docker (HA, Adguard, SABNZBT, MGTT etc.) running at approx 7-8W. Yesterday (24h) it consumed 195Wh but as you can see below in the screenshot I worked with the board so it was not always idle. In Bios all Energy Saving Mechanisms and "powertop --autotune" or TLP need to be activated (me uses TLP now as it is more configurable and with my config I have more savings then with powertop). Important, the usage of a 12V Power Supply instead of a 19V (as suggested by Asrock) reduced the power consumption by at least 1W (normally more). Here some measurements for the power consumption: I also attached my TLP configuration, but it need to be adapted to your number and type of disk (SSD/HDD), USB devices etc. but most of the stuff should work directly with this config for the Asrock N100DC-ITX: Credits for the package and the installation instructions to: @BiNiCKNiCH The TLP package for the EXTRA Folder can be found here Install instructions : - copy tlp_1.6.1-1_all.txz into /boot/extra - copy tlp.conf into folder /boot legen - change /boot/config/go: cp /boot/tlp.conf /etc/ chmod 644 /etc/tlp.conf tlp start tlp.conf
  2. Hehe ja. Mir gehts hier in dem Thread drum zu zeigen das TLP einfach besser als powertop ist. Solange bis man durch das rantasten das System stabil hat. Es gibt halt unkritische Optionen und kritischere. Wenn die unkritischen Optionen einem Server der 100W braucht auf 80W runterbringt. Warum dann nicht? @BiNiCKNiCH Anbei mal meine N100DC-ITX Konfig. Ich habe noch ein paar Optionen geändert für AC Betrieb und meine damit noch ein W mehr einzusparen. Dabei sind alle Optionen stabil getestet (ca. 1 Woche), ausser das ich auch PCIE_ASPM_ON_AC="powersave" gesetzt habe, sprich die Bios Standardeinstellungen mit powersave für die PCie Teile überschreibe. Die Option habe ich erst heute früh aktiviert. Bis jetzt stabil aber ich habs noch keine 7 Tage getestet wie die anderen Optionen. Gruss, Joerg tlp.conf
  3. Ich habe jetzt powertop komplett mit TLP ersetzt. Ich meine sogar ich spare noch etwas mehr da ich auch den RAM in den Deepsleep versetzen kann. Ich könnte sogar den Prozessortakt limitieren, wenn ich das wöllte. Ich hatte das jetzt über eine Woche laufen und an der Konfiguration bei meinem N100DC-ITX. Alles ist stabil. Ich bemerke keine Einschränkungen. Das schöne ist, wie @BiNiCKNiCH schon implizit schrieb die Skalierbarkeit von TLP. Sprich es gibt ein Konfig File, in dem man gezielt kritische HW Teile rausnehmen kann. Zum Beispiel via Adresse einige PCiE Devices die kritisch sind aus dem ASPM, oder der einen kritischen SSD diverse Schlafzustände verbieten, und das alles schön an einer zentralen stelle in der config. Dazu kommt noch tlp-stat mit dem man gezielt Informationen aus der HW auslesen kann zu was sie fähig ist. So wie @mgutt cmd Line Anweisungen im go File. So kann man im besten Fall sogar Konfigurationen für spezifischen Boards zur Verfügung stellen bzw. austauschen. Das ist gerade das gute an TLP vergliichen mit powertop. Bei Powertop nutzen die meisten AutoTune, sprich alles oder nichts. Durch die Skalierbarkeit kann man sich bei TLP an eine stabile und trotzdem noch sparsame Konfiguration rantasten.
  4. Ich habe jetzt mal im Zuge meiner tlp Tests (einige System Neustarts) das 19V 90W Netzteil gegen ein Leicke 12V 154W ersetzt. Das Board startet und lässt sich normal verwenden. Interessant ist aber das mit tlp und dem 12V Netzteil meine Minimallast teilweise bei unter 6W lag. Das ist drastisch weniger als davor wo ich nur knapp unter 7W war, eher 8W (ca. 5 laufende Docker inkl HA, Adguard, MQTT). Muss mal so jetzt ein paar Tag laufen lassen um die Durschschnittslast zu vergleichen. Es ist schade das das Board schon so verbaut ist das ich kaum noch rankomme. Würde gerne mal mit nacktem Unraid (nur tlp oder pwertop) und einer SSD messen. Ich vermute mal die Idle min. und die Idle durschnittslast sind nochmal ein um W geringer. PS: Habs mal paar Stunden laufen lassen. Mann sieht es unten rechts sehr schön wie die Minimallast nach unten geht:
  5. Es gibt sich widersprechende Aussagen. Nur über Cloud und eine spezielle HACS Integration sagen die einen und damit gar kein Problem und andere sagen es geht gar nicht.
  6. Hast Du statt Grafana etc. schonmal einfach über den HA (Home Automation) Docker nachgedacht. Der hat eigentlich eine TP Link Integration. Ich nutze die für meine KP115 und H(S)110 Energiemessungsdosen. Sieht dann so aus erstmal (das kann man auch als Grafik anzeigen oder Funktionen die aufintegrieren etc. hinzufügen): In dem Bild ist NAS eine HS110 und NAS2 eine KP115 (ggf. hab ich jetzt die Bezeichnung detailliert im Kopp aber es sind beide TPlinks mit Strommessung). Über HA könnte man die sogar intelligent steuern. Zum Beispiel das eine immer bei Sonnenaufgang angeht und bei Sonnenuntergang aus etc. Es gibt auch noch einen anderen Docker, den man aber manuell installieren muss nur für die TPLinks der aber nur Werte logt Steuern kann man da nix. Sieht so aus: Vielleicht wäre das eines davon einfacher für dich?
  7. Definitiv, ich hab ein älteres Fractal und das Node804. Das Node ist schon recht eng bei den SATA Steckern an den HDDs und der Airflow ist suboptimal. Speziell bei Rebuilds vom Array wird's schon ganz schön warm. Gen 13 is meist effizienter als Gen 12. Das ist ein Argument für den i5 da er ja Gen 13 ist. Man könnte natürlich auch sagen nimm den i3-13100. Der i5 vs i3 kostet dich im idle vielleicht ein halbes Watt wenns hoch kommt, eher weniger. Die Frage ist einfach willst Du anspruchsvollere VMs einsetzen? Bei denen ist es immer besser paar Kerne mehr zu haben. Dann i5. Wenn nur Datengrab und Docker Container und ein bis zwei anspruchslose VMs (Home Automatisierung zum Beispiel) dann reicht ein i3 dicke, dicke, dicke. Ich hab auch einen i3 (10100) in meinem Datengrab/Jellyfin Server. Gruss, Joerg
  8. Kommt noch das Problem dazu das Du mindestens einmal eine Grafikkarte einbauen musst um das Bios zu konfigurieren. Das std Bios ist auf Leistung und nicht Stromsparen konfiguriert. Mindestens die C-States wirst Du aktivieren müssen und noch ASPM. Danach kann die GPU wieder raus. Aber ehrlich gesagt würde ich auch machen was Data schon vorschlug und die CPU gegen eine mit iGPU austauschen. Zumindest ich muss immer mal ran an den Server direkt.
  9. Das Problem ist der Startup (oder ggf. ein wakeup vom Suspend to RAM) und dabei von den Stromspitzen beim anlaufen der Motoren der Festplatten. Wir wissen auch nicht wieviel der 90W der verbauten PicoPSU auf der 12V Schiene liefert (12V sind für die Motoren der HDDs) und wieviel W auf den anderen Spannungsschinen (5V für SSDs). Theoretisch kann eine HDD bis zu 30W Anlaufleistung brauchen (aber eben nur recht kurz), im Betrieb eher um die 10W. Ich würde das mit 4 HDDs nicht riskieren. Dann ist eigentlich die uATX Version, sprich das N100m, besser geeignet da man da ein Netzteil oder halt eine dickere 160W PicoPSU verbauen kann. Glaubensfrage. Im Raid hast Du halt eine Absicherung wenn eine SSD kaputt geht. Auf der anderen Seite mache ich Backups von diversen Daten wie Docker (Täglich um 12 Uhr) etc. aufs Array der HDDs die dann ja wieder unter dem Schutz der Parität stehen so das ich darauf verzichte und nur eine NVME als Cache nutze. Also in dem Thread rede ich vom Transcodieren via iGPU so das ein 4k Stream von der iGPU runterskaliert wird auf z.B. 720p um z.B. bei einem schauen eines Plex Videos auf dem Handy die Datenrate zu verringern im Datenkontingent zu sparen. Natives übertragen... Darunter verstehe ich jetzt einfach das das Video ohne transcodieren über den Netzwerkanschluss übertragen werden kann. Da sollte der normale 1GBit Netwerkanschluss schon multiple Streams schaffen. Mehrere 60MBit/s sind ganz sicher kein Problem. Ich übertrage von dem Teil auch 4k 60MBit Streams zu meinem Kodiclient mit Jellyfin und habe keine Ruckler. Wenn ich falsch verstehe was Du meinst korrigiere mich ggf. natürlich.
  10. Statt der 2 SSD eine grössere NVME und du könntest das Asrock N100DC-itx nehmen. Eingebaute PicoPSU, sprich man braucht nur noch ein 19V 90W Netzteil und einen RAM Riegel (nur ein RAM Slot bis 32GB bestückter) und ein Gehäuse: 130 Euro N100DC-ITX 30 Euro 16GB RAM SO-DIM 20 Euro Netzteil 20 Euro Gehäuse (billig) 200 Euro excl. Platten Das Board hat Intel i-x e-cores die recht leistungsfähig sind (Performance vergleichbar ca. mit einem i3-7100) Durch PicoPSU und passiver CPU Kühlung absolut leise (ggf. HDD Geräusche) Günstig, siehe oben mit 1xNVME und 2xHDD (im HDD Spindown) ca. 8-10W Verbrauch im idle je nach Anzahl laufender Docker. 4k HDR decoding von ca. 6 Streams kann es auch via iGPU (bei Tonemapping reduziert sich diese Zahl), das hab ich in dem verlinkten Thread unten auch getestet/beschrieben. Siehe hier, da wird dazu einiges, auch teilweise über den grösseren uATX Bruder N100m diskutiert: Klick
  11. Ich hab einen Klon für 16 Euro seit Jahren laufen ohne Probleme. Und der Klon aktuell und ein Leicke 154W kosten zusammen auch nur 60-70 Euro. Wobei die Hauptargumente immer noch ist 1-2W weniger und vor allem: "Leise" sind. Speziell da das Board komplett passiv ist bietet sich halt eine PicoPSU an für Lautlosigkeit. Das Pure Power 12 M 550W hat einen permanent drehenden, wenn auch leisen Lüfter.
  12. Wieviele HDDs? Davon hängt ab ob PicoPSU oder nicht. Wenn nur 2 HDD + 1x NVME und da du keine Hochleistungs VMs erwähnst (Sprich das Teil ein NAS mit paar Dockern ist, ggf. eine anspruchslose VM aber kein VM Gaming Server) Kann man vielleicht sogar was viel günstigeres, sparsameres und absolut leises vorschlagen. Das klingt nach nur einer HDD?
  13. Nein leider nicht. Die PicoPSU (sprich der Teil der die unterschiedlichen Spannungen zur Verfügung stellt) kann nur 90W. Auch wenn Du ein dickeres Netzteil davor hängst bringt das nichts bei Asrock N100DC-ITX. Aber du kannst die uATX Variante nutzen. Da ist die PicoPSU nicht auf dem Board verbaut. Das ist das Asrock N100m. Du brauchst dann halt noch eine 160W Pico PSU 12V und ein 12V 150-160W Netzteil. Dazu noch eine passende SATA Karte weil as Board ja nur 2xSATA und 1xNVME on-board hat. Wobei du dann aber ggf. keine tiefen C-Pkg States mehr erreichst. Siehe weiter oben alturismos Beitrag, der hat genau die uATX Version des Boardes.
  14. Also sr-iov lässt sich momentan nicht installieren. Wird für die aktuelle Kernelversion wohl noch nicht bereit gestellt. Hab auch keine nerven am Kernel rumzubasteln.
  15. Ich muss mal kurz den Monitor anmachen und wieder aus und die Meldungen sind auch weg (Ich boote mit ausgeschaltetem Monitor). Sr-Iov werde ich dann aber mal wieder installieren um das zu testen.
  16. Ja die Paritätsplatte muss größer oder mindestens gleich gross wie die grösste Platte im Array sein. Ich hatte Dich dann wohl missverstanden. ich dachte du willst alles auf die 18TB von der Syno kopieren, die dann in Unraid einfach ins Array mit 2x14TB + die 18TB hängen und dann auf eine 14 TB die Parität bilden lassen. Das geht nicht wie Du ja schon selber festgestellt hast. Aber ein Array mit 2x14TB als Daten und 1x14TB Parität geht. Ich würde dann allerdings (hab ich oben glaub ich schon gesagt) erstmal ein verschlüsseltes Array mit 2x14TB bilden (ohne Parität) dann die Daten von der 18TB kopieren (dazu solltest Du das Plugin "unassigned devices" installieren) und danach erst die 3. 14TB Platte als Parität ins Array aufnehmen. Die braucht dann noch ca. einen halben oder einen Tag (je nachdem wie die Daten auf den 2x14TB Platten verteilt sind) um die Parität zu berechnen.
  17. Ich hab Dir ein Bild gezeigt, zwar mit laufenden Array und EXPLIZIT erwähnt du sollst in die Erweiterte Ansicht schalten. In meinem Screenshot ist der Schalter sichtbar, Du hast ihn weggelassen.
  18. Ich hab jetzt erstmal mit der std tlp.cnf, speziell mit tlp bat gestartet, ohne go file um mal zu sehen wie stabil das ist. Ohne einen ganzen Tag gemessen zu haben sieht es jetzt erstmal nach 0,5-1W weniger Grundlast aus. Mehr nach einem vollen Tag. Vielleicht teste ich aber auch heute Abend noch deine config.
  19. Ich denke ich bin schon daran interessiert das mal zu testen. Hab ja auch ein N100DC-ITX. Bin auch bei 8-10W aber mit weniger Dockern als Du (bei 3 SSD/NVME). Also das Pakte in den Extra Ordner auf dem Stick und ins go File einfach: tlp start Konfigurieren muss ich dann nix mehr? Gruss, Joerg //Edit: Also wenn man mit tlp start startet dann ist er im AC Mode wo viele Optimierungen wohl deaktiviert sind. Man kann dann wohl mit "tlp bat" starten dann sind schon Energiesparmaßnahmen aktiv oder via tlp.conf im /etc konfigurieren. muss ich mir noch genauer anschauen. Ich lasse jetzt mal ein paar Tage mit "tlp bat" laufen um mal sehen ob sich der Tagesverbrauch verringert oder es irgendwelche Probleme gibt.
  20. Steht nix zwischen 8.58 Uhr und 9.10 Uhr als Du rebootet hast. Auch davor hab ich nix gesehen (hoffentlich hab ich nix übersehen). Und bzgl. IpVlan, du hast da wirklich IPVLAN stehen?: Weil deine Erklärung, du musstest nur das andere ändern, erscheint mir nicht logisch und dein Fehlerverhalten ohne Eintrag ins Log ist auch typisch das MacVlan Problem. Ich glaube also du hast nicht richtig nachgeschaut. Einstellungen - Docker - Erweiterte Ansicht und schauen ob dort IPVLAN Steht bitte! PS: Ich glaube du hast wegen IPVLAN nur bei der Dockerkonfiguration von FRIGATE geschaut. Aber Maclan und Ipvlan sind globale Dockereinstellungen und auch nur in der erweiterten Ansicht sichtbar..
  21. Meine Frage hatte diesen Hintergrund: Je nachdem wieviele Leute gleichzeitig zugreifen wollen bist Du bei 1GBit ja eh schon auf ca. 112MB/s limitiert. Dazu kommt noch das Du die nur erreichst wenn Du auf den Cache schreibst. Ist der Cache klein und die Leute schreiben viel pro Tag ist der irgendwann voll und dann bricht wegen dem Unraid Konzept mit der Parität deine Schreibleistung auf ca. 60-70MB/s zusammen weil dann direkt auf das Array geschrieben wird. (In der Nacht kann der Mover Daten vom Cache auf das Array kopieren und so ist der Cache am nächsten Tag wieder frei) Sagst Du aber: Schnell muss nur ich zugreifen können (und mir reichen ca. 100MB/s) und 2-3 andere greifen nur langsam über DSL extern mit max. 10MBit auf den Server zu und eure Datenmengen beschränken sich auf nur ein paar Gigabyte am Tag dann ist das kein Nadelöhr. Bei den Boards kann ich Dir dann nicht weiterhelfen. Da wird sicher Datacollector was zu schreiben oder wenn Du Glück hast mgutt. Oder halt wie ich schon schrieb: Suchen im deutschen Forum hier. Gruss, Joerg PS: Überlege mal ob Du ECC wirklich brauchst. ECC ist kein Ersatz für ein backup und auch nicht für ein Backup des Backups an einem anderen Ort wenn es um wirklich kritische Daten geht. Es verhindert "nur" kompromittierte Backups. Und ECC System sind halt um Welten teurer und schwerer zu finden. Falls Du es nicht brauchst schau Dir die B760 Systeme an.
  22. Hab ich einfach überlesen. Ich bleibe aber bei der Meinung das es auch dazu genügend Infos gibt, die man hier im Forum sehr einfach finden kann. Umso mehr, als das Angebot dahingehend eher mager ist. Es liegt mir auch fern Dich davon abzuhalten ihn zu beraten, statt ihm zum Selbststudium zu bewegen. Gruss, Joerg
  23. Es gibt, gerade in letzter Zeit genug Threads mit diesem Thema. Da kann man sich auch gerne mal selber einlesen. Genau auf der ersten Seite sind mindestens 2-3 Setups vorgeschlagen und bewertet worden. Und wenn Du schreibst das Du das als Freelancer auch gewerblich einsetzen willst solltest Du noch schreiben wie viele Leute dann Zugriff auf den Server haben. Dann wird Netzwerkbandbreite und Datenschreibrate interessant und ist relevant für ggf. andere Komponenten oder es kann sogar sein as man sagen muss eine QNAP oder Synology sind dafür geeigneter. https://forums.unraid.net/topic/146632-neuer-unraid-nas-mit-gigabyte-b760i-aorus-pro-ddr4/ https://forums.unraid.net/topic/147723-itx-messungen-gigabyte-b760i-aorus-pro-und-asrock-z790-phantom-gaming-itxtb4/ Rest wirst Du selber finden.
  24. Beim neu aufsetzen erst die Daten auf den Server bekommen und dann Parität bilden lassen. Aber nochmal generell. Ich nutze Syno nicht mehr. Aber kann die Syno wirklich ein verschlüsseltes Dateisystem anlegen das Unraid lesen kann? Nutzt Syno die gleichen Verschlüsselungskonzepte? Wenn ich mich recht entsinne kann Syno kein XFS, ZFS oder ReiserFS. Bleibt also nur BTRFS verschlüsselt anzulegen und dann hoffen das Unraid das entschlüsseln kann. Ich würde die Platte unter Syno mit BTRFS verschlüsselt anlegen und erstmal nur paar GB kopieren. Dann in den Unraid Server einbauen und Unraid starten und schauen ob er die Platte überhaupt entschlüsseln kann. Wenn ja dann würde ich die Platte wieder an die Syno hängen und voll machen. - Wenn sie voll ist mit den 3 anderen Platten in den Unraid Server. - Ein Array anlegen (ohne Parität) und dabei die 3 neuen Platten mit XFS verschlüsselt anlegen und formatieren bei Start des Arrays - Die Daten der 18TB Platte auf die anderen Platten verschieben oder kopieren. (Kannst Du leider nicht da drauf lassen weil die 18TB Platte deine Parität sein muss weil bei Unraid die Parität immer die grösste Platte sein muss) - Array reseten (dabei werden keine Daten gelöscht) und Array neu bilden, aber diesmal mit der 18TB Platte als Parität. Beim starten des Arrays sollte dann die Parität berechnet werden. Man möge mich korrigieren wenn ich was vergessen habe. Wobei ich den dumpfen Verdacht habe das Unraid deine Syno Platte verschlüsselt nicht lesen können wird. Wobei Du das verschlüsseln durch Syno eigentlich gar nicht brauchst. Da du die 18TB Platte sowieso löschen musst um sie als Parität unter Unraid zu nutzen würde ich an der Syno die 18TB Platte einfach BTRFS Partitionieren ohne Verschlüsselung und die Daten kopieren. (die 14TB im Unraid verschlüsselst du dann). Dann sind deine Daten nur kurz ungeschützt.) Ohne Verschlüsselung sollte das auf jeden Fall so gehen. Gruss, Joerg
  25. @chris_judge Genau das was @alturismo schreibt als erstes machen bevor du das mit dem Syslog auf USB abspeichern angehst. Mit dem MacVLAN hatten so einige diese freezes mit 6.12.x, inklusive mir. Hohe Wahrscheinlichkeit das es das sein könnte.