Jump to content

MPC561

Members
  • Posts

    861
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by MPC561

  1. Ist zwar vergebliche Liebesmüh, aber wenn man MacOS mal richtig nutzt, und da gehört unbedingt eine Magic Mouse dazu, dann gibt es nichts effizienteres und bequemeres bzgl. workflow. Gerade bei Multimonitor und Multibildschirmrnutzung (virtuelle Bildschirme) punktet es unwahrscheinlich via den Mausgesten verglichen mit Windows. 2 Finger rechts links wischen schaltet durch die virtuellen Bildschirme. Ich hab x virtuelle Bildschirme auf 3 Monitoren. Dadurch kann ich jede Anwendung auf einen eigenen virtuellen Bildschirm legen und vermeide komplett ALT TAB zum unmschalten. Kann man sicher irgendwie auch in Window konfigurieren... Aber ich schweife ab und stell das Thema hiermit jetzt lieber ein.
  2. Bei mir ist es sogar so das ich für alles ausser Gaming einen Mac mini M2 pro habe (da geht auch ein M1 mit 16GB RAM locker den man für 500 Euro bekommen kann). Der braucht kaum Strom und ist absolut lautlos. Dazu laufen im Raum noch 2 Unraid Server die auch nahezu lautlos sind. Aber das zu schätzen habe ich auch erst gelernt nachdem ich "Lautlosigkeit" erlebt habe. Man entspannt viel mehr. Früher in meiner alten Wohnung hatte ich sogar etwas so krasses, das neben meinen Gaming Platz ein Abstellraum war. Ich hab den Gaming Rechner dahin verlagert und die Kabel durch die Wand geführt. Wunderbare Ruhe statt AMOK laufender Grafikkarten und Prozessor Lüfter. Noch dazu hat es im Sommer mein Zimmer nicht so aufgeheizt.
  3. Als erstes. Nimm keinen F Prozessor. Der hat keine iGPU und die willst du haben, glaube mir. ATX Mainboards empfehlen wir normal weniger. Die haben meist viel Kinkerlitzchen an Board die die Strom kosten. MSI ist ausserdem nicht als unbedingt sparsam bekannt bei den Mainboards. Aber mit einem System das mehrheitlich für VMs genutzt wird ist Strom sparen eh irrelevanter. Nur passt ein Hexacore halt wenig zu einem System das Primär für VMs genutzt werden soll. Unter i7 würde ich da nicht anfangen. Dann solltest Du Dir nochmal genau überlegen was Du wirklich willst. Primär VM und etwas NAS und paar Docker Services oder Primär ein NAS mit Docker Services auf dem ab und zu eine VM läuft. Ersteres würde ich mit Proxmox realisieren und in einer VM die NAS Funktionbereitstellen. Letzteres würde ich über Unraid machen. Speziell Gaming VMs sind nicht so trivial einzurichten wie das einige Youtuber verkaufen. Da müssen die Grafikkarten an die VMs weiter gereicht werden, ggf. und am besten auch die ganze NVME um Baremetal VMs zu nutzen. Dazu muss es wieder viele verfügbare IOMMU Gruppen geben (Motherboard spezifisch) um das alles für die VMs freischneiden zu können. Dann kosten dich die Grafikkarten wenn der Server rumidelt ohne Gaming VM an auch Strom... Ich hatte vor Jahren die gleiche Idee und sogar am laufen, habs aber aufgegeben. Grund, die Grafikkarte hat mir beim Server im Idle mal locker 30W drauf geschlagen. Dann passierte es mitunter das die VM abgestürzt ist und mir den ganzen Server mitgerissen hat. Das ist eigentlich die sinnvollere Lösung mit den wenigsten Problemen die ich auch nutze. Ein Asrock N100m mit PicoPSU kostet fast nix.
  4. Ich habe sogar eine DS1817 als Backuplösung. Gerade jetzt will ich die, nach x-Jahren Unraid, in eine Unraid Backuplösung umwandeln.
  5. Du hast die Aussage nicht richtig verstanden. Die ist, aktuell, unabhängig der Generation: Nimm ein Motherboard mit RAM und einem z.B. i3. Messe Leistungsaufnahme im Idle. Ersetze den i3 mit einem i5 bzw. ix der gleichen Generation (rest bleibt alles gleich) und messe nochmal. Die Leistugsaufnahme wird sich nur minimal unterscheiden. Sehr sparsame Generationen waren Gen 6./7./8./9. Die Gen 10. und 11. lagen schon etwas höher. 12+ kann ich nicht bewerten. Die Aussage basiert aber nicht auf belegbaren Statistiken sondern meiner Nase und dem was ich hier und anderswo gelesen habe.
  6. Machen die meisten hier auch. Davon mal abgesehen das dauernd Ein/Aus auch nicht sein muss wenn man seine Daten gut verteilt. Ich habe auf Platten mit vielen Stunden die Daten die ich weniger oft brauche. Meine Filme sind auf nur 2 Platten, nicht auf alle verteilt. Wenn Jellyfin/Plex nach neuen Daten checkt wachen dann halt auch nur diese Platten auf und nicht all. Da gibts so einige Tricks Ein/Aus zu vermeiden.
  7. PS: Time Machine @k3vbert Ich mache sowieso nur alle 2 Tage ein Time Machine Backup. Diese stündlichen Backups lassen meine Platten ja nie schlafen. Es gibt da ein nettes tool namens Time Machine Editor. Damit kann man Zeitintervalle frei definieren. Man kann sogar sagen: Stündliche Backups auf die Platte des Macs aber aufs Time Machine Medium nur alle x Tage. Wobei ich letzteres bei ARM basierten Macs mit integrierter SSD nicht machen würde. Erhöht die TBW und verringert damit stark die Lebensdauer der "hart" integrierten NVME.
  8. Ich lasse die auch nicht über den Cache laufen. Grund, Time Machine speichert immer Änderungen macht irgendwas wo keiner weiss was genau. Ändert dabei Files die in einem Baissbackup liegen. Wenn man dann ein Cache zu Aray Szenario nutzt weiss ich nicht ob es nicht zu Inkonsistenzen führt. Rein, sprich alleine auf dem Cache ohne move zum Array geht sicher. Aber dann müllt einen TM halt den Cache zu.
  9. So einen hab ich auch. Mit Eiswürfelspender. Luxus hoch 10 im Sommer. Na ja ich wollte ja erst schreiben dann nimm da sugreen OS. Aber ich fürchte in einem Raid5 ähnlichen System bei dem dauernd alle Platten anlaufen wenn auf eine Platte zugegriffen wird wird trotz Cache der Verbrauch vermutlich noch übler sein. Musst halt damit leben oder wirklich mal versuchen ob Du die Netzwerkkarten in den ASPM zwingen kannst. Googeln...
  10. Der Stromverbrauch ist, sei mir nicht böse, selbst im C3 jenseits von Gut und Böse. Das Teil darf maximal mit 10GBit Karten (und auch da gibt es welche die tiefe C-Pkg States erreichen, 30W ziehen. dein Minimum liegt bei 53-56W rum. Ganz ehrlich? Das NAS sieht extrem zusammengeschustert aus. Schöner Schein (Eck-/Leistungsdaten und Gehäuse), aussen Hui innen Pfui... Wobei ich gerade die Igorslab Messungen betrachte. Im Standby mit einer NVME 24W und 32W bei Datenübertragung. Dann müsstest Du eigentlich im Standby mit deinen 6 Platten im Spindown bei ca. 30W liegen. Hast du da wirklich Unraid drauf oder das Uhren System mit einen echten Raid? Raid 5 oder so?
  11. Genau deswegen hatte ich ja im ersten Post geschrieben: Und wenn die anderen Platten SSDs sind schafft die Pico das auch. Deswegen sollten wir eher zwischen Magnetplatten mit 12/5V und SSD/NVME mit nur 5V separieren. 8x3,5 Magnet HDDs schafft die Pico natürlich nicht sicher. Das BN341 ist für 8x3,5 Magnetische Zoll Platten allerdings sicher. Und PS: Mist, ich hatte 6 SATAs im Kopf bei dem B760m, Sorry.
  12. Kann man über PCIe SATA Controller machen wenn man es braucht. Hatte ich oben schon erwähnt. Das N100m hat 2xSATA, das B760m DS3H hat 6xSATA Homeassistant mit 20 Steckdosen mache ich via Docker. Geht wenn man den HASS Store nicht braucht. Der HACS ist auch im Docker verfügbar. Noch dazu machen VMs meist die C-States kaputt. Docker kosten nicht viel Strom. Ich habe nichts von dem Board geschrieben. Das kennt hier keiner. Ich sagte GA B760m DS3H. Das ist uATX. ATX und Slots und Blabla kostet Strom. Ja merkt man im Niedriglastbereich extrem. Einige Netzteile verbrennen halt nur 1W, andere 10W umsonst. PicoPSU ist am Effizientesten und leisesten. Ausser 160W reichen nicht (speziell startup) Generell: Das was Du machen willst geht alles mit dem kleinen sparsamen Board das dazu inkl. CPU nur 120 Euro kostet. Ein Board nach paar Jahren ersetzen kostet relativ wenig, Die meisten tendieren zu Riesen "überpowerten" Systemen obwohl die nur unnötig Strom verbrennen. Na ja ist deine Beerdigung. Das wertvolle sind die Festplatten. Da lohnt es sich in grosse zu investieren. Warum? Hab ich oben geschrieben. Wenige grosse Platten brauchen weniger Strom als viele kleine. Besser gleich mit 20TB anfangen.
  13. Von welchen Datenmengen reden wir jetzt und in Zukunft? Mit der Info kann man schauen wieviel SATA Ports du brauchst. Jetzt scheint es ja recht wenig zu sein. Um was für VMs handelt es sich? Eher komplexe oder einfache wie ein Homeassistant oder ein einfaches Window/Linux via VNC? Bei einfachen VMs und geringen Datenmengen sollte schon ein Asrock N100m (uATX) reichen. Ist der Enkel deines J4105 mit ca. dem 3-4 fachen der Leistung. Liegt auf dem Niveau eines i5-7400, hat allerdings schon die neueren HW Video codecs. Das Teil ist passiv gekühlt und mit einer Pico PSU absolut lautlos (man kann noch einen Lüfter ins Gehäuse setzen der nur andreht wenn der Prozessor über 60-70 Grad ist). Damit kann man eine NVME + 2x20TB SATA Platten laufen lassen oder halt 2x4-8TB NVME. Dann braucht das Teil im Idle um die 5W mit SSD/NVME und 6-7 mit den HDDs im Spindown. Wenns später mehr Platten werden kann man via SATA PCIe Karte 6 Sata Ports hinzufügen (+ 1-2W der SATA controller und ca. +1W jede magnetische 3,5 Zoll Platte im Spindown). Die Pico PSU schafft ca. 6 magnetische HDDs sicher. Das System hat nur einen Speicherslot für max. 32GB. Bei anspruchsvolleren VMs kann man das Gigabyte B760m DS3H nutzen. Das wird hier im Forum öfter vorgeschlagen und einen ix Intel Prozessor nach Wahl/Lastanforderung. Leistungsaufnahme im Idle ohne Platten ca. 10W. Generell werden Intel Systeme zum Stromsparen wesentlich öfter empfohlen als AMD Systeme. ECC ist teuer und es gibt wenige Boards. Stromsparende Intel Boards mit ECC gibts faktisch nur bei Intel Gen9. und 10. (W480) und die kosten Mondpreise. Neuere W680 sind nicht stromsparend. Hier mögen mich die Forenkollegen korrigieren, kann sind as sich da was getan hat. DDR5 ist btw. kein echter ECC. Gruss, Joerg
  14. Wie ich dachte. Die 10Gbit Adapter und ihre PCI Brücken sind disabled. Man könnte jetzt mal Alturismos script versuchen um ASPM zu enablen. Aber um der Wahrheit die Ehre zu geben, das halte ich im Kontext der 10GBit Karten für hochgradig gefährlich. Müsste man mal weiter googlen ob es für den Chipsatz noch andere Möglichkeiten gibt.
  15. Testen: - Bios einstellen. Max C-State auf den grössten Wert. Idealerweise C10 und nicht AUTO. - Governor nicht powersafe, da kommt die CPU bei Frigate nie zur Ruhe und am besten Frigate erstmal aus. - powertop --auto-tune ausführen (ASM1164 ist nicht problematisch, nutze ich selber. JJ hatte ja schon gesagt das es der 1064er ist der Probleme macht). - nach 10 Minuten warten nochmal powertop ohne auto-tune und die C-States anschauen und un dem weiteren Tab ob die tunables auf "good" stehen. - und danach erst das lspci Kommando Ich vermute du wirst trotzdem auf C3 sein und ich tippe auf den 10GBit Netzwerkkontroller. Das sollte dann aber sauber in dem output des lspci Kommandos ersichtlich sein wenn das Bios sauber eingestellt ist. Mehr fällt mir auch nicht ein. Manche Boards gehen halt einfach nicht. Damit muss man auch rechnen.
  16. Klar hat es die. Weil 2 Leute im englischsprachigen Forum Teil Probleme haben... Ein 3. hat keine und in dem Thread wurde seit 10 Monaten nix mehr geschrieben. Wir werden alle sterben!!!!
  17. Ich denke mal Data meint: Super Duper mit Kühlkörpern und ggf. LEDs verzierter RAM für sehr hohen RAM Takt die teuer sind und die in einem Server kein Mensch braucht. Lohnt er nicht, es sei denn du brauchst die Rechnepower mehr die die non-T CPUs haben. Wie Data schon sagte. T-CPUs schlucken im Idle genausviel wie die non-T und sind nur in der maximalen Taktfrequenz limitiert, sprich wenn man die Power braucht hat man sie nicht. Aber wann braucht man die Power schon? Maximal bei Dutzenden von Docker Containern und bei VMs. Ansonsten wäre es nicht wirtschaftlich die jetzt noch auszutauschen wenn Du sie schon hast. Klatsch in den PCIe Slot eine ASM1166 Karte mit 6 zusätzlichen SATA Slots (oder eine 4 Port 1164). Die kosten 1-2W mehr. Diese 2 hier hab ich in einem meiner Systeme getestet und die gehen in tiefe C-Package states: ASM1164 4-Port ASM1166 6-Port Es ist grundsätzlich besser wenige Platten mit hoher Kapazität zu haben als viel mit wenig Kapazität. Grund ist das jede Platte dich auch im Spindown ca. 1W kostet. Sprich: - 8 x 2TB =16 TB ca. 8W - 2 x 8TB =16TB aber nur 2W Wobei die Wirtschaftlichkeit die zu ersetzen auch von Faktoren wie: - wie gross sind meine aktuellen Platten - erwarte ich einen starken Anstieg meiner zu archivierenden Daten etc. Gruss, Joerg
  18. Mit zwei ASPM disabled devices, oder besser gesagt einem device und der dazugehörigen PCI Brücke bist du niemals nicht im C6. Das ist dann ein anzeigefehler. Dadurch brauchst du auch genau soviel wie mit dem ASUS. Welche Geräte das sind… Dazu mal den richtigen lspci Befehl nehmende hier im Thread schon ein Dutzend mal gepostet wurde. Mit dem sieht man welches Device das Problem macht.
  19. Da hilft die Pinbelegung von Molex und SATA PWR zu vergleichen. Molex hat 12V, 5V und 2xGND. SATA PWR hat 12V, 5V, 3,3V und 2xGND. Die Platten brauchen: - Magnetplatten mit Motor 3,5er HDD: 12V und 5V - SSD nur 5V Also kannst Du von beiden Steckern splitten. Die 12V auf Molex und auf SATA PWR kommen von der gleichen 12V Schiene, bei 5V is das auch so..
  20. Geht ja nicht anders. Wie willst Du sonst die Platten versorgen. PS: Noch was zu meiner Antwort oben: Ich kann Dir keine Garantie das das alles funktioniert. Die kombinierbarkeit unterschiedlicher Motherboards mit unterschiedlichen Platten und unterschiedliche SATA Controller sind der Grund. Während das eine Motherboard beim booten alle Platten gleichzeitig anrufen lässt und du riesige Last Peaks hast die die PicoPSU absacken lassen, lässt ein anderes Motherboard, zuungunsten der Bootzeit, die Platten eine nach der anderen anlaufen ohne Riesen Lastpeaks und alles ist gut. Deswegen oben die Aussage das bei PicoPSU etwas mehr Leistung fast immer besser ist und man auf einer "sichereren" Seite ist. Wie gesagt, eine Garantie gebe ich Dir nicht. Gruss, Joerg
  21. 8A sind besser als 6A 🙂 und 96W besser als 72W.
  22. Keine Ahnung warum du nicht die bessere 160W Variante nimmst. Auch die kostet nur 25 Euro bei Ebay. Der Punkt ist nichtmal die Gesamte Leistung von 160W, sondern wieviel Last sie auf 3,3V, der 5V und der 12V Schiene etc. schafft. So könnten 120W als Zahl gesamt durchaus reichen und trotzdem könnte das Teil bei unter 120W Leistungsentnahme auf zum Beispiel der 12V Schiene kollabieren weil da eben 10W fehlen. Die 160W Pico PSU bringt 96W auf der 12V Schiene die die kritische für die 3,5 Zoll HDDs ist. Die 120W Pico bringt nur 6A auf 12V, sprich 72W. Das ist bei 4 Platten schon gefährlich bzgl. Peaks beim anlaufen der 3.5 Zoll HDDs oder noch schlimmer bei einen Wakeup aus dem RAM Standby.
  23. Aus Referenzgründen solltest Du beim messen noch die Docker deaktivieren. Die können je nach Art und weise auch noch paar Watt kosten. Wobei ich das hier nicht glaube, Du bist immerhin ca. 90% der Zeit im C8, da kann nicht viel Load von den Docker da sein. Das Netzteil ist ziemlich sicher ein Problem. Wobei ein Austausch sich vermutlich erst in x Jahren rentiert und ob der Server so lange läuft? Wobei eine 160-200W PicoPSU die 6 Platten noch schaffen könnte.
  24. Die 00:1c:6 und 03:00:0 sind die Adressen der PCIe Geräte auf dem Bus. 0x50.B und 0x80.B sind die Adresse auf dem Gerät selber und 0x42 ist der Wert der gesetzt wird. Ob die Zeilen oben richtig sind kann ich nicht garantieren, as ist boardspezifisch. Am besten eben das Script von @alturismo nutzen das das diesen 2. Wert bei jeden device automatisch ermittelt.
  25. Nutze das Script und messe deinen Verbrauch und ob du tiefe C-States erreichst. Es gibt zum script auch Alternativlösungen. Aber erstmal sollte man schauen ob wieviel tiefere C-States bringen.
×
×
  • Create New...