Jump to content

MPC561

Members
  • Posts

    861
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by MPC561

  1. Ohhh Ohje, da fällt mir noch was ein. Er hat ein B560m Board, sprich 11. Generation zusammen mit einem G10 Prozessor. Das das hier bei ihm ein F ist sei mal dahingestellt. Aber wenn er keinen F hätte würde dein GVT-G dann überhaupt noch funktionieren? Grund warum ich Frage. Bei den Hackintoshs kannst du mit Gen 10 Mainboard und Prozessor die UHD630 nutzen. Sobald Du aber Gen 11 Board und Gen 10 Prozessor (mit der eigentlich geeigneten UHD630) hast geht es einfach nicht mehr. Wenn das mit deinem GVT-G Plugin auch so ist sind meine Empfehlungen bzgl. Non-F CPU eh hinfällig. Gruss, Joerg
  2. Ehrlich, ich hab keine Ahnung von Streaming und den codecs da. Da verlasse ich mich auf die Aussage von @jj1987. Aber ich weiss das die iGPUs von Intel in HW eine Menge Codecs de/encodieren können, und das auch schnell. Das GVT Plugin von @ich777 funktioniert da anders als eine diskrete GPU. Da wird die iGPU nicht exklusiv der VM zur Verfügung gestellt sondern mit Unraid geshared. Das hat den Vorteil das du in der VM die iGPU verwenden kannst und die iGPU sich noch für HW Transcoding in z.B. Plex Jellyfin, bzw. generell von Unraid genutzt werden kann. Ein Nachteil ist das Du die VM aber bootest und keine Grafikausgabe auf einem Bildschirm hast. Du musst dich mit der VM via VNC oder einem anderen Screensharing Tool von einem 2. PC verbinden. In der via Screensharing verbundenen VM hast Du dann aber die HW Bescheinigung der iGPU verfügbar. So habe ich das zumindest verstanden, ich777 oder jj1987 können mich ja gerne korrigieren. Gruss, Joerg
  3. Die Majorität der Mainboards Booten nicht headless, sprich ohne eine vom Bios erkannte Grafikkarte. Hast Du Dich informiert ob das Board das kann? Ich kann das nicht testen da ich niemals einen F Prozessor kaufen würde. Es gibt auch noch weitere Gründe. Wenn Du einen Plex/Jellyfin Docker aufsetzt kann der die iGPU für Transcoding nutzen. Er kann natürlich auch die dGPU nutzen aber dann kannst Du die dGPU nicht mehr für VM´s Freischneiden und hast eben den höheren Stromverbrauch. Asuuserdem braucht eine dGPU massig mehr Strom als die iGPU. Wie @jj1987 schrieb wäre die iGPU die Lösung für deine Probleme gewesen. Wenig Stromverbrauch des Servers und trotzdem hätte mit dem GVT Plugin dein OBS Kram funktioniert. Der Server hätten dann im Idle nur 10-15W gebraucht verglichen mit deinen 50-60W. Wenn der 7/24 laufen soll hätten sich die 25-30 Euro Mehrkosten des Prozessors innerhalb weniger Monate amortisiert. Und so ein Server hat, zumindest bei mir, eine Lebensdauer von 5+ Jahren. Hunderte Euros gespart... Gruss, Joerg
  4. War nur ein Gedanken"furz". Kenn mich mit den NVidias nicht aus, nutze wegen Hackintosh OSX eher AMD. Am besten ist es eh (kennst ja meine Meinung) auf einem 7/24 Unraid System keine VM´s mit durchgeschleifter Grafikkarte laufen zu lassen. Wäre das ich777s GVT Plugin was für ihn (kann seine das ist eine dumme Frage aber ich kenne mich mit encodieren überhaupt nicht aus). Gruss, Joerg PS: Ok, scheint so das nvenc ein Nvidia only Merkmal ist also ist das GVT Plugin wohl auch nichts für ihn.
  5. @TechZeug Die GT1030 braucht wohl selber nur 6W (aber besser nochmal nach googeln). Die Nutzung einer Grafikkarte führt aber auch dazu das du über Package State C3 nicht raus kommst und das kostet dann nochmal ein paar Watt. Also grob 8-10W zusammen. Wenn das noch im Budget liegt (Graka neu kaufen plus ca. 240W/h am Tag mehr...) ist das auch noch eine Möglichkeit, aber für mich selber wäre es keine Gute.
  6. @Duck666 Kann ich leider nicht. Der Server steht bei meinen Eltern (350km weit weg). Hier hab ich nur ein GA W480 und J4105 rumstehen. So grob aus dem Kopf (bzw. aus den Screenshots vom Bios im manual): - Speed Step war glaub ich an - Musst mal Testen - Advanced/CPU: *CPU States Support Ebabled - Enhanced Halt State (C1E) Enabled - CPU C6 State support Enabled. (7 auch usw.) - Package Support Max Wert C10 glaub ich - Advanced/Chipset Configuration: - PCIE ASPM Support Enabled - PCH PCIE ASPM Support Enabled - DMI ASPM Support Enabled - Advanced/Storage Configuration - SATA Aggressive Link Power Management Enabled - Hard Disk S.M.A.R.T. - Disabled (Sonst weckt das Bios schlafende Platten, Unraid macht das via SW sowieso) - Advanced/USB Configuration -- Die Ports abschalten die man nicht braucht. Irgendwo konnte man noch die ASPM Modi konfigurieren. Da hatte ich L0 L1 oder nur L1 gewählt. Ich hoffe das reicht für bessere Werte. Gruss, Joerg PS: Dann startest Du Unraid und misst erstmal Die Leistung die der Server zieht. Aber warte nach dem Anlaufen des Arrays ca. 15 Minuten bevor du misst. Wenn Du gemessen hast gehst Du in die Apps in der Unraid GUI und installierst die Nerd Tools. Und in denen das Package powertop. Ist das erledigt öffnest Du eine Konsole aus der Unraid GUI und tippt den Befehl: powertop --auto-tune Damit sollte der Verbrauch nochmal ca. 2W runtergehen. PPS: huch stimmt ja C2, hast powertop ja schon installiert.
  7. Noch viel zu viel. Mit dem Prozessor (1W Plus), nur einer SSD/NVME und dem RM550x (1W Plus verglichen mit einer PicoPSU) solltest auf 9-10W sein im C10. Mit mehr Platten dann nur noch im C8. Du bist nur im C2. Siehe hier: Link Hast Du schon powertop --auto-tune ausgeführt?
  8. Ich hab den Vorgänger das J4105 rein mit SSDs bei 6-7W. Du hast 2 HDD die die 2W Mehrverbrauch verantworten. Tiefer als C6 kommst Du mit dem Board nicht. Gruss, Joerg
  9. Wenns richtig konfiguriert ist müssten das so ca. 12-14W sein in der aktuellen Bestückung im Idle. Als ich das Board initial ausgemessen habe hat es ca. 8W im Idle bei nur einer NVME und PicoPSU gebraucht. Dazu kommen dann ca. 4W Idle der Platten dazu und 1 W vom Netzteil. Bin jetzt mal gespannt was es in der Messung zieht. Gruss, Joerg
  10. Wenn du mit dem i3-9100 nur 6 SATA Ports und eine NVME verwendest reicht eine 160W Pico PSU wenn man die maximale Leistung des i3 im Bios limitiert, ggf. nur Turbo ausschalten. Ich hatte das mit i3-10100 und W480 Vision M und 6 Platten + 1 x NVME ohne Bioslimitierung gut ca. 0,5 - 1 Jahr laufen.
  11. Jellyfin ist da nicht dran schuld. Hier ist es aus (und auch allen anderen Docker) und sieht immer noch so aus: Wie gesagt ich hatte die Peaks schon mit 9.x.x Aber ist auch egal. Hab mich dran gewöhnt. Gruss, Joerg
  12. Hab ich auch. Keine Ahnung was das System da kurz macht. Hab ich schon seit Jahren. PS: Bitte nicht auf die absoluten Werte schauen sondern nur auf die nahezu äquidistanten Lastspitzen. Da hängt temporär noch eine statische Last zusätzlich zum Server am Messgerät. Der Server mit 8 HDDs und einer NVME zieht so zwischen 17,5 und 19,5W gemittelt. Hab noch nicht genau messen können da die neue 18TB Thosiba HDD erst seit ein paar Tagen eigebaut ist. Aber wie gesagt, hab ich schon seit Jahren so. Bei mir ist nur ein Jellyfin Docker am laufen und keine VM. Der Lastpeak ist auch da wenn der Docker aus ist. Gruss, Joerg
  13. Alles Strategien mit 2 mal Parität aufbauen und Daten langsam unter Parität kopieren. Hier die Strategie mit nur einmal Parität aufbauen und voller Bandbreite/Datenübertragungsrate beim kopieren: - Platte einbauen - Server hochfahren und die neue Platte mit dem Unassigned Devices Plugin Partitionieren und mounten - Daten der kleinen Platten kopieren - Array reset und die kleinen Platten nicht mehr ins Array aufnehmen - Array starten und Parität neu aufbauen Gruss, Joerg
  14. Du hattest das Array schonmal gestartet mit einer anderen Anordnung der Platten ohne Paritätsplatte und hast danach erst eine Platte als Parität definiert. Die fehlt jetzt im Array. Unraid erwartet die jetzt weiterhin so im Array. Gehe unter Werkzeuge - Neue Konfiguration und Setze da die Konfiguration des Arrays zurück. Dann Platten eimal endgültig zuordnen und Array starten und Parität aufbauen.
  15. Netwerkprobleme ist eigentlich die wahrscheinlichste Erklärung. Er kann nicht checken ob es eine neuere Version gibt. Wundert mich nur das du es nicht bei allen Dockern hast. Wenn ich Netzwerkprobleme habe steht das bei allen Containern. Such einfach nochmal manuell ob es updates gibt im Docker Tab.
  16. @mgutt Hmmm, Ich weiss nicht ob wir aneinander vorbeireden. Ich rede von 2x1GBit auf Client und 2x 1GBit auf Serverseite mit einer IP und einem LA fähigen Router. Aber Netzwerke sind sicherlich nicht meine Stärke. Ich habe das so verstanden: Usecases: 1.) Ein Clients mit 1 GBit Port schreibt (via LAG fähigem Router) auf einen Server der einen Bond von 2 Netzwerkkarten hat mit einer IP. Der Client kann nur eine Netzwerkbandbreite von 1GBit nutzen 2.) Zwei Clients mit 1 GBit Port schreiben (via LAG fähigem Router) auf einen Server der einen Bond von 2 Netzwerkkarten hat mit einer IP. Beide können jeweils eine Netzwerkbandbreite von 1GBit nutzen 3.) Ein Client mit 2 x 1Gbit Port zu einem Bond mit einer IP zusammengefasst schreibt (via LAG fähigem Router) auf einen Server mit 2 x 1GBit Port die zu einem Bond zusammengefasst sind mit einer IP. SMB Multichannel ist nicht aktiviert. Die Datenrate ist dann nur 1GBit oder 2GBit? Ich glaube a auch 2 MBit. 4.) Ein Client mit 2 x 1Gbit Port zu einem Bond mit einer IP zusammengefasst schreibt (via LAG fähigem Router) auf einen Server mit 2 x 1GBit Port die zu einem Bond zusammengefasst sind mit einer IP. SMB Multichannel ist aktiviert. Die Datenrate sind dann 2GBit. 5.) Ein Client mit 2 Netwerkkarten von jeweils 1GBit aber jeweils eigener IP kann via Router (ohne LAG Feature) auf einen Server mit 2 x x1GBit Ports mit jeweils eigener IP via SMB Multichannel mit Bandbreite von 2GBit schreiben? Also den letzten Usecase meinst Du? 1 und 2 sollten definitiv klar sein, die hab ich so schon getestet. Und sind Usecase 3-4 richtig oder falsch? Gruss, Joerg
  17. Ich spreche erstmal von LACP. Natürlich dann mit einem Protokoll das auch die erhöhten Datenraten unterstützt, und das ist dann SMB Multichannel. Ansonsten hätte er nur Vorteile wenn multiple Clients/Streams auf seinen Server lesen oder schreiben.
  18. Mal langsam damit wir nichts durcheinander würfeln. Kein 2,5GBit USB Adapter. Dein Board hat 2x1GBit Ethernetports Dann kannst Du einen Bond mit den 2 x 1 GBit Ports erzeugen. Nun kommt es auf die Gegenstelle an. (Ich hoffe ich hab das nicht überlesen). Wenn da auch 2x1 GBit Ports als Bond zusammen sind reicht ein GBit Router mit Link Aggregation (das ist das feature das der Router haben muss). Wenn die Gegenstelle 1 x 2,5GBit Port hat dann geht der 1 GBit Router nicht bzw. geht schon aber nicht mit der hohen Bandbreite sondern nur mit 1 GBit maximal. (Wobei es da aber noch andere Vorteile gibt.) Gruss, Joerg
  19. Na ich dachte die Idee wäre es die Netzwerkkonfiguration nicht ständig ändern zu müssen oder unterschiedliche IPs für die beiden Netzwerkgeräte zu haben. Ein Bond hat eine IP und bleibt bestehen wenn man ein Netzwerkkabel entfernt. Meine Hoffnung war es eher zu sagen: - Ich starte den Server mit eingestecktem Netzwerkadapter - Ich konfiguriere einen Bond mit 1 GBit und 2,5 GBit Adapter (oder statt 2,5 gar nur 1 GBit Adapter, weil dann kostet ein Routerder LA kann nur 40 Euro, 200MB sind auch noch schick) Meine Hoffnung/Idee wäre es: - Das der Bond bestehen bleibt wenn Du den 2,5GBit Adapter ziehst auch wenn er nur noch 1 GBit "kann" - Das der Bond wenn der 2,5GBit Adapter gesteckt wird wieder 3,5GBit kann --> das hier ist die interessante Frage ob das funktioniert Ich hatte das alles mal mit 2 Synology DS1817 und DS416p getestet. Da hat das funktioniert die Netzwerkkabel eins nach dem anderen zu ziehen an der DS1817 (Die hat 4x1 GBit Ports). Der Router hatte kein Problem damit, die Datenrate wurde nur niedriger. Aber das war halt nur ein ziehen des Kabels und kein entfernen der HW. Gruss, Joerg
  20. Eher mal zu ersten Frage, nur als Anstoss/Idee. Du schreibst ja selber zusammen schalten. Könnte man nicht via Link Aggregation den 2,5 und den 1 Bit Port als einen Bond definieren? Dafür braucht man natürlich einen Router der Link Aggregation unterstützt. Die interessante Frage ist dann ob Unraid obwohl ein Bond definiert wurde wenn man den Stick zieht und wieder steckt den Bond wieder verwendet. Gruss, Joerg
  21. Wenn ich das so lese... Die SSD/NVME´s dürften so gut wie nix brauchen. Das ist dann fast der Leerlaufverbrauch eines nackten Boards. Und im Bios sind wirklich alle Stromsparmechanismen aktiviert? ASPM, C1E etc? Dann ist das Board jedenfalls nicht für einen Stromsparserver geeignet. Da sollte der nackte Idle Verbrauch eher bei 8-12W liegen. Wäre wie @mgutt schon schrieb noch interessant was man mit powertop --auto-tune rausholen kann. PS: Achja VMs ware an wenn ich das jetzt richtig lese. Dann sind die ganzen Messwerte halt nicht aussagekraäftig. Messen sollte man am besten ohne Platten (wobei SSDs/NVMEs wenn powertop --auto-tune ausgeführt wurde kaum ins Gewicht fallen da die Idle Leistungsaufnahme vernachlässigter ist), ohne Docker/VMs aktiv) Gruss, Joerg
  22. Vergiss nicht die Onboard Netzwerkgeschichte im Bios zu deaktivieren. PS: Man kann versuchen ASPM zu erzwingen über einen Kernel Parameter. Hab ich aber noch nicht gemacht. Sollte der Kollege @mgutt aber was zu sagen können. Der kann eh, falls ich was falsches gesagt haben sollte, meine Aussagen korrigieren 🙂 Gruss, Joerg
  23. Na das wundert mich jetzt schon. Dann einfach mal nur: lspci -vvvnnPPDq Dann von oben nach unten durchgehen bis du den Ethernet Controller findest, weil da muss er sein, und schauen ob es ein LnKCtl gibt und wenn ja was da steht. Ich "vermute" aber mal dadurch das der bei dem grep ASPM nicht auftaucht das wirklich Ethernet dein Problem ist weil kein ASPM aktiv ist da.
  24. Ob der Ethernet Controller das problem ist kannst du mit folgendem Kommando checken: lspci -vvvnnPPDq | grep -B 30 ':[[:space:]]ASPM' In meinem Bild sieht man In der vorletzten Zeile bei LnkCtl das ASPM L1 aktiviert ist. Er verhindert also tiefere Sleep States nicht.
  25. Seit Unraid 6.11.3 ist der Stromkonsum meines ATOM J4105 Servers wieder ca, auf den Wert von 6.10.x zurück. Reduzierung um ca. 1W im Idle. Wollts nur vermelden und fragen ob jemand eine ähnliche Erfahrung gemacht hat mit dem neuen Update. Gruss, Joerg
×
×
  • Create New...