Jump to content

jj1987

Members
  • Posts

    1,454
  • Joined

  • Last visited

  • Days Won

    2

Everything posted by jj1987

  1. Das Docker.img ist die reine Docker System Umgebung Das nur als Ergänzung zu @hawihoneys Antwort
  2. Es wurde aber auch wirklich von "extern" getestet, also z.B. aus dem Handynetz? Weil bei aufrufen aus dem eigenen Netzwerk sollte der Router (und auch die FW) erkennen das die Zieladresse im selben Netzwerk liegt und somit sind dann sowieso alle Scheunentore offen...
  3. Samsung ist in der Hinsicht (positiv) unauffällig. Mit einer 970 EVO Plus macht man auch definitiv nichts verkehrt. Falls der Preisunterschied gering ist, kann man auch direkt auf eine 980 Pro gehen
  4. UNRAID braucht halt zwingend ein Array. Da du nur zfs Pools nutzt, gehe ich davon aus dass du kein Array eingerichtet hast. Du musst _irgendwas_ ins Array packen, das kann sogar einfach ein weiter USB Stick sein. das ist UNRAID glücklich und du kannst den Docker service starten und alles ist schön
  5. OK, da ist natürlich was dran. Wobei ich meine dass es uU noch davon abhängt wie der pcie Slot angebunden ist, also via Chipsatz oder direkt von der CPU
  6. Bei mir stehen alle USB controller auf ASPM enabled. Auch der an dem der UNRAID Stick hängt. Kann damit also erstmal nichts zu tun haben
  7. Das Board scheint aber ja onboard einen extra Data Controller zu haben. Da solltest du das Handbuch nochmal konsultieren Da scheint der usb-controller der Schuldige zu sein
  8. Punkt 4 sagt mir gerade ehrlich gesagt nichts. Punkt 7 ist ein extra SATA Controller (die sind unter Stromsparaspekten immer... suboptimal), brauchst du alle Ports? Sonst den Mal im uefi deaktivieren
  9. Dein Server geht nur bis c3. Irgendwas hält ihn also davon ab "tiefer zu schlafen". Versuche im Terminal Mal folgenden Befehl: lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )' Hier ist dann interessant wo "aspm disabled" auftaucht
  10. Doch denn die Parität muss ja neu berechnet werden und damit muss parallel auch von der Platte gelesen werden. Genau deshalb ist das Array ja so langsam
  11. Du bekommst Benachrichtigungen immer "sofort". Du müsstest also in dem konkreten Fall die Uhrzeit für die Prüfung des Array Status in den Einstellungen abändern auf eine dir genehme Zeit.
  12. Offenbar eine NVS310: allerdings würde zuvor geschrieben es wäre eine p400: Eventuell auf ein China Fake hereingefallen?
  13. Da die verfügbaren Lanes aber identisch sind kann es sehr gut sien, dass nicht alle 5 Slots parallel genutzt werden können. Hier muss man sehr genau gucken was womöglich deaktiviert wird wenn Slot X belegt ist. Die bisherige Erfahrung sagt da gegenteiliges. JE größer das Board umso höher der (Idle-)Verbrauch. Denn idR haben größere Boards auch mehr onboard-Komponenten, die sich dann auch nicht unbedingt deaktivieren lassen. Und selbst wenn die Bestückung identisch ist haben ATX-Board idR dann "größere" Spannungswandler/mehr Phasen wodurch die Energieaufnahme ebenfalls steigt.
  14. Ja, irgendwo in den Einstellungen findet man die Option
  15. Das sieht bei dir ja schon ziemlich gleichmäßig/rhythmisch aus. Alle 20(?) Datenpunkte ein Peak. Läuft da vielleicht im jellyfin irgendein cronjob in dem Rhythmus?
  16. D.h. du bist da auch einmal mit "Cleanup Appdata" rübergegangen? Nur uninstall übers Webgui lässt einige "Leichen" zurück. Falls das geschehen ist dann zur Sicherheit im Firefox einmal den Cache leeren
  17. ?? Stark verkürzt und dadurch nicht so ganz zutreffend Was stimmt, ist das nicht jeder Prozessor und jedes Mainboard (und manchmal dann noch die Kombination aus beidem) den Slot in x4x4x4x4 aufteilen kann. idR geht dann nur x8x4x4 was dann in der Konsequenz tatsächlich dazu führt das nur 3 Slots auf der hyper m2 genutzt werden können. Man kann aber sogar Pech haben und es geht nur x8x8. Dann kann man sogar nur zwei m2 nutzen Und genau deshalb dürfte das für seine Anforderung aber die einzige Lösung sein
  18. Würde der 5700G eh nicht unterstützen. Dafür müsstest du die "PRO" APUs nehmen
  19. Die hatte ich tatsächlich auch gemeint. Aktuell kostet die 1TB Evo Plus 8EUR mehr als eine 980Pro (ohne Kühlkörper). Bei der 2TB Variante ist die 970 Evo Plus preislich noch im Vorteil
  20. OK, dann musst du Mal den aspm Status deiner devices prüfen. Das geht mit: lspci -vvvnnPPDq | grep -B 30 ':[[:space:]]ASPM' Da sollte dann bei den Geräten idealerweise "aspm enabled" stehen
  21. Was heißt das genau? Per webui spindown oder tatsächlich das Array gestoppt? Letzteres wäre nämlich kontroproduktiv. Dann gehen die HDDs nicht in den spindown
  22. Ganz links siehst du das package. Da hast du knapp 82% c3 und knapp 5% c2. Das ist das wirklich entscheidende. Je niedriger das package läuft (bzw in dem Fall je höher der c-state) umso niedriger der Verbrauch. Rechts siehst du die einzelnen Kerne. Das ist zwar schon Mal gut dass die entsprechend tief runter gehen aber macht leider beim Verbrauch nicht ganz so viel aus.
  23. Naja erstmal solltest du herausfinden warum dein Server nur maximal package state c3 erreicht. Das ist nämlich der Grund warum du idle 20w brauchst Irgendeine device scheint da nicht sauber in den idle Zustand zu gehen
  24. Sorry aber das ist jetzt aber sehr schwarz/weiß gedacht Bei "Griff ins Klo" würden mir spontan erstmal dutzende andere nvme SSDs vor der EVO einfallen Und der Witz ist, dein Ratschlag lieber eine kleinere SSD zu nehmen ist konträr zum Punkt "sustainable write Speed". Denn je größer die SSD umso größer ist auch deren Cache, sprich umso länger kann schnell geschrieben werden (temp Drosselung Mal aussenvor). Allerdings liegen aktuell dank Black Friday/ Cyber Monday die 970 EVO und 980 pro preislich recht nah beieinander, sodass man natürlich schon eher überlegen kann, ob man nicht doch gleich eine Klasse besser kauft. Aber um das nochmal deutlich zu sagen: falsch macht man mit der 970 EVO nichts!
×
×
  • Create New...