Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Das kommt simpel auf die Performance der HDDs an. Mit 12TB Ultrastar kam ich auf 80MB/s und mit 18TB auf 90MB/s. Ich habe hier bei kleineren HDDs aber schon was von 40MB/s gelesen. Grob kann man denke ich sagen, dass man die maximale Schreibgeschwindigkeit durch 3 teilen kann und kommt so auf die maximale Geschwindigkeit beim Schreiben auf's Array. Denk aber dran, dass die langsamere Platte den Takt vorgibt. Also wenn du eine schnelle Parity hast, bringt das nur wenig, wenn die Datendisk lahm ist. Aber vom Prinzip ist es ja egal. Irgendwann ersetzt du ja wahrscheinlich auch die Datendisk oder erweiterst das Array.
  2. Ja kann eben noch Zoll draufkommen. Meist so 5% Zoll und 19% Steuer.
  3. So ist das. Und die Leute die das nutzen juckt das nicht. Da sind welche mit 200 und mehr GB RAM dabei bzw gerade die Nicht-Deutschen lassen ihre VMs eh durchlaufen, weil die das Thema Stromverbrauch nicht interessiert. Die nutzen das auch gar nicht um Strom zu sparen, sondern damit es keine Wartezeiten mehr beim Abspielen gibt. Ist einfach eine andere Zielgruppe. Mit kombinieren meine ich bezogen auf eine Serie. Das Auslesen von 100 Episoden dauert nur wenige Sekunden, da ja nur ein paar MB der MKV in den RAM geht. Wie oft man das macht spielt dabei sogar keine Rolle, denn er greift nicht mehr auf die Platte zu, wenn es noch im RAM liegt. Im Gegenteil. Durch das wiederholte Zugreifen schiebt Linux das in der Dirty Page nach oben. Es wird also als letztes überschrieben, wenn man neue Sachen in den RAM schaufelt. Es gibt übrigens auch eine Möglichkeit das persistent in den RAM zu laden, aber da bin ich noch dran, weil das irgendwie buggy in unRAID ist.
  4. Sehr interessant. Ja, das liegt daran, dass auf dem Cache immer zuerst gesucht wird. Ich nutze das auch für Tricks. Zb habe ich manche Dateien permanent auf dem Cache, obwohl der Share an sich auf Yes steht. Der Mover kann nämlich Dateien, die auf Cache und Array liegen, nicht bewegen. Das kann man umgehen, in dem man a) die komplette Serie auf den Cache kopiert oder b) es mit dieser Technik kombiniert: https://forums.unraid.net/topic/97982-plex-preloader-avoids-hdd-spinup-latency-when-starting-a-movie-or-episode/ Tatsächlich habe ich mal daran gedacht ein "Hot File Caching" zu realisieren. Aber für den Nutzer macht das nur Sinn, wenn er einen (sehr) großen Cache hat. Das ist der Knackpunkt. Es gibt das Kommando inotifywait um Verzeichnisse auf Zugriffe zu überwachen, aber ich glaube wenn das 24/7 läuft, kostet einen am Ende nur Strom bei der CPU. Allerdings könnte man das evtl optimieren, in dem man sich in den Cronjob von unRAID einklinkt, der überwacht, wenn eine HDD aufwacht. Dann könnte man mit der Überwachung erst anfangen, wenn die HDD läuft. Aktuelle Dateizugriffe kann man dann mit lsof auslesen. Ich mache mir dazu mal Gedanken.
  5. Du hast einen Konflikt bei deinen IP-Adressen. Nutzt du br0 bei den Containern und hast da evtl IPs verwendet, die normalerweise von einem DHCP Server in deinem Netzwerk bedient werden? Trenn mal alles und verbinde PC und unRAID Server direkt ohne Router/Switch (müssen beide natürlich auch feste IPs außerhalb des DHCP besitzen) und korrigiere die IP-Adressen. Siehe auch: https://forums.unraid.net/topic/114553-system-freezes/?do=findComment&comment=1048856
  6. Denk an dirty ratio. Der Wert ist standardmäßig auf 20, also 20% des freien RAMs eingestellt. Also bei 64GB mit sagen wir mal 60GB frei, werden nur 12GB fürs Caching verwendet. Für Filme reicht das nicht und in 2 Stunden können auch noch andere Prozesse den RAM überschreiben. Daher möglichst viel für's Caching vorsehen.
  7. Müsste man mal testen, ob das unterbrechungsfrei geht. Ich würde dazu die Datei unsichtbar kopieren und erst sichtbar machen, wenn sie komplett da ist. Dann ist die Frage ob das Programm automatisch den Datenträger wechselt oder man das Original auf dem Array unsichtbar machen muss?! Manuell könntest du es so testen: - Film starten - "cp -a /mnt/disk2/Filme/filmname.mkv /mnt/cache/Filme/.filmname.mkv && mv /mnt/cache/Filme/.filmname.mkv /mnt/cache/Filme/filmname.mkv" ausführen Und dann schaust du im Dashboard ob er anfängt vom Cache zu lesen. Wenn du genug RAM für den kompletten Film hast (bei Bedarf dirty ratio anheben), kannst du auch das machen: - Film starten - "cat /mnt/disk2/Filme/filmname.mkv >/dev/null" ausführen - Disk2 in den Spindown schicken
  8. Hat dein Internetanschluss eine öffentliche IPv4 oder nur IPv6? Für IPv6 schau mal in den Thread: https://forums.unraid.net/topic/110245-support-nginx-proxy-manager-npm-official/ Den DuckDNS Container kannst du glaube ich nicht nutzen, da er meine ich nur die IPv4 überträgt oder? Check Mal im DuckDNS Dashboard was da zu sehen ist. Steht da eine IPv6? Wenn ja, rufe diese auf mit http://[1234:1234:1234] die eckigen Klammern sind wichtig. Wenn unRAID auf Port 80 läuft, muss diese IPv6 die unRAID WebGUI zeigen. Falls da keine IPv6 steht, brauchst du eine andere Lösung. Ich nutze zb das Skript: https://github.com/mgutt/DDNS-Updater-Bash-Script/blob/main/ddns-updater.sh
  9. Ich habe jetzt mal ein Asrock Rack E3C256D4ID-2T angefragt: https://www.asrockrack.com/general/productdetail.asp?Model=E3C256D4ID-2T Dual 10G Onboard, 128GB RAM, 8x SATA (durch 2x OcuLink), 2x M.2, 1x OcuLink (für eine weitere M.2) und 1x PCIe 4.0 X16. Ein Träumchen. Nur vom niedrigen Verbrauch kann ich mich dann bestimmt verabschieden ^^ Ich habe Asrock auch gleich mal angefragt ob man Bifurcation Karten installieren kann. Dann könnte man irgendwann von SATA auf M.2 umstellen und hätte Platz für 8x M.2 NVMe (2x über M.2, 3x über OcuLink und 3x über den PCIe Slot).
  10. Vielleicht solltest du mal den TR mit Proxmox oder ESXi ausprobieren. unRAID kann zwar auch VM, aber die anderen Betriebssysteme sind einfach darauf spezialisiert. Ansonsten wäre meine einzige Idee diesen EPYC zu nehmen: https://www.cpubenchmark.net/cpu.php?cpu=AMD+EPYC+7443P&id=4391 Der hätte eine hohe Single Core Leistung, viele Kerne und es ist eine Server Plattform, die in Sachen IOMMU sicher nicht so empfindlich ist wie der TR. Wegen Stromverbrauch kann ich dir allerdings nicht viel sagen, außer dass Cloudflare die Effizienz gelobt hat: https://www.golem.de/news/cloudflare-server-der-generation-11-weiter-mit-amd-statt-intel-2109-159309.html
  11. Das schon, aber die Performance bricht direkt zusammen, wenn man auf zwei Platten parallel Dateien hinzufügt, weil er dann von einer wieder parallel liest und schreibt. Daher ist Reconstruct Write auch nur so "naja". Also wenn SSD Only oder eben Pools. Für Performance taugt das Array einfach nicht.
  12. Ok, da habe ich irgendwie Reconstruct Write mit normal vermischt. Hätte ich ja eigentlich nur meinen eigenen Test noch mal lesen müssen ^^ https://forums.unraid.net/topic/114126-ssd-performance-im-array/
  13. Bei C246 sollte das im Gegensatz zu C242 immer gehen. Aber 7W Mehrverbrauch hat das Supermicro locker. Die können einfach keine sparsamen Boards bauen.
  14. Genau deswegen kauft das keiner. Super teuer und dann nur 1x M.2. Ich meine klar, man könnte einen PCIe M.2 Adapter verbauen. Nur dann hat man vermutlich das Problem, dass man kein C8 erreichen kann. Aber vielleicht will es jemand testen? Ist auf jeden Fall ziemlich teuer. Dann wohl eher das Fujitsu mit 1x M.2 und 6x SATA?!
  15. Ja, das ist leider so. Es gab mal in einem Podcast die Erklärung, dass von AMD keinerlei Unterstützung in Sachen Treibern kommt. Ich denke es wird noch 1 bis 2 AMD Generationen dauern bis da was passiert. AMD holt ja gerade erst zu Intel im Enterprise Bereich auf. Brauchst du die ganzen dGPUS? Weil das aktuell flexibelste Setup wäre ein Xeon W-1290P, der dank iGPU die Möglichkeit bietet mehrere vGPU kleineren VMs zuzuordnen. Von der Leistung her keine mega Steigerung, aber kommt auch drauf an ob deine Apps eher eine hohe Single Thread Leitung oder Multi Thread Leistung bevorzugen: https://www.cpubenchmark.net/compare/[Dual-CPU]-Intel-Xeon-E5-2680-vs-Intel-Xeon-W-1290P/1221.2vs3831 Bei Single hätte der 100% mehr Leistung. Der Nachfolger, der W-1390 hat nur 8 Kerne und die vGPU Geschichte geht damit auch nicht mehr. Der Nachteil beim W-1290P wären die Lanes. Es ist kein Server Xeon und entsprechend hat er nur 16 Lanes. Also nichts um damit zig GPUs durchzuschleifen. Aber gerade da liegt auch wieder der Vorteil bei der Effizienz. Verzicht auf dGPUs bedeutet viel Strom sparen. Man könnte jetzt also das GIGABYTE W480 Vision W nehmen. Da hätte man 2x X8 und 1x X4 plus 2x M.2 NVMe. Also auf die GT1030 für Windows müsstet du verzichten, genauso wie auf NVMes direkt an VMs durchzuschleifen. Wenn das nicht akzeptabel ist, müsste man auf einen Server Xeon oder AMD EPYC gehen. Bei hoher Single Core Leistung aber beide sehr teuer. Vielleicht wäre da der Xeon W-3323 eine Option? https://www.cpubenchmark.net/cpu.php?cpu=Intel+Xeon+W-3323+%40+3.50GHz&id=4570 Oder der Xeon W-3335. Wären dann aber schon 1000 bis 1500 € für die CPU und ohne iGPU, brauchst du wieder mehr dGPUs. Ich glaube nicht, dass du dann wirklich relevant Strom sparst, als dass sich diese Investition lohnt. Ähnliches dürfte für den EPYC 7313 gelten, wobei laut Cloudflare die AMD CPUs viel effizienter bei voller Last sein sollen als Intel und die Leistung ist auch gut: https://www.cpubenchmark.net/cpu.php?cpu=AMD+EPYC+7313&id=4443 Eventuell macht es sogar Sinn zwei Server mit Workstation Xeons zu bauen. So könntest du einen Server nur bei Bedarf hochfahren, musst dann aber mit ~2 Minuten Bootzeit leben.
  16. Ach so. Disks haben das auch? 😅 Ok, dann hab ich nichts gesagt ^^
  17. Diesen Wert kann man auch einstellen, wenn man auf einen Pool klickt. Und es macht keinen Sinn beides einstellbar zu machen, wenn der Share Wert auch beim Pool gilt, was ja offensichtlich der Fall ist. Das macht ja deswegen schon keinen Sinn, weil SSDs selten so groß sind wie HDDs.
  18. No If you change the transcoding dir in the Plex settings to /tmp, then yes.
  19. Mit SMB Multichannel und einem Client mit 2.5G LAN Buchse oder WIFI6 wären übrigens 200 MB/s möglich. Auch das spielt bei Enterprise SSDs übrigens eher eine untergeordnete Rolle. Die nutzen den größeren Over-Provisioning Bereich als Cache für die Schreibprozesse. Lesen, Ändern, Schreiben. Wobei ändern natürlich im RAM erfolgt. Also nur auf den Datenträger bezogen wären es zwei Vorgänge. Bei Reconstruct Write wird gar nicht von der Parity gelesen, sondern mit allen Datendisks neu berechnet. Daher müssen bei Reconstruct Write alle Datendisks bei jedem Schreibprozess laufen. Damit geht dann natürlich die Energieeffizienz von unRAID flöten. Aus dem Grund empfehlen wir auch Hot und Cold Storage klar zu trennen und seine SSDs für den Cache Pool so groß zu wählen, dass im Array wirklich nur "unwichtige" Daten liegen.
  20. Zeig Mal die Container Config
  21. Das klingt nach einem Bug. Denn für die Pools gibt es eine separate Einstellung. Bitte melden!
  22. Eine einfache SATA Karte zieht 2 bis 4W. USB hat pro Anschluss schon 1 bis 2W.
  23. mgutt

    Cache

    Kann man nicht ZFS auf einem XFS Cache mounten und so die Cache Funktionalität behalten?
×
×
  • Create New...