Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Wegen einem Absturz meines Testservers wurde nun ein Parity Check angestoßen. Sind leider "nur" 320 MB/s lesend: Das wundert mich, weil die QVO sollte rein lesend eigentlich 550 MB/s schaffen und der Chipsatz, wo die ganzen SSDs dran angeschlossen sind, ist ja mit DMI 3.0, also mit 3.93 GB/s angebunden. Daran sollte es also auch nicht scheitern. Ich denke ich werde da die Tage noch mal einzeln testen. Vielleicht bremst hier ja die Parity, weil es eine RAW Partition ist?!
  2. Das mit dem Stromverbrauch stimmt übrigens nicht. Ich habe gerade ein Update auf 6.10.1 gemacht und stellte fest, dass nach dem Reboot der Verbrauch bei 14W lag, aber davor durchgehend 20W gezogen wurden: Dann habe ich "powertop" ausgeführt, um mir den Status der C-States anzuschauen. powertop blieb beim Öffnen stehen, Reload des Terminals nicht möglich und ein Kern auf Volllast: Danach musste ich den Server vom Strom trennen, da er nicht heruntergefahren werden konnte. Ich habe jetzt mal powertop deinstalliert, da es nicht mehr kompatibel zu sein scheint
  3. Ja, wenn du das Intel GPU Top und das GPU Statistics Plugin installierst, hast du auf dem Unraid Dashboard einen neuen Bereich für die iGPU und kannst deren Auslastung sehen. Diese ist im normalen Betrieb bei 0%, da Unraid diese nur nutzt, wenn du einen Monitor angeschlossen hast. Wenn aber ein Docker die iGPU verwendet, wird da die Auslastung ansteigen.
  4. Ja bist du ^^ Es hat zwei. Bei NVMe, also PCIe, hat man erst mal das Problem, dass Hot Plug nicht existiert. Verliert also eine NVMe SSD ihre Verbindung, ist sie bis zum nächsten Neustart komplett weg. Dann hat man bei NVMe ein ähnliches Problem wie bei den GPUs, die man an VMs durchschleift. Und zwar, dass die GPU manchmal nicht richtig "zurückgesetzt" wird, wenn die VM heruntergefahren wird. Das Thema haben wir ja häufiger unter dem Schlagwort "vendor reset". Und ich hatte auch schon deine Situation auf meinem Gigabyte W480M. Erst hatte ich AER Fehler in den Logs, dann flog die NVMe aus dem BTRFS RAID und nach einem Neustart war sie komplett weg. Erst ein Herunterfahren brachte sie wieder zum Vorschein. Dieses Problem ist übrigens nicht auf die Linux-Welt begrenzt: https://www.google.com/search?q=nvme+not+detected+reboot Welches NVMe Modell hast du? Die wenigsten Probleme habe ich nach wie vor mit Samsung. Eventuell macht es aber auch Sinn das BIOS zu aktualisieren. Es gibt ja mittlerweile Version 1.2 und vielleicht wurde das ja sogar behoben.
  5. mgutt

    Server gecrasht

    Starte mal eine Reparatur auf allen Disks (auf die Disk klicken und xfs_repair ausführen) und einen scrub im Pool (falls BTRFS). Wurden irgendwo Fehler korrigiert?
  6. Wenn Fehler durch den ECC des Sektors behoben werden, dann hat sich der Datenbereich auf dem Sektor von alleine verändert. Entweder sind diese Sektoren "abgenutzt" oder sie haben sich "entmagnetisiert". Wenn die Daten nicht gerade mehrere Jahre auf den Sektoren lagen, würde ich das als klares Warnsignal wahrnehmen. Sollten sie dagegen mehrere Jahre auf der Platte gewesen sein, würde ich die Daten mal komplett auf eine andere Platte verschieben und zurückkopieren. Einfach damit die Sektoren noch mal "aufgefrischt" werden. Damit kann man auch gut testen, ob die Disk weitere Fehler zeigt, denn der lange SMART Test liest ja nur und schreibt nicht.
  7. This script preloads as much videos as possible. So if they all fit into your RAM, they will all play without buffering.
  8. Danke für die Info, aber ich kaufe weiter die Rückläufer. Die haben meist irrelevante CRC Fehler und kosten dann nur 400 bis 480 €.
  9. Mal was Positives. Nach dem Update von RC auf Stable ist der Stromverbauch von 20 auf 14W gefallen.
  10. Edit the container, scroll down and click on add variable.
  11. Dazu sei angemerkt, dass der Schreibcache x % Prozent vom freien RAM nutzt. Wenn du also 32GB für Docker und VM verbrauchst, hast du nur noch 32GB frei und davon kann man dann x % als Schreibcache nutzen, wobei der Standardwert 20% sind. Man könnte zwar 80% oder so einstellen, aber das schmälert dann entsprechend den Lesecache, was andere Teile des Servers langsamer machen kann.
  12. unRAID does not use compose. Simply create a new variable by editing the container if it does not already exist.
  13. Sind gut, haben in der Regel aber keine Garantie.
  14. Gar nichts. Weder von Crucial, noch von der P2. Meine Empfehlung ist Samsung. Macht am wenigsten Probleme unter Linux. Einfach auf das nächste Angebot warten: https://www.mydealz.de/deals/samsung-ssd-970-evo-plus-1tb-m2-pcie-30-x4-r3500-w3000-1gb-dram-cache-1989597 Ja Du kannst auch einen PCIe Adapter für eine zweite NVMe installieren. Aber ich weiß nicht ob wie weit das den Verbrauch negativ beeinflusst.
  15. In meinen Augen ist das Verschwendung von SATA Ports. Und "reicht" ist Ansichtssache. Wenn man mehrere Docker und VMs parallel laufen hat, geht nichts über NVMe SSDs. Schließlich sind die 10x schneller was paralelle Zugriffe anbelangt. Und preislich gibt es da auch keine mega Unterschiede.
  16. After several tests I found out that it's needed to preload a small part of the end of a video file or it won't start playing directly from RAM. The target of this script is to avoid waiting for an HDD spinup when you start a movie. If you raise the preload size, this doesn't change anything for the user. It's still playing directly. The only difference is that it will access the disk some seconds / minutes later, but this doesn't add any benefit for the user.
  17. Auch das ist nicht garantiert, weil wir immer noch von Consumer Hardware reden, die nicht für die Virtualisierung konstruiert ist. AMD sogar noch weniger als Intel. Aber ja, vom Prinzip sind 3 GPUs die einfachste Lösung, wobei manche es selbst nur dann schaffen, wenn die Unraid GPU im 1. Slot steckt, also 8 Lanes sind dann gleich mal weg für gar nichts. Das muss aber keine zwingende Voraussetzung sein. Deswegen sagte ich, dass du nach Single GPU passthrough suchen sollst. Man muss da einfach rumprobieren. Es gibt ja Leute, die es mit einer GPU schaffen. Also manche Boards scheinen das ja zu ermöglichen. Wenn du allerdings den wenigsten Stress haben willst, sind 3 GPUs natürlich am einfachsten. Und da spielt eben eine iGPU ihren Vorteil aus, da sie dir keine Slots klaut. Aber ich warne auch hier. Selbst das muss nicht auf jedem Board garantiert funktionieren. In seltenen Fällen lässt sich ein BIOS zB nicht davon überzeugen eine iGPU als Haupt-GPU zu akzeptieren, wenn im 1. Slot eine GPU steckt. Daher gilt die Devise: Probieren geht über Studieren.
  18. Nein, damit ist die selbe Auflösung gemeint. Es gibt auch dabei Unterschiede, je nachdem ob mit CPU oder GPU transcodiert wird. Viel Auswahl gibt es aktuell nicht. Eventuell eines der Fujitsu Boards, da die sparsam sind: https://geizhals.de/?cat=mbxeon&xf=1244_6~317_C236~317_C246~317_C256~317_W480~317_W580~4400_%B5ATX~4400_Deep+Mini-ITX~4400_Mini-ITX&sort=r&hloc=at&hloc=de&v=e
  19. Und welches Format hat diese img Datei? Es gibt ja nicht DAS img Format. Hier hat zb jemand eine Anleitung gepostet, wie er eine physische Maschine erst als VHD exportiert und dann mit qemu-img in Raw konvertiert hat: https://www.reddit.com/r/unRAID/comments/nnqc0e/comment/gzwy02b/ Ich würde mir aber den Stress sparen und einfach neu installieren. Stichworte: vmware vsphere vdisk
  20. Dann recherchiere doch mal dazu. Je nach CPU ist QSV mal etwas langsamer, mal etwas schneller und mal gleich schnell. Hier ein Beispiel: https://www.thefpsreview.com/2021/04/07/intel-uhd-graphics-750-i9-11900k-xe-game-performance/6/ Was da aber nicht steht ist der Stromverbauch. Während QSV nur ein paar Watt verbraucht, bist du bei CPU only je nach Modell gleich mal bei 100W und mehr. CPU only bietet dafür aber auch die beste Qualität und kleinste Dateigröße: https://handbrake.fr/docs/en/latest/technical/performance.html Die Anzahl der Kerne ist beim Video Transcoding nicht so wichtig wie die Gesamtleistung: https://www.cpubenchmark.net/high_end_cpus.html Allerdings wird es schwierig, wenn man gleichzeitig im Leerlauf eine geringe Leistungsaufnahme haben möchte. Jedenfalls wäre die erste Frage ob man mit etwas größeren Dateien und nicht der besten Qualität leben kann, weil es lieber ein effizientes Setup werden soll. Dann würde eine CPU mit iGPU Sinn machen. Will man gar beides und viel Leistung... Dann gäbe es zb den Xeon W-1390P oder W-1290P oder das i7/i9 Equivalent dazu. Wobei erfahrungsgemäß die älteren Intel Generationen sparsamer sind, da seit der 10ten Generation ein Wettrüsten mit AMD zu immer ineffizienteren CPUs geführt hat. Die nächste Frage wäre dann aber gleich die nach dem Budget, denn alleine so eine CPU liegt bei deutlich über 500 €.
  21. The error contains everything you need to know. Your domain is not allowed to use paperless. Add it to the trusted domain config of paperless. https://paperless-ng.readthedocs.io/en/latest/configuration.html
  22. Ich verstehe den Vergleich nicht. Ein sparsames Setup bekommt man nur mit sparsamen Komponenten. Ein Server Xeon plus Grafikkarte kann ja gar nicht sparsam sein. Wozu überhaupt die Grafikkarte? Nextcloud? Nextcloud? Aber für Freunde den Zugriff ermöglichen?!
  23. Die Erfahrung zeigt: unRAID stabile ist erst ab dem 3ten oder 4ten stable Release wirklich stable 😅
  24. Google Unraid Single GPU passthrough. Das funktioniert nur mit extra Linux Kommandos und auch nicht zwangsläufig bei jedem Board.
  25. Gar nicht. Das ist ja "sein" Ordner. Ja und warum wurde das Verzeichnis nicht korrigiert oder hat das der unRAID Maintainer des Containers vergessen? Weil wenn ich jetzt den Container installieren wollte, zeigt er nur /influxdb als Mount an. Dann ist es ja logisch, dass die Migration in die Hose geht. Er importiert alles von /influxdb nach /influxdb2 und da letzteres nur innerhalb des Containers existiert, ist es nach dem übernächsten Container Update alles weg. EDIT: ja darüber sollte man @atribe informieren. Beide Pfade müssen während eines Upgrades vorhanden sein: https://registry.hub.docker.com/_/influxdb/ Und nach einem Upgrade oder einer Neuinstallation muss /var/lib/influxdb2 vorhanden sein. Ansonsten gehen die Daten nach jedem Update verloren. Dann enthielt appdata bei dir noch nie Daten. Denn die 2er Version benutzt den Pfad /influxdb nicht.
×
×
  • Create New...