Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Gute Frage. Eventuell fehlt in dem Docker das Modul "Sendmail"?! Muss ich mal recherchieren. Hier warum ich immer sage, dass man nie sicher sein kann, dass es nicht doch eine Lücke gibt: https://www.heise.de/news/Gehackt-Windows-Ubuntu-Exchange-Teams-Zoom-Chrome-Safari-und-Edge-6010171.html
  2. Cleanup appdata "übersieht" manchmal Verzeichnisse. Daher schau mal ob da wirklich nichts mehr im appdata Ordner ist. Außerdem kannst du über Apps > Previous Apps die App "wirklich" von deinem Server löschen. Dort werden deine am Template gemachten Änderungen nämlich noch zwischengespeichert.
  3. SWAG ist ein Proxy und du kannst bei einem Proxy jede beliebige (Sub)Domain an jede beliebige IP "weiterleiten". Dabei wird aber im Browser durchgehend die (Sub)Domain angezeigt. Du musst also in SWAG eine weitere Config für eine andere Subdomain anlegen. Allerdings ist mir gerade nicht klar was du mit Weiterleitung an Let's Encrypt meinst. Let's Encrypt ist ein SSL Zertifikatsanbieter und keine Internetseite. Also was genau wird aktuell über deine öffentliche IP / dein aktuell verwendete Domain anzeigt? Außerdem rate ich dir als Anfänger statt SWAG den NGINX Proxy Manager zu verwenden. Der hat eine WebGUI:
  4. Bei meinen Tests hatte ich nur laden im abgeschalteten Zustand deaktiviert. Das hat dann im Standby was gebracht. Aber nicht im Betrieb. Bei AMD musst du auf jeden Fall BIOS ran. Powertop alleine reicht nicht und ich würde wie gesagt ohne HDDs mit Ubuntu messen, weil da bereits alle Optimierungen von powertop enthalten sind und es einfach schneller geht, wenn man gerade was im BIOS zum Testen umstellt. Über 20W halte ich jedenfalls für einen schlechten Wert. WoL hat damit nichts zu tun. WoL beeinflusst ja nur den Standby.
  5. Hattest du schon alles durchoptimiert? Damit meine ich vor allem das BIOS. L1 für die PCIe Slots (ASPM) oder ALPM für SATA usw? Auch die neueste BIOS Version drauf? Es gab nämlich von manchen Hersteller Updates, die den Verbrauch gesenkt haben: https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/page-12#post-25442684 Hier was ich alles einstellen musste um ein Asus sparsamer zu machen: https://www.hardwareluxx.de/community/threads/die-sparsamsten-systeme-30w-idle.1007101/page-64#post-27807563 Hast du schon mal Ubuntu gebootet (HDDs abgeklemmt)?
  6. Is this a "new" feature? Maybe the user had installed a container in the past with a /mnt/cache path and by that the template was already part of his "previous apps" (which bypasses the auto adjustment of CA). The user said he never had a cache pool and this problem occurred not until upgrading to Unraid 6.9. Finally I suggested the user to edit the /shares/sharename.cfg and disable the cache through the "shareUseCache" variable.
  7. mgutt

    Plex

    Welchen Plex Container verwendest du und welches Netzwerk hast du gewählt. Poste vielleicht mal einen Screenshot.
  8. Empfehlen kann ich dir das Gigabyte C246M-WU2 oder das Gigabyte W480M Vision. Hier die CPUs für C246: https://en.wikipedia.org/wiki/List_of_Intel_Coffee_Lake-based_Xeon_microprocessors Und hier für W480: https://en.wikipedia.org/wiki/List_of_Intel_Comet_Lake-based_Xeon_microprocessors Oder von AMD einen 4000er Ryzen mit einem B550M Board von Asus, ASRock oder Gigabyte. Allerdings gibt es wohl nur das ASRock Pro4 was zu deinem Bedarf passt: https://geizhals.de/?cat=mbam4&xf=11924_2~1244_6~317_B550~4400_%B5ATX&sort=t&hloc=at&hloc=de&v=e Wie da der Stromverbrauch ist, kann ich dir leider nicht sagen. Der i7-8700k würde auf das C246M-WU4 passen: https://download.gigabyte.com/FileList/Document/server_cpu_support_c246m-wu4_200303.pdf Nur dann ist eben kein ECC RAM möglich. Wobei die Frage ist, ob man das System erstmal mit der CPU aufbaut und auf ein gebrauchten Xeon hofft?!
  9. Bist du sicher, dass wirklich nichts die Verbindung unterbrochen hat? SMB ist mega empfindlich, wenn es um gemountete Server geht, die kurz offline gehen. Vielleicht reicht dafür schon, dass man Einstellungen bei den Shares ändert, weil das ja den SMB Service neu startet. Aus dem Grund habe ich dieses Script im Einsatz, was ich aber nicht mit Unraid 6.9 getestet habe: https://forums.unraid.net/topic/99096-ud-addon-smb-unremounter-unmount-offline-shares-and-remount-them/ Der Größenunterschied könnte durch einen vollgelaufenen Cache entstanden sein.
  10. Du musst mit Schrägstrich anfangen. Also /mnt/cache bzw wenn du im /mnt Verzeichnis bist kannst du auch nur "rm -r cache" eingeben.
  11. Hast du Krusader von ich777 genommen? Eigentlich nutzen soweit alle Krusader
  12. Die Capture Card wird ja eine eigene GPU besitzen. Dh die braucht selbst keine um die Stream-Datei zu erstellen. Allerdings ist die Frage ob beim Upload zum jeweiligen Anbieter der Stream noch mal transcodiert werden muss. Weißt du das? Also nur als Beispiel: Sagen wir mal die Capture Card erstellt einen Quicktime Stream, aber der Anbieter erlaubt nur H264, was die Capture Card nicht unterstützt. Dann müsste eine weitere GPU zum Einsatz kommen oder die CPU müsste diesen Job erledigen, was natürlich sehr ineffizient ist und eine hohe Last verursacht. Das halte ich nicht für möglich. Denn da wären wir schon bei einem Problem was VMs so mit sich bringen: https://forums.unraid.net/topic/103212-stromverbrauch-von-gpus-wenn-vm-aus-ist/ Dh sobald man die VM herunterfährt, geht der Verbrauch der GPU und vermutlich auch der Capture Card nach oben. Denn die schalten nur in den Leerlauf, wenn der Treiber das ihnen mitteilt und der ist ja nicht mehr aktiv, wenn die VM aus ist. Es würde also sparsamer sein die VM im Leerlauf zu lassen. Ob das auch im Standby der VM so ist, weiß ich leider nicht. Hat spaceinvader in seinem Video meine ich auch leider nicht getestet. Allerdings haben wir ja trotzdem GPU + Capture Card. Die beiden zusammen werden ja sicher schon 20W ziehen: https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/31.html Vor allem wenn du zwei Ausgänge verwendest. Also wenn ein Ausgang zur Capture Card geht und der andere zu einem Monitor. Gerade bei Multi-Monitor haben die Grafikkarten aller Hersteller massiv bei der Effizienz nachgelassen: Davon ist in Linux Umgebungen abzuraten. Als ich würde jetzt keinen Rocket Lake (Cypress Cove) oder so nehmen. Bei Ubuntu müsstest du dafür zB die neueste Beta Version nehmen, da es da noch keine stabile Version für gibt. Unraid wird vermutlich laufen, da die neuste Version einen aktuellen Kernel verwendet, aber wenn irgendwas nicht geht, stehst du da mit der Hardware da, die du nicht gebrauchen kannst. Nun ja, sagen wir die VM startet nicht. Wie willst du auf die Unraid WebGUI gehen um das zu prüfen. Mit dem Smartphone? Also wirst du Unraid im GUI Modus verwenden. Den Monitor bekommst du dann aber nur noch von Hand aus, da Unraid ja durchgehend läuft. Auch die Frage welche Tastatur / Maus du da holst bzw mehrere?! Und die Powertaste am Rechner ist auch mit Unraid verbunden. Also da gibt es schon ein paar Fallstricke. Es gibt für alles natürlich Lösungen, aber das meine ich eben mit "zu stressig", denn einen normalen Client mache ich an und aus wie ich es gewohnt bin. Ich habe kein Gaming System, sondern möchte einen effizienten Storage. Daher habe ich einen Xeon E-2146G und ein Mini ITX Board. Für dich wäre zB ein Xeon W-1290P eine Option. Ich warne dich aber gleich vor. Teuer ^^ Alternativ vielleicht auch ein W-1270P. Wobei die W-1200 Serie nicht nennenswert stärker ist als die E-2100G oder E-2200G Serie. Also auch was älteres gebrauchtes wäre absolut ok und stromsparend. Wobei auch ein AMD System eine Option wäre. zB ein 5800X, aber von Strom sparen kannst du dich dann ganz sicher verabschieden. Der zieht mit einem X570 Chipsatz alleine schon 25W. Auch gäbe es dann keine GPU für Unraid (nicht Pflicht, aber dann geht auch kein GUI Modus mehr). Daher vielleicht eher einen 4750G mit einem mATX B550 Board. Je nach Mainboard wären hier unter 10W möglich. Hier kurzer Vergleich der CPU Leistung: https://www.cpubenchmark.net/compare/AMD-Ryzen-7-PRO-4750G-vs-Intel-Xeon-W-1270P/3789vs3839 Nachteil: Keiner der beiden unterstützt PCIe 4.0, wobei du das jetzt denke ich aber auch nicht auf der Liste hattest.
  13. This user had the problem that one of his containers (probably) created the path /mnt/cache although he had no cache pool and by that it was not possible to disable the caching: And as default cache setting of the appdata share is "Prefer" all Containers installed their files into this path, which flooded his RAM: root@Tower:~# du -sh /mnt/cache 2.3G /mnt/cache ls -la /mnt/cache/appdata total 0 drwxrwxrwx 8 nobody users 160 Apr 8 20:52 ./ drwxr-xr-x 4 root root 80 Apr 9 04:40 ../ drw-rw-rw- 7 root root 220 Apr 8 19:43 MQTT/ drwxrwxr-x 4 nobody users 120 Apr 8 20:07 binhex-krusader/ drwxr-xr-x 4 nobody users 100 Apr 8 20:52 mariadb/ drwxr-xr-x 8 nobody users 180 Apr 8 21:18 nextcloud/ drwxrwxrwx 7 root root 140 Apr 8 18:41 onlyofficeds/ drwxr-xr-x 4 root root 80 Apr 8 18:38 pihole/ Proposal: It should be possible to disable the caching even if no cache pool is present. Or nothing should be able to create the /mnt/cache path as long no cache pool is present.
  14. Das ist wirklich komisch. Vom Prinzip simpel. Du beendest den Docker Dienst in den Einstellungen, wodurch alle Docker gestoppt werden. Dann löschst du einfach den Ordner: rm -r /mnt/user/cache Willst du dagegen die Daten der Container erhalten, kannst du den Inhalt auch auf disk1 verschieben: rsync -av --stats --hard-links --remove-source-files /mnt/user/cache/ /mnt/disk1 rmdir /mnt/user/cache Um das Problem in Zukunft zu vermeiden kannst du außerdem über die Apps den Config Editor installieren und dann bearbeitest du die Datei /boot/config/shares/appdata.cfg und suchst nach dieser Zeile: shareUseCache="prefer" Das "prefer" ersetzt du dann gegen "no" und startest den Server neu. Bei Bedarf machst du das mit allen Shares Config-Dateien so. Danach solltest du in den Share Einstellungen "no" sehen und nicht mehr "prefer". EDIT: Ich habe dazu einen Bug Report eröffnet.
  15. Hast du evtl eine Firewall/PiHole etc im Einsatz, die den Zugriff unterbinden könnte? Ich weiß leider nicht wo der appfeed gehostet wird, aber ich tippe mal auf Github. Teste mal "curl https://github.com"
  16. Which URL / domain is called to download the appfeed?
  17. @dimon Hattest du früher mal einen Cache?
  18. Ich verstehe nicht ganz wo du hin willst. Warum suchst du nach Boards mit Serverchipsätzen, wenn du wenig Strom verbrauchen möchtest und nur eine GPU verbaut werden soll? Ein Serverchipsatz hat ja gerade den Vorteil, dass man sehr viele Lanes für sehr viele Karten hat. Dafür verbraucht aber alleine der Chipsatz auch gut Strom. Dann ist Gaming und Serverchipsatz ein Widerspruch. Es gibt nämlich keine Server-CPU mit 5 GHz und die brauchst du. Es gibt auch keine Server-CPU mit iGPU. Gerade die Multi Dual CPU Systeme sind viel zu schwach fürs Gaming. Viele schwache Kerne bringen dir auch nichts bei Unraid. Im Gegenteil. Was du brauchst, aber auch nur wenn du später mehr GPUs verbauen willst, ist ein Workstation Chipsatz. Also C422, X299 oder Threadripper. DDR3 fällt aus dem selben Grund raus. Für Gaming taugt DDR3 nichts, weil die dafür passenden CPUs viel zu alt, ineffizient und schwach sind. DDR4 ist immerhin 7 Jahre alt. Allgemein zum Thema Gaming Server: Kann man machen, aber ich würde mir nie ein All in One System bauen, was meinen Client ersetzt. Es gibt immer mal Probleme mit so einem Setup und das wäre mir zu stressig. Was ist mit Streaming VM gemeint? Welche Software?
  19. Passiert das auch, wenn er mal einen Cache hatte und das Template bei ihm noch lokal vorhanden ist? Irgendwie muss das ja passiert sein. Er wird ja denke ich kein "mkdir" gemacht haben?!
  20. @dimon Ich vermute es ist folgendes passiert: Irgendein Container hatte /mnt/cache/appdata im Template stehen. Dadurch wurde der Ordner erstellt und nun schreiben alle Container ihre Daten dort rein. Außerdem scheint Unraid einen Bug zu haben. Unraid lässt es zu, dass die Container ihre Dateien dort ablegen, aber erlaubt dir nicht den Cache zu deaktivieren, was dieses Problem verhindern würde. Brauchst du die Dateien oder ist neu installieren in Ordnung?
  21. @ich777 warum kann er nicht den Cache deaktivieren?
  22. Du sagtest doch, dass du keinen Cache hast? Ich würde sagen, dass einer deiner Docker Container hier reinschreibt. Und da keine SSD existiert, landen diese Dateien im RAM. Check mal das Verzeichnis: ls -la /mnt/cache/appdata
  23. Lass dir mal ausgeben wie groß die Hauptverzeichnisse sind: du -sh --exclude=/{proc,sys,dev,mnt,var/lib/docker} /* Sollte zB /tmp groß sein, dann lass dir mal davon die Größen ausgeben: du -sh /tmp/* Oder so kann man sich die 100 aktuellsten Dateien aus dem /tmp Verzeichnis anzeigen lassen: find /tmp -type f -print0 | xargs -0 stat --format '%Y :%y %n' | sort -nr | cut -d: -f2- | head -n100 Vielleicht kommen wir so hinter das Problem. Check auch bitte mal ob hier zufällig das Verzeichnis "cache/" existiert: ls -la /mnt Falls ja, auch davon die Größe ermitteln: du -sh /mnt/cache
  24. Tja, dann bleibt nur andere Karte oder aufschneiden/sägen.
×
×
  • Create New...