Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Check whats inside your /tmp dir. The size is 20GB! It should be nearly nothing (or at most 8GB, but regarding your df command the PlexScratch dir is empty, so it should be nothing inside this dir). Example: du -h --max-depth=3 /tmp Why does krusader need 5GB?! Which Plex Container are you using? (Linuxserver, binhex, original...) Did you set the docker.img in the general settings to /mnt/cache or only the Plex config path or both? If possible provide screenshots of those set paths.
  2. Hmm. Klingt kompliziert. Ich nutze Zerotier. Auch schon ausprobiert? Das war echt easy und spart mir jetzt eine Lubuntu VM (mit Real VNC Viewer). Portforwarding geht bei meinem Remote NAS nämlich auch nicht.
  3. Yes schedule to "on array startup" (is explained in the guide as well )
  4. OK, dann lieber nicht rumspielen ^^
  5. I would say the guide was not optimal since the beginning as "/tmp" uses (as far as I know) the complete RAM size. In my last post you find the link to the full guide to create a ramdisk with a specific size. I asked @jonp to update his guide, but it seems, he didn't have the time for it yet.
  6. It seems you did not setup a separate transcoding ramdisk. Do you use /dev/shm? Then this could be your problem. /dev/shm has a total size of 32GB and Plex will fill it over time. Not only for live transcoding, even for optimized versions and live tv streams etc. This is a general temp folder for all transcodings. Its better to define a separate folder with a specific size as described here: https://forums.unraid.net/topic/35878-plex-guide-to-moving-transcoding-to-ram/page/12/?tab=comments#comment-894460 I used 4GB in the past which works flawlessly up to 3 or 4 parallel running 4K transcodings. After I did a benchmark and hit the maximum of my iGPU, I changed it to 8GB as I received an "out of storage" error in Plex, but finally this shouldn't be needed in usual usage. 4GB is sufficient because Plex cleans up the folder automatically when it occupies >95% of the total size. Plex uses multiple processes to load-balance them across multiple cores/threads. Maybe Emby has only one single-thread process?! Repeat the command later, so we can compare the results. Another command to check the size of your /tmp folder (which targets your RAM, too): du -sh /tmp
  7. Die Frage ist auch ob der Router mittlerweile durcheinander gekommen ist. Nutzt man den selben Namen / MAC und ändert ständig die IP / DHCP Einstellung, kann es sein, dass der noch irgendwas im Cache hat und schlicht falsch auflöst. In dem Fall hilft dann bei einer Fritz!Box zB den DHCP kurz aus- und wieder einzuschalten: https://www.ip-phone-forum.de/threads/wie-kann-man-den-dns-cache-der-fritzbox-7590-leeren.299797/#post-2334266
  8. No. As I said. Changing a path has absolutetly no influence regarding your RAM usage (as long this path does not target your RAM). But lets discuss this in your other thread. There I provided you a command to check the detailed RAM usage.
  9. Jede Wette, dass die Enterprise Karten das können Wegen dem Alter der Beiträge: Soweit ich das verstanden habe, können das neuere Karten evtl sogar gar nicht mehr. Also selbst, wenn man sie mit Windows 7 betreiben würde. Daher abhaken. Die Mühe lohnt nicht. Eventuell, aber das müsste man testen, könnte man mit diesem Befehl selbst deine aktuelle GPU zum Schlafen bringen: # Runtime PM for PCI devices for i in /sys/bus/pci/devices/????:??:??.?/power/control; do echo 'auto' > $i; done # Runtime PM for port ata od PCI devices for i in /sys/bus/pci/devices/????:??:??.?/ata*/power/control; do echo 'auto' > $i; done Das packt man in die Go-File. Damit wird Linux mitgeteilt, dass ungenutzte PCIe Geräte vollständig abgeschaltet werden sollen. Das sind Regeln, die von powertop empfohlen werden um Strom zu sparen. Hier weitere: https://forums.unraid.net/topic/35866-unraid-6-nerdpack-cli-tools-iftop-iotop-screen-kbd-etc/page/59/?tab=comments#comment-897030 Allerdings weiß ich nicht, ob eine eingesteckte Karte auf diesem Weg deaktiviert werden kann. Aber das bringt mich gerade zu einer weiteren Idee. Kann man nicht manuell einen PCIe Port abschalten? EDIT: Ja das geht: https://askubuntu.com/a/138953/227119 Eventuell eine Kombination aus beiden Befehlen könnte die GPU komplett deaktivieren. Allerdings weiß ich nicht wie es mit der externen Stromversorgung aussieht. Also ob die Karte darüber weiterhin Strom zieht, obwohl sie vom PCIe Slot nichts mehr "hört". Auch das müsste man testen. Damit der PCIe Slot wieder läuft, müsste man sich ein Script basteln, das den Slot wieder verfügbar macht. Automatisch, sobald die VM startet, geht denke ich nicht. Man kann den Status einer VM prüfen: https://forums.unraid.net/topic/78613-running-script-on-vm-startup/ Allerdings bringt das nichts, weil die VM dann ja schon an ist und ohne die GPU bootet. Ich vermute daher, dass man es dann nur manuell lösen kann. Also man haut sich ein Script in CA User Scripts, startet das und dann startet man erst die VM. Ist etwas aufwendiger, spart aber eben den Strom. Wenn du allerdings die VM von außen startest zB über einen WoL Befehl, dann wird diese Methode nicht helfen. Natürlich auch dann nicht, wenn die VM durchgehend laufen soll. Kommt also auf dein Nutzungsverhalten an.
  10. @casperse This has nothing to do with the tweak as it does not even touch your RAM: https://forums.unraid.net/topic/97726-memory-usage-very-high/?tab=comments#comment-901835 My RAM usage and I have thousands of movies, use transcoding a lot, etc:
  11. This tweak has nothing to do with your RAM usage. The source of your problem must be something else (or you used a path, that targeted your RAM). Do you use transcoding to RAM and use the /tmp or /shm folder? Than this is your problem. Next time you should investigate the RAM usage before restarting your server / containers. Use this command: ps aux | awk '{print $6/1024 " MB\t\t" $11}' | sort -n In addition check the sizes of your Ramdisks as follows: df -h -t tmpfs And finally you could check the size of your tmp folder which is even located in your RAM: du -sh /tmp
  12. Ich bin eine Niete beim IP Bridging. Hilft dir das weiter? https://forums.unraid.net/topic/63587-separate-ip-address-ethernet-for-unraid-and-windows-vm/?tab=comments#comment-615767 Soweit ich das verstanden habe, dann braucht DHCP für jede IP eine unterschiedliche MAC-Adresse, da dies das Unterscheidungsmerkmal darstellt. Das ist also anders als beim IP-Aliasing, wo man selbst mehrere IPs für eine MAC-Adresse festlegt. Beim Erstellen einer VM wir die MAC-Adresse ja per Zufall generiert. Also eigentlich sollte das dann ja gehen. Hast du mal statt br1 auch br0 ausprobiert? P.S. hast du wirklich immer neue VMs erstellt oder die XML kopiert? Letzteres würde ja dazu führen, dass alle VMs die selbe MAC-Adresse erhalten würden. Für Docker Container kann übrigens auch manuelle MAC-Adressen vergeben, das aber nur als Randnotiz: https://www.reddit.com/r/unRAID/comments/f8b2hd/docker_custom_mac_address/
  13. Scheint zu gehen: https://www.reddit.com/r/VFIO/comments/ew4kst/ultra_low_power_standby_gpu_zerocore_revisited/ Allerdings gibt mir das zu denken: Läuft das also nicht mit W10? Und wenn es läuft, dann nur wenn die VM an ist und den Monitor abgeschaltet hat, also nicht wenn man die GPU zB nur in Linux für Plex nutzt? Fragen über Fragen EDIT: Ja, vergiss es. Seit Windows 10 ist es fehlerhaft, also geht das wirklich nur, wenn der passende Treiber und Betriebsystem aktiv ist: https://community.amd.com/thread/186574 Reicht dir eine GTX 1050 Ti? Die ist sehr sparsam im Idle: https://www.techpowerup.com/review/msi-gtx-1050-ti-gaming-x/25.html Ich habe die GTX 1050 Ti KalmX in meinem Desktop Rechner und die zog im Idle 4,2 Watt, wobei ich leider nicht mehr weiß ob mit eingeschaltetem oder ausgeschaltetem Monitor. Was sie komplett ohne Betriebssystem macht, keine Ahnung?! Die GT 1030 zieht übrigens laut Tomshardware im Idle 1 Watt mehr.
  14. Solange du die WebGUI nicht über https öffnen willst, ist das ja auch kein Problem. Mit http erreichst du die WebGUI von Unraid über Port 80. Den solltest du also nicht mit einem Docker Container verknüpfen Das kannst du übrigens auch testen. Deaktiviere den Container und ruf https://tower/ auf. Danach aktivierst du den Container und wiederholst das. Dann sollte Nextcloud zu sehen sein. EDIT: Sorry, das wird nur gehen, wenn du unter Settings > Management Access > SSL > aktivierst. Also https ist nicht standardmäßig für die WebGUI aktiviert. Und schon wieder was gelernt. Heut' ist Unraid-Schule 😄
  15. Wenn du Nextcloud auf deinem Client installierst, was hinterlegst du da als Serveradresse? Wenn es https://ddns.example.com:5600/ ist, dann geht es, weil du ja den Port direkt hinterlegt hast. Hinterlegst du allerdings eine DDNS Domain ohne Port wie zB https://ddns.example.com/, dann greift der Client von unterwegs über den Port 443 auf deinen Router zu, den du dann über die Portfreigabe auf 5600 weiterleitest. Lokal greift der Client aber auf 443 zu und erreicht nicht Nextcloud, sondern die Unraid WebGUI.
  16. Dazu noch eine Info. NAT Loopback verursacht eine hohe Last auf dem Router. Der Durchsatz bei der 7490 lag damals bei 4 MB/s: https://www.synology-forum.de/threads/quick-connect-wie-funktionierts.30252/page-2#post-402985 Mit der 7590 müsste ich es mal testen. Die Last entsteht bei IPv6 übrigens nicht. Keine Ahnung warum, aber da geht das wohl ohne NAT.
  17. IP Aliasing... wieder was gelernt. Das ist dann tatsächlich die einfachste Methode.
  18. You did not setup a target with the name "remote". Check your Rclone configuration regarding the name of your cloud.
  19. Ok, das Problem ist also, dass Nextcloud eine WebDAV Anwendung ist, die dadurch die Web-Standardports 80 (http) und 443 (https) nutzt. Damit kollidiert Nextcloud also mit der Unraid WebGUI. Dieses Problem löst man nun so: A) man nutzt die IP eines zweiten LAN Ports. Hat dein Server mehrere? Hier wird das meine ich erklärt (TL;DR): https://forums.unraid.net/topic/62107-network-isolation-in-unraid-64/ B) man hinterlegt im Client den Port, also http://ddns_adresse:5320/remote.php/dav (der dann auch im Router freigegeben wird, um von außen drauf zu kommen) C) man kauft einen Router mit NAT Loopback Unterstützung (ohne Gewähr, sollte aber gehen) D) Reverse Proxy
  20. Das mit der Dockingstation würde ich lassen. Das geht nicht schneller und verkompliziert das ganze wegen Erweiterung der Partition. @ich777's Vorschlag ist der beste. Wenn du keine Lust auf Kommandozeile hast, dann sollte es aber auch mit SMB gehen. SMB hat die Fähigkeit lokal zu kopieren. Dh die Dateien werden nicht erst auf deinen PC heruntergeladen und dann wieder hochgeladen, sondern eben lokal auf dem Server kopieren. Müsste man testen. Aktiviere dazu aber in jedem Fall Disk Shares und die Unassigned Disk muss natürlich auch per SMB freigegeben werden (geht doch mit dem Plugin oder?). Bei User Shares käme der Overhead von Unraid dazu. Daher würde ich es wenn über die Disk Shares probieren (und die zum Schluss wieder deaktivieren). FTP geht natürlich auch. Unverschlüsseltes FTP besitzt den geringsten Overhead, sollte also die LAN-Buchsen voll auslasten können. Grundsätzlich, also egal wie du kopierst, solltest du die Paritätsdisk weglassen. Ansonsten wird das ganze dadurch begrenzt.
  21. Alternativ sollte auch ein lokaler DNS Server gehen, wo man der DDNS die lokale IP zuweist. Den DNS Server hinterlegt man dann im Router. Das habe ich früher mit meinem Synology NAS auch so gemacht: https://www.programmierer-forum.de/synology-dns-server-einrichten-um-nat-loopback-zu-verhindern-t328952.htm Ich denke ähnliches kann man auch mit PiHole umsetzen. Ich verstehe nur halt nicht die Aussage mit den Ports. Sollen zwei verschiedene Anwendungen mit dem selben Port auf den Server zugreifen können oder wie? Das geht natürlich nicht bzw nur, wenn der Server mehrere LAN Ports hat und man für jede IP eine eigene DDNS definiert. Wenn es aber nur darum geht, das zwei verschiedene Ports auf den Server zugreifen können, dann wird das über die hosts Datei oder einen eigenen lokalen DNS gehen.
  22. Die Ports braucht man auch nicht. Die werden alle dieser einen IP zugeordnet. Es wird ja einfach nur die Domain auf die gewünschte IP aufgelöst.
  23. Du meinst DDNS oder? Vermutlich wird die lokal auf eine lokale IP aufgelöst und dein Router hat einen DNS Rebindschutz, der das nicht erlaubt oder dein Router unterstützt kein NAT Loopback. Dh der Router kann die Anfragen, die an die öfentliche IP gehen, aber eigentlich an ihn selbst, nicht lokal "zurückleiten". Je nachdem gibt es unterschiedliche Lösungen. Beim Rebindschutz gibt es zB bei Fritz!Boxen eine Einstellung, wo man die Domain hinzufügt: https://avm.de/service/fritzbox/fritzbox-7590/wissensdatenbank/publication/show/3565_FRITZ-Box-meldet-Der-DNS-Rebind-Schutz-Ihrer-FRITZ-Box-hat-Ihre-Anfrage-aus-Sicherheitsgrunden-abgewiesen/ Wenn dein Router kein NAT Loopback kann, dann hilft nur der Umweg über eine angepasste hosts Datei und da dann die lokale IP für die Domain hinterlegen: https://www.synology-forum.de/threads/zugriff-auf-die-nas-extern-sowie-im-selben-netzwerk.81006/#post-672269
  24. Changing the path of the docker.img influences all reads and writes, that are done inside of this image file. This means all Plex processes like the crawler, transcoder, etc and not the config files like the cover, database, etc. As these processes are relatively small files, the impact isn't great, but even if you save 1% cpu load, why not. The greatest impact comes from changing the appdata path to cache. But this can't be done through the settings as the Plex container is already installed. This means you need to change the appdata path through Docker > Plex > Edit. After this was made, all covers, database reads/writes will be faster. As I described in the tweak, the impact is higher if you have a low power cpu (as a high power cpu can process the Unraid SHFS overhead fast enough). And it will be higher if your cover etc aren't already in the Linux Read Cache. But leave it. It will save you a huge load. Especially if the crawler becomes active. Maybe you like to measure the time to process a full media library scan with and without docker+appdata direct disk access. The downsize is described in the tweak above: Plex is not able to read/write files outside of the cache drive. This will be a problem if your cache drive becomes full. So with this tweak, it's like setting the "appdata" share to "cache only", even if you change the setting to "no". Plex does not respect this anymore. So if you change the caching to "no" and start the mover, Plex can't start as it does not find the files. But if you move the files back to the SSD or you change the path back to "/mnt/user" it will work like before. So this tweak can be easily reverted without problems.
×
×
  • Create New...