Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Was ist, wenn du eine Ubuntu VM erstellst und dort die GPU durchschleifst? Was sagen überhaupt die VM Logs? Gibt es Einträge im syslog, wenn du die Windows VM startest?
  2. Wenn eine SSD vorhanden ist, wäre /mnt/cache noch mal schneller.
  3. Intel brauchte bei Einführung der Blu-Ray und der HD Videoerstellung eine Lösung, die nicht die eigentliche CPU überlastete und führte daher in der CPU eine separate Videoeinheit ein, die ein besonders effizientes Abspielen von Videos ermöglichte: https://www.tomshardware.com/reviews/sandy-bridge-core-i7-2600k-core-i5-2500k,2833-4.html Über die Jahre sind dann viele Codecs und Auflösungen dazu gekommen. Steht die Platte in dem Moment? Wie lange braucht es, wenn du im Video springst? Ich habe es gerade in Android getestet. 4K gestartet, dann auf 1080 12 Mbit reduziert. Das braucht ca 2 Sekunden. Auch wenn ich auf der Leiste weit nach vorne springe. Allerdings lief die Platte zu dem Zeitpunkt bereits, Plex läuft zu 100% auf dem Cache und alle Pfade vom Plex Container sind /mnt/cache und /mnt/disk1 usw., wodurch man noch etwas Overhead von unRAID vermeidet. Eventuell lässt sich da auch noch was bei dir optimieren: 1.) Liegt appdata bei dir zu 100% auf dem Cache? 2.) Ist der Cache eine NVMe? 3.) Hast du deine Plex Pfade von /mnt/user in /mnt/cache geändert? (Free min space bei allen Shares und dem Cache hinterlegen!) 4.) SSD Trim aktiv? 5.) Falls du 128GB RAM hast: Transcoding in den RAM legen. (Seit dem neuen Download Feature, wird leider sehr viel Platz benötigt). 6.) Wenn du deine HDDs runterfahren lässt, könnte noch das Skript interessant sein.
  4. Nope. Nextcloud liegt inkl User Dateien komplett auf der NVMe.
  5. Wird Zeit, dass mal jemand kleine Power-SATA-Adapter rausbringt, die eine leichte Spin-Up-Verzögerung erzwingen. Das muss doch machbar sein 🤔
  6. Echt komisch. Ich habe gerade problemlos eine fast 30GB große Datei in meine Nextcloud geladen und ich kann mich nicht erinnern was in Nextcloud oder NPM eingestellt zu haben. Das einzig komische war, dass es so "langsam" ging. Ich habe ja 10G, also sollten ja eigentlich deutlich mehr mögich sein.
  7. I don't really understand why it does not work for you. Feel free to send me a PM if I can access your PC remotely to do some tests.
  8. Mir käme da diese Ideen 1.) - um zb 2 Uhr nachts startet Duplicati das Backup von appdata - also stoppt um 01:55 Uhr ein Skript alle Container (außer duplicati) - ein zweites Skript prüft a) ob gerade alle Container gestoppt sind und b) "überwacht" es den Backup-Ordner. Wenn für x Minuten kein Zugriff mehr erfolgt ist, werden alle Container gestartet 2.) Alternativ könnte man auch die Logs von Duplicati überwachen, sofern da angezeigt wird, dass der Job startet / stoppt. Allerdings wäre für einen Start Trigger notwendig, dass Duplicati für sagen wir mal 2 Minuten wartet, bevor der Job wirklich losgeht. Kann man das einstellen? 3.) Das hier geht nur, wenn appdata zu 100% auf /mnt/cache liegt: Ein Script stoppt alle Container, erstellt von appdata nach appdata_backup mit folgendem Befehl einen Snapshot: cp --archive --no-target-directory --reflink=always /mnt/cache/appdata /mnt/cache/appdata_backup und startet wieder alle Container. Das dauert nur wenige Sekunden (gerade ausprobiert mit 200GB großem appdata Verzeichnis). Danach macht duplicati ein Backup von appdata_backup und löscht die Quelldateien dabei wieder (kann das dupicati?). Hat den Charme, dass die Container nur wenige Sekunden gestoppt werden.
  9. Egal, weil die Parität das Dateisystem ignoriert.
  10. It sorts by newest movie files, yes. But it does not "run in the background". It runs whenever you start it.
  11. Und sonst? ich vermisse vfio oder GPU Rom oder PCI Override...
  12. Ich würde mal Asrock fragen, warum das OS Einfluss auf den Temp-Sensor hat. Meiner Ansicht nach darf das nicht passieren. Dann macht ja eine Hardware-Überwachung über IPMI ja keinen Sinn, wenn die Software diese Werte beeinflussen kann.
  13. Du solltest diesen Thread mal lesen, weil das selbst in Windows nicht trivial ist: https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/ Hier auch mein Beitrag: https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/post-24812476 Es sollte in jedem Fall ASPM und ALPM forciert werden. Je nach Board hat die Deaktivierung von Komponenten wie zb LED Controller keinen oder einen großen Einfluss auf den Verbrauch. Da hilft nur durchprobieren und jede Änderung messen.
  14. Mach das noch mal und führe das aus: dd if=/dev/zero of=/mnt/cache/test.bin bs=128k flag=count_bytes oflag=direct count=20G Ich denke es liegt einfach daran, dass du etwas mehr Schreiblast bei 6.10 hast. Eine NVMe wird ja sehr schnell heiß, wenn sie arbeitet. Welches Modell verwendest du?
  15. Im Pfad /mnt/user/appdata liegen alle Dateien aller Container. Und das ist der Ordner, der vom Backup Plugin gesichert wird. Wohin, bestimmst du über den "Destination" Pfad. Hast du unRAID nicht auf Deutsch umgestellt? Ich weiß dass manche Plugins nicht übersetzt sind, aber zumindest die restliche Oberfläche ist dann Deutsch.
  16. Das wird ein separater Sensor sein und nicht der von der SSD. Steht in der Anleitung dessen Position?
  17. Sie sind mittlerweile weiter. Da hat wohl jemand das Container Update kaputt gemacht. Versuch mal Advanced View im Docker Tab und dann "Force Update".
  18. A swap file is only used if Linux thinks, it's a good idea. And of course it would use the SSD (location of the swap file).
  19. Für Docker Container bietet sich das Backup Appdata Plugin an. Ansonsten war ich Mal so frei: https://github.com/linuxserver/docker-booksonic-air/issues/15
  20. Naja, wie machst du Backups? Weiß ich ja nicht ^^
  21. Backup wiederherstellen ist wohl die einfachste Methode. Was der Entwickler verbockt hat, kann man dann immer noch googlen.
  22. Wirst du erst wissen, wenn du sie kurz abgeklemmt hast.
  23. Hast du denn SFTP beim Client genutzt (denk dran, dass FTPS nicht das selbe ist wie SFTP)? Wie gesagt braucht nur FTP/FTPS diese ganzen Ports. Bei SFTP reicht Port 22 (oder welchen man auch immer eingestellt hat). Clientseitig braucht es bei SFTP auch keine Portfreigaben.
  24. Dann stehen die HDDs aber? Welches Mainboard und CPU hast du denn jetzt? C9 ist ja schon mal super, aber du musst in jedem Fall hpet deaktivieren, ansonsten kann dir der Server eine falsche Uhrzeit anzeigen / crashen. Zumindest war das bei Unraid 6.9 noch so. Eventuell wurde der Bug ja gelöst?! EDIT: Ok, du hast das B365M. Komisch, noch nie C9 bei dem Board gesehen. Allerdings muss ich dich leider darauf hinweisen: https://www.anandtech.com/show/13714/intel-adds-b365-chipset-to-lineup-the-return-of-22nm Soll heißen, dass das B360M vermutlich effizienter ist. Hat aber noch keiner gemessen, so weit ich weiß. Du solltest auch mal die Lüfter alle abklemmen beim Messen des Verbrauchs. Einfach um ein Gefühl dafür zu bekommen, was die ausmachen. Evtl ja doch mal über den Ausbau des CPU-Lüfters nachdenken. Bei einem Foto habe ich auch eine Platine gesehen, die für die extra Lüfter ist?! Was ist das und hast du es angeschlossen?
×
×
  • Create New...