alturismo

Moderators
  • Posts

    6102
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by alturismo

  1. Beispiel da hat sich auch jemand durch das Thema gearbeitet
  2. ui ui ui ... etwas einlesen in Grundsätzlichkeiten für die Zukunft ... /mnt/cache/appdata/enshrouded_proton beispielsweise ... solltest ggf. den oberen auch ändern in /mnt/cache/... Gameserver bevorzugen das ... /mnt/ssd/ existiert nicht, sprich, der schreibt in den Ram ...
  3. und hier wahrscheinlich der Fehler ... /mnt/ssd/ ...
  4. da kann ich nichts dazu sagen, den nutze ich nicht
  5. entweder durch auswählen ... oder tatsächlich die passende render kompletten Pfad angeben /dev/dri/renderD129 ... für die AMD vaapi Kiste
  6. docker run Befehl aller beteiligten Dockers ... dann kann man evtl. etwas dazu sagem.
  7. für den Notfall, manchmal "meckert" der neue Server bzgl. der BIOS Kennung ... daher, 1/ screenshot machen der VM Konfiguration 2/ vdisk kopieren von a nach b 3/ falls copy paste nicht will ... neue VM erstellen 4/ settings aus den screens übernehmen, bis auf die vdisk ... da "manual" nehmen und auf die vdisk verweisen feritg ... Alternativ, 1/ neue VM erstellen, settings egal 2/ die ovmf Kennung kopieren in die vorhandene xml (2x) 3/ kpl. die xml dann copy / paste in die "neue" VM (eigentlich die alte nur mit angepasster BIOS ID) 4/ vdisk Pfad prüfen ... ggf. anpassen fertig ... das nur falls copy / paste nicht starten sollte
  8. fangen wir mal vorne an ... restliche requirements wirst du selbst finden ...
  9. Plex behält den Zugriff nur solange Plex auch aktiv etwas damit macht, also Nein Bsp. Media wird geschaut, gescannt, ... aktivier halt mal mover logging und schau was der ausgibt
  10. dann geht das über einen relay, Tunnel, ...bietet auch beispielsweise cloudflare an, aber nicht für alle Dienste ... Lernkurve annehmen und einlesen, Tutorials schauen, ... es gibt nicht "die beste ...", einlesen was die features sind, entscheiden, testen, ... lsio macht viel, hat einen eigenen discord support channel, sind sehr solide ich nutze keins Geschmackssache, directory hat Vor und Nachteile ... Image ist "abgeschottet", skaliert und dafür aber etwas langsamer, wirst du es merken ... wahrscheinlich nicht, geht das Image mal kaputt, ja ... dauert 3 Minuten und es ist wieder da
  11. mehr Inhalt bitte ... beispielsweise ein screen deiner Main Übersicht ... was ist auf der Festplatte drauf ... laufen Docker, VM's, ... mehr Inhalt ... den Server mit wol aufwachen ? wenn deine Hardware das unterstützt, ja VM's per WOL starten, ja Docker per WOL starten, ja ...
  12. in Zukunft bitte im richtigen Forum posten, Danke und Gruß
  13. ich bin terminal user ... wie @worli es posted hat, einfach so umsetzen.
  14. Und Array danach wieder starten [emoji6] Passt, Autostart Array noch ggf ausschalten Gesendet von meinem SM-S911B mit Tapatalk
  15. du schaust im plugin thread nach dem Nvidia Plugin, installierst das, dann schaust du die die Seite 1 in dem Thread an und folgst der Anleitung ... die NV ist dann für den Host und den eingerichteten Dockern parallel verfügbar, sprich, du kannst mehrere Dockers mit der NV Karte betreiben. Was nicht geht, parallele Nutzung VM (exklusiv) und Dockers ...steht auch alles auf Seite 1
  16. Nachtrag, zeig mal noch den output von ls -Alhr --time-style=+"" /sys/class/drm/renderD*/device/driver sieht beispielsweise so aus, iGPU, dGPU in use (VM), dGPU frei root@AlsServer:~# ls -Alhr --time-style=+"" /sys/class/drm/renderD*/device/driver lrwxrwxrwx 1 root root 0 /sys/class/drm/renderD130/device/driver -> ../../../bus/pci/drivers/i915/ lrwxrwxrwx 1 root root 0 /sys/class/drm/renderD129/device/driver -> ../../../../bus/pci/drivers/nvidia/ lrwxrwxrwx 1 root root 0 /sys/class/drm/renderD128/device/driver -> ../../../../bus/pci/drivers/vfio-pci/ root@AlsServer:~# bei mir "verschiebt sich das gerne immer mal wieder, renderD128 ist ja "normal" die iGPU ... aber, wie du siehst ist die aktuell D130 ... daher hab ich mir etwas "gebaut" was beim Neustart checkt, entsprechend TVH und Plex config anpasst ... evtl. auch ein Thema für deinen KDE Docker ...
  17. ganz sicher nicht, nutze ich beides hier ... und ich nutze TVH tatsächlich auch mit codec Profiles und encoding mal gefragt, der besagt KDE Docker, was macht der mit der GPU ?
  18. das ist nicht "Neues", wenn die disk precleared ist (alles genullt) braucht es keinen zusätzlichen check ... aber ja, @hawihoney hat auch Recht, sicher ist sicher ... wobei preclear die ganze disk eh einmal durchgeht ... geht nur in Summe etwas schneller.
  19. nur um sicher zu gehen, LAN angeschlossen (nicht wlan). wenn ja, anderes Kabel versucht, anderer Port am switch, Router, ... wenn das Teil am Montor hängt, starte mal im GUI mode, schau mal dann unter tools, devices ob der Netzwerkadapter da ist
  20. der offizielle ARC support kommt erst demnächst mit der 6.13 er Version
  21. in dem Fall, Datendisks preclear durchführen (alles nullen), dann die beiden hinzufügen (angeben das precleared) sollte dann ohne Parity rebuild durchlaufen dann die 2. Parity dazu (ein preclear kann nichts schaden) ...
  22. damit würde ich eher im passenden Thread anfragen, oder noch besser im github mal schauen / anfragen ... bzw. auch mal nach den Fehlern dort suchen ... meist ist man nicht der erste ... hier ein Link zu den behobenen Issues bei paperless ngx https://github.com/paperless-ngx/paperless-ngx/issues?q=is%3Aissue+is%3Aclosed
  23. Hier stand Mist, man sollte nichts am Handy machen dann, würde ich vorschlagen ... den Weg zu dem passenden support Thread davon zu gehen und dort anzufragen. anscheinend hat der Docker dann ein Problem wenn mehrere GPU's verbaut sind ... erste Antwort wird sein, nutze entweder oder ... oder isoliere die NV Karte, dann hat sich das scripting erledigt, aber auch das "schlafen" setzen der dGPU ... sorry, aber das ist App, Docker, ... related ... wundert mich dass die Nvidia im Docker überhaupt gesehen wird ohne runtime nvidia ...
  24. so siehts wahrscheinlich aus ... dann nutze userscripts um luckybackup um 01.50 Uhr neu starten zu lassen ... und schau ob das hilft.