Mika

Members
  • Posts

    38
  • Joined

  • Last visited

Everything posted by Mika

  1. Mika

    Docker Update Loop

    Danke, ich lasse es weiter getrennt laufen. Übrigens hat sich das, obwohl ich gar nichts geändert habe, diese ständige Updatemitteilung erledigt.. Sowas ist natürlich immer schwer, wenn man nicht weiß, wo das hergekommen ist
  2. Besten Dank noch für deine Antwort. Hab jetzt erstmal soweit das ganz am laufen. Werde mich aber mal in das Thema Datenbanken einarbeiten. Da hast du schon Recht, da habe ich definitiv Nachholbedarf
  3. Hi, kann mir das einer erklären? Ich habe gestern aus Spaß mal WindowsinDocker installiert und bin völlig überrascht, dass es um ein vielfaches schneller ist als eine Win11 VM mit über UD durchgereichter NVMe (Samsung 980 Pro). Allein die Bootzeit ist ein unglaublicher Unterschied. Dockerversion ~3 Sekunden, VM Version 10 Sekunden. Wo könnte ich denn ansetzen, um die VM auf die identische Performance zu kriegen? Viele Grüße Michael
  4. @MarianKoniuszko Thank you so much! Its working 😀
  5. Hey, did you find a solution for Paperless in combination with Authentik?
  6. Vielen Dank für deine ausführlichen Antworten! Ich habe im Dockertemplate mal Root-Rechte aktiviert, jetzt klappt es auch mit den noch nicht übertragenen Dateien. 😉 Ich meinte den Fortschrittsbalken, siehe Screenshot. Der "Löschen"-Button lässt sich aber weiterhin nicht aktivieren. Kopiere ich die Backupaufgabe und setze das Ziel ins Array, klappt das ohne Probleme. Aber vielleicht liegt das an den Berechtigungen in der Cloud-Speicherlösung, wie du schon geschrieben hast. Hatte den Speicher erstmal über SMB drin, aber wollte zumindest die SSH Verschlüsselung aktiviert haben. Somit hab ich das aus Unassigned Devices wieder rausgenommen und in LuckyBackup im Reiter "Entfernt" mit SSH eingebaut. Verschlüsselst du deine Daten im Cloudspeicher?
  7. Hi, ich habe mir eine Hetzner Storage Box gemietet und möchte von LuckyBackup aus über SSH meine Backups dahinschieben. Die Verbindung steht, die Daten werden übertragen. Jetzt hat die Übertragung bestimmt 2,5x so lange gedauert, wie Backups die von Duplicati erstellt und übertragen wurden. Uploadgeschwindigkeit ist bei beiden gleich. Woran könnte das liegen? Einfach aufgrund der Tatsache, dass über LuckyBackup die Daten "roh" und nicht komprimiert verschickt werden? Gibt es eine Option zur Komprimierung? Während des Uploads zur Storage Box sieht man keinen Fortschrittsbalken. Habt ihr da eine Idee? Woran könnte es liegen, dass ich einzelne Snapshots nicht löschen kann? Dann gibt es da noch diesen Berechtigungsfehler 🤔Ich sehe, dass diese beiden Ordner zwar andere Permissions haben, aber ich hätte gedacht, dass LuckyBackup diese Attribute einfach mit überträgt.
  8. Mika

    Docker Update Loop

    Habe die schon einige Male jetzt aktualisiert. Dann hält das manchmal eine halbe Stunde und dann steht das wieder da. Ich kann, nach dem ich aktualisiert habe und da steht, dass alles up to date ist, nochmal auf "check for updates" klicken, dann bleibt das auch noch aktuell. Aber irgendwann kommt das wieder. Der Pull geht auch ganz schnell, also er lädt nicht alles wieder neu runter. Ok, dann würde ich das so getrennt mal weiterlaufen lassen. Dachte am Anfang halt auch, dass wenn was ist, ist nur der eine platt. War mir nur unsicher, ob das grundsätzlich von Unraid her der richtige Weg ist 😉
  9. Hi, ich erkläre erstmal die Ausgangslage und würde mich aber auch interessieren, ob die Vorgehensweise so sinnvoll ist oder was man da besser machen könnte. Ich nutze u.a. folgende Docker: Nextcloud Synapse Matrix Authentik Immich Paperless Allen habe ich einen extra PostgreSQL Docker zugewiesen und diesen über entsprechende Namen mehrfach installiert. Siehe Bild. Jetzt würde mich zum einen interessieren, ob es sinnvoll ist für die entsprechenden Programme je eine eigene PostgreSQL laufen zu lassen. Genauso habe ich das mit Redis gemacht. Ob das da sinnvoll ist? Oder kann ich einen Redis-Docker für alle benutzen? Jetzt habe ich aber das Problem, dass trotz durchgeführten Updates immer wieder der Hinweis kommt, dass eben ein Update verfügbar ist. Es sind auch keine Orphan Images vorhanden. Habt ihr einen Rat? Michael
  10. Na das war ja einfach 😊 Besten Dank
  11. Hi, vielleicht eine dumme Frage.. Ich stehe gerade total auf dem Schlauch. Ich habe über den Befehl im Unraid Terminal die Datenbank exportiert. Innerhalb des Containers finde ich natürlich die Daten unter /usr/src/paperless/export Aber wie komme ich außerhalb des Containers dran? Viele Grüße Michael
  12. @mgutt Hattest du vielleicht mal Zeit, dir das anzusehen?
  13. Ok, ja die hab ich auch installiert. Das letzte Update lief mehr oder weniger sauber, deshalb hatte ich nochmal die linuxserver version getestet. Ich mag Nextcloud ja und nutze das seit Jahren, aber man hat immer das Gefühl, dass es eine Dauerbaustelle ist und bleibt. Wenn da jemand eine lohnenswerte Alternative hat, gerne mal vorschlagen
  14. First create a simple button. After that create an automation, that looks like this: alias: WOL_KinoVM description: "" trigger: - platform: state entity_id: - input_button.kinovm_boot condition: [] action: - service: wake_on_lan.send_magic_packet metadata: {} data: broadcast_port: 9 mac: 52:54:00:7v:2k:q7 mode: single after that you can add your button, which you have created in the first step, to your dashboard. Regarding my problem. No problem, it happend only once and never again
  15. @alturismo wenn du von der Official Version sprichst, meinst du dann die von Knex?
  16. Ich nutze das gleiche Setup wie du: UDM Pro, Unifi Switche, Diverse Unifi APs. Unraid habe ich entsprechend der Anweisungen eingestellt, also auf macvlan und gebe jedem Docker seine eigene Custom IP. Zum einen ist es so alles sehr nachvollziehbar und läuft halt ohne Probleme: Den Hinweis in der Unifi Network App, dass identische IP Adressen im Netz sind, habe ich leider auch. Also falls da jemand einen Tipp hat, immer gerne.
  17. Hi, today i updated my Docker Instance of Nextcloud and now i stuck at the login page with a loop. I allready did this: docker exec --user 99 Nextcloud php occ db:add-missing-indices docker exec --user 99 Nextcloud php occ db:convert-filecache-bigint --no-interaction Can you help me? Edit: I compared the new config.php with my backup config and this entry was missing: 'memcache.local' => '\\OC\\Memcache\\Redis', Now its working.. Edit 2: But now the windows client doesn't open virtual files which are uploaded after the nextcloud update? On my phone it is working without any problems.
  18. Da bei mir jetzt alles läuft und die ganze Einrichtung der Hook Scripts doch ziemlich butterweich über die Bühne ging, möchte ich das Ganze einmal zusammenfassen. Nicht, um mich mit fremden Federn zu schmücken, sondern um evtl. etwas an die Community zurückzugeben. Ausgangslage ist, dass eine dGPU sich nicht in einen Ruhemodus versetzen lässt, wenn kein Betriebssystem mit entsprechenden Grafikkartentreibern geladen ist. Somit ist der Stromverbrauch wesentlich höher, wenn z.B. keine VM läuft in die die Grafikkarte durchgereicht wurde. Aber auch eine laufende VM ist ein weiterer Energiefresser und sollte beendet sein, wenn man vorhat, ein möglich sparsames System zu betreiben. Die Lösung ist, die dGPU nicht über VFIO Binds von Unraid zu trennen und dann an die VM durchzureichen. Ist die dGPU über VFIO Binds getrennt, steht sie Unraid nicht mehr zur Verfügung und man hat somit keine Möglichkeit, Ruhezustände einzuleiten. Damit der Ruhezustand der dGPU automatisiert eingeleitet wird, wenn keine VM läuft und deaktiviert wird wenn man eine VM startet, kann man sich den Hook Scripts bedienen, die dann das Umschalten im Hintergrund vornehmen. Man öffnet ein Terminal in Unraid und erstellt Verzeichnis unter /etc/libvirt/hooks/ mit dem Namen qemu.d mkdir -p /etc/libvirt/hooks/qemu.d/ Dort erstellen wir eine Datei namens " hook_scripts " nano /etc/libvirt/hooks/qemu.d/hook_scripts Wir fügen folgenden Inhalt ein #!/bin/bash if [ $1 = "VM1" -a $2 = "prepare" -a $3 = "begin" ]; then /mnt/cache/system/hook_scripts/vm1_start.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & elif [ $1 = "VM1" -a $2 = "release" -a $3 = "end" ]; then /mnt/cache/system/hook_scripts/vm1_stop.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & elif [ $1 = "VM2" -a $2 = "prepare" -a $3 = "begin" ]; then /mnt/cache/system/hook_scripts/vm2_start.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & elif [ $1 = "VM2" -a $2 = "release" -a $3 = "end" ]; then /mnt/cache/system/hook_scripts/vm2_stop.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & elif [ $1 = "VM3" -a $2 = "started" -a $3 = "begin" ]; then # /mnt/cache/system/hook_scripts/vm3_start.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & elif [ $1 = "VM3" -a $2 = "stopped" -a $3 = "end" ]; then # /mnt/cache/system/hook_scripts/vm3_stop.sh & /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" & fi exit 0; In diesem Script wird die GPU bei Start der entsprechenden VM aus dem Ruhezustand rausgeholt und nach Beenden der VM wieder gestartet. In meinem Beispiel ist die dGPU an die VM1 und VM2 durchgereicht. VM3 nutzt die dGPU nicht. Das Script ausführbar machen chmod +x /etc/libvirt/hooks/qemu.d/hook_scripts Als nächstes erstellen wir die ausführbaren Dateien, die den Ruhezustand entsprechend Ein- oder Ausschalten. Diese nenne ich in meinem Beispiel vm1_start.sh und vm1_stop.sh (siehe auch im Script oben. Also Nr. 1: nano /mnt/cache/system/hook_scripts/vm1_start.sh und kopieren den folgenden Inhalt rein: #!/bin/bash nvidia-smi -i 0 -pm 0 & sleep 1 exit 0; Und Nr. 2: nano /mnt/cache/system/hook_scripts/vm1_stop.sh #!/bin/bash nvidia-smi -i 0 -pm 1 & sleep 1 exit 0; Auch diese beiden Dateien machen wir ausführbar: chmod +x /mnt/cache/system/hook_scripts/vm1_start.sh chmod +x /mnt/cache/system/hook_scripts/vm1_stop.sh Sind die Nvidia Treiber (das Plugin) installiert, muss unter Umständen die VM XML angepasst werden. Auch dazu hat Alturismo schon eine tolle Zusammenfassung geschrieben, was wie in der XML angepasst werden muss. Zufällig musste ich an meinen nichts ändern und die VMs haben genauso gestartet wie vorher. Die Quellen sind: https://forums.unraid.net/topic/158529-nach-einbau-rtx-3060-ti/ https://forums.unraid.net/topic/154738-vm-für-gaming-etwas-laggy/ Herzlichen Dank an Alturismo, ich777, DataCollector und zero_neverload für die Unterstützung. Falls ich noch etwas ergänzen / ändern soll, bitte eine Info. Michael
  19. Alles gut, hab es. Wollte das Leerzeichen zwischen Home und Assistant wegnehmen. Der Pfad hatte sich dadurch natürlich geändert. Jetzt läuft das schonmal 😉
  20. Danke, das mit der Schleife habe ich verstanden. Bin ein kleines Stückchen weiter, jedoch startet die VM dann nicht durch. 🤔
  21. Ne, die Nextcloud und Matrix VMs kannst du schonmal ausklammern. Das habe ich ja schon auf die Dockerversionen umgezogen. Bevor ich die VMs aber lösche, teste ich die Dockerversionen aber erst noch ein bisschen. Bzgl. HomeAssistant mache ich mir noch Gedanken, ob ich auf ioBroker umsteige, oder mir nochmal die normale HomeAssistant Version ansehe. Vielleicht reicht es ja inzwischen tatsächlich
  22. Guten Morgen, ich bin inzwischen ein ganzes Stückchen weiter und vom Grundprinzip bestimmt auf dem richtigen Weg. - Ich habe die hook_scripts soweit eingerichtet und ausführbar gemacht. - Die Nvidia Treiber (Plugin) sind installiert. - Die VFIO Binds rausgenommen Manuell gestartet funktionieren auch meine mikavm_start.sh und mikavm_stop.sh und der persistence-mode wird entsprechend ein- oder ausgeschaltet. So bin ich dann übrigens bei ausgeschalteter HomeAssistant VM bei 49W, wobei ich noch immer nicht wirklich über C2 hinauskomme.. Aber darum kümmere ich mich, wenn die VMs wieder starten. Starte ich jetzt jedoch die HomeAssistant VM erscheint die Fehlermeldung (Anhang). Benenne ich den qemu.d Ordner vorübergehend um, startet sie natürlich wieder. Was übersehe ich denn da? Viele Grüße Michael
  23. Ich schaue mir ioBroker nochmal an. Ist zugegeben schon etwas her, dass ich damit Berührungspunkte hatte. Ich nutze noch immer einige Homematic-Geräte, die ich damals nicht ohne Probleme in die normale Version vom Homeassistant integrieren konnte. Dann wollte ich auch HACS nutzen. Es gab einfach einige Abstriche. Ich habe noch einen HP Thinclient rumliegen, auf den ich das zur Not installieren könnte. Nur muss ich da erstmal den Verbrauch messen. Nicht, dass es in Summe nachher nichts bringt
  24. Hallo, habe noch ein neuwertiges Silverstone RM400 Servergehäuse, welches ich gerne verkaufen würde. Es sind außerdem 3x Noctua Lüfter verbaut. RM400 (silverstonetek.com) Preis 159 €