Jump to content

Mika

Members
  • Posts

    38
  • Joined

  • Last visited

Posts posted by Mika

  1. Danke, ich lasse es weiter getrennt laufen. Übrigens hat sich das, obwohl ich gar nichts geändert habe, diese ständige Updatemitteilung erledigt.. Sowas ist natürlich immer schwer, wenn man nicht weiß, wo das hergekommen ist

  2. Hi,

     

    kann mir das einer erklären? Ich habe gestern aus Spaß mal WindowsinDocker installiert und bin völlig überrascht, dass es um ein vielfaches schneller ist als eine Win11 VM mit über UD durchgereichter NVMe (Samsung 980 Pro).

    Allein die Bootzeit ist ein unglaublicher Unterschied. Dockerversion ~3 Sekunden, VM Version 10 Sekunden. Wo könnte ich denn ansetzen, um die VM auf die identische Performance zu kriegen?

     

    Viele Grüße

    Michael

  3. On 2/23/2024 at 10:16 AM, MobileDude said:

    Hi Guys, I have set-up Paperless on Unraid. I used header auth with Authentik. Currently it is possible to use proper SSO with paperless and authentik. I watched https://youtu.be/xO-EVYNinXA?si=nJbh3qQ338oMFTuP  and I noticed I needed 2 environment variables:

     

    PAPERLESS_APPS: "allauth.socialaccount.providers.openid_connect"

    and

     

    PAPERLESS_SOCIALACCOUNT_PROVIDERS: '{"openid_connect": {"APPS": [{"provider_id": "authentik","name": "Authentik SSO","client_id": "XX Client ID from Authentika XX","secret": "XX Client Secret from Authentika XX","settings": { "server_url": "https://auth.xyz.com/application/o/paperless-ngx/.well-known/openid-configuration"}}]}}'

     

    so I added the following to the template and removed the previous variables related to headers.

    As soon as I start the paperless container is stops again. do I remove the variables, it runs again. If i remove the single quotes, from paperless_socialaccount_providers, the container starts but SSO does not work. What Am I missing here? Someone with a similair set-up to help me out?

     

    1998102724_Screenshot2024-02-23om10_12_54.thumb.jpg.29fe0c82064db56356ae762a1fd9b9d9.jpg

     

    Edit: It would help if someone with the same set-up can share his Unraid template screenshots. I have doubts about if I have the right environment variables. But looking at all responses I must have been te only one running Paperless on Unraid in combination with Authentik.

     

    Hey, did you find a solution for Paperless in combination with Authentik?

  4. Vielen Dank für deine ausführlichen Antworten! Ich habe im Dockertemplate mal Root-Rechte aktiviert, jetzt klappt es auch mit den noch nicht übertragenen Dateien. 😉
     

    Ich meinte den Fortschrittsbalken, siehe Screenshot.

     

    Der "Löschen"-Button lässt sich aber weiterhin nicht aktivieren. Kopiere ich die Backupaufgabe und setze das Ziel ins Array, klappt das ohne Probleme. Aber vielleicht liegt das an den Berechtigungen in der Cloud-Speicherlösung, wie du schon geschrieben hast.


    Hatte den Speicher erstmal über SMB drin, aber wollte zumindest die SSH Verschlüsselung aktiviert haben. Somit hab ich das aus Unassigned Devices wieder rausgenommen und in LuckyBackup im Reiter "Entfernt" mit SSH eingebaut.

    Verschlüsselst du deine Daten im Cloudspeicher? 

  5. Hi,

     

    ich habe mir eine Hetzner Storage Box gemietet und möchte von LuckyBackup aus über SSH meine Backups dahinschieben. Die Verbindung steht, die Daten werden übertragen. 

    Jetzt hat die Übertragung bestimmt 2,5x so lange gedauert, wie Backups die von Duplicati erstellt und übertragen wurden. Uploadgeschwindigkeit ist bei beiden gleich. Woran könnte das liegen? Einfach aufgrund der Tatsache, dass über LuckyBackup die Daten "roh" und nicht komprimiert verschickt werden? Gibt es eine Option zur Komprimierung?

     

    Während des Uploads zur Storage Box sieht man keinen Fortschrittsbalken. Habt ihr da eine Idee? 

     

    Woran könnte es liegen, dass ich einzelne Snapshots nicht löschen kann?

     

    Dann gibt es da noch diesen Berechtigungsfehler 🤔Ich sehe, dass diese beiden Ordner zwar andere Permissions haben, aber ich hätte gedacht, dass LuckyBackup diese Attribute einfach mit überträgt.

     

    360113317_Screenshot2024-04-14184348.thumb.png.3481025456d9ce08638c5bb27f5f5a5f.png

     

    2080971220_Screenshot2024-04-14184633.thumb.png.2ccb089d58469e0b937c34821e0a9970.png

     

    1767674439_Screenshot2024-04-14184844.thumb.png.fb830942d85aeab9b5d41596141e7e69.png

  6. Habe die schon einige Male jetzt aktualisiert. Dann hält das manchmal eine halbe Stunde und dann steht das wieder da. Ich kann, nach dem ich aktualisiert habe und da steht, dass alles up to date ist, nochmal auf "check for updates" klicken, dann bleibt das auch noch aktuell. Aber irgendwann kommt das wieder. Der Pull geht auch ganz schnell, also er lädt nicht alles wieder neu runter. 

     

    Ok, dann würde ich das so getrennt mal weiterlaufen lassen. Dachte am Anfang halt auch, dass wenn was ist, ist nur der eine platt. War mir nur unsicher, ob das grundsätzlich von Unraid her der richtige Weg ist 😉

  7. Hi,

     

    ich erkläre erstmal die Ausgangslage und würde mich aber auch interessieren, ob die Vorgehensweise so sinnvoll ist oder was man da besser machen könnte.

     

    Ich nutze u.a. folgende Docker:


    Nextcloud

    Synapse Matrix

    Authentik

    Immich

    Paperless

     

    Allen habe ich einen extra PostgreSQL Docker zugewiesen und diesen über entsprechende Namen mehrfach installiert. Siehe Bild. Jetzt würde mich zum einen interessieren, ob es sinnvoll ist für die entsprechenden Programme je eine eigene PostgreSQL laufen zu lassen. 

    Genauso habe ich das mit Redis gemacht. Ob das da sinnvoll ist? Oder kann ich einen Redis-Docker für alle benutzen? 

     

    Jetzt habe ich aber das Problem, dass trotz durchgeführten Updates immer wieder der Hinweis kommt, dass eben ein Update verfügbar ist.
    Es sind auch keine Orphan Images vorhanden. 

     

    Habt ihr einen Rat?

    Michael

    Screenshot 2024-04-14 175457.png

  8. Hi,

    vielleicht eine dumme Frage.. Ich stehe gerade total auf dem Schlauch. Ich habe über den Befehl im Unraid Terminal die Datenbank exportiert. Innerhalb des Containers finde ich natürlich die Daten unter /usr/src/paperless/export

    Aber wie komme ich außerhalb des Containers dran? 

     

    Viele Grüße
    Michael

  9. Ok, ja die hab ich auch installiert. Das letzte Update lief mehr oder weniger sauber, deshalb hatte ich nochmal die linuxserver version getestet.

    Ich mag Nextcloud ja und nutze das seit Jahren, aber man hat immer das Gefühl, dass es eine Dauerbaustelle ist und bleibt. 

    Wenn da jemand eine lohnenswerte Alternative hat, gerne mal vorschlagen

  10. First create a simple button. 

    After that create an automation, that looks like this:

    alias: WOL_KinoVM
    description: ""
    trigger:
      - platform: state
        entity_id:
          - input_button.kinovm_boot
    condition: []
    action:
      - service: wake_on_lan.send_magic_packet
        metadata: {}
        data:
          broadcast_port: 9
          mac: 52:54:00:7v:2k:q7
    mode: single

     

    after that you can add your button, which you have created in the first step, to your dashboard.

     

     

    Regarding my problem. No problem, it happend only once and never again

    Screenshot 2024-04-07 142956.png

    Screenshot 2024-04-07 143526.png

    • Like 1
  11. Ich nutze das gleiche Setup wie du: UDM Pro, Unifi Switche, Diverse Unifi APs. Unraid habe ich entsprechend der Anweisungen eingestellt, also auf macvlan und gebe jedem Docker seine eigene Custom IP. Zum einen ist es so alles sehr nachvollziehbar und läuft halt ohne Probleme:

    Den Hinweis in der Unifi Network App, dass identische IP Adressen im Netz sind, habe ich leider auch. Also falls da jemand einen Tipp hat, immer gerne. 

  12. Hi, 

    today i updated my Docker Instance of Nextcloud and now i stuck at the login page with a loop. 

    I allready did this:

     

    docker exec --user 99 Nextcloud php occ db:add-missing-indices
    docker exec --user 99 Nextcloud php occ db:convert-filecache-bigint --no-interaction

     

    Can you help me?

     

    Edit: I compared the new config.php with my backup config and this entry was missing:

     

      'memcache.local' => '\\OC\\Memcache\\Redis',

     

    Now its working.. 

     

    Edit 2: But now the windows client doesn't open virtual files which are uploaded after the nextcloud update? On my phone it is working without any problems.

  13. Da bei mir jetzt alles läuft und die ganze Einrichtung der Hook Scripts doch ziemlich butterweich über die Bühne ging, möchte ich das Ganze einmal zusammenfassen. Nicht, um mich mit fremden Federn zu schmücken, sondern um evtl. etwas an die Community zurückzugeben.

     

    Ausgangslage ist, dass eine dGPU sich nicht in einen Ruhemodus versetzen lässt, wenn kein Betriebssystem mit entsprechenden Grafikkartentreibern geladen ist. Somit ist der Stromverbrauch wesentlich höher, wenn z.B. keine VM läuft in die die Grafikkarte durchgereicht wurde. Aber auch eine laufende VM ist ein weiterer Energiefresser und sollte beendet sein, wenn man vorhat, ein möglich sparsames System zu betreiben. 

     

    Die Lösung ist, die dGPU nicht über VFIO Binds von Unraid zu trennen und dann an die VM durchzureichen. Ist die dGPU über VFIO Binds getrennt, steht sie Unraid nicht mehr zur Verfügung und man hat somit keine Möglichkeit, Ruhezustände einzuleiten.

     

    Damit der Ruhezustand der dGPU automatisiert eingeleitet wird, wenn keine VM läuft und deaktiviert wird wenn man eine VM startet, kann man sich den Hook Scripts bedienen, die dann das Umschalten im Hintergrund vornehmen.

     

    • Man öffnet ein Terminal in Unraid und erstellt Verzeichnis unter /etc/libvirt/hooks/ mit dem Namen qemu.d

     

    mkdir -p /etc/libvirt/hooks/qemu.d/

     

     

    • Dort erstellen wir eine Datei namens " hook_scripts "
    nano /etc/libvirt/hooks/qemu.d/hook_scripts

     

    • Wir fügen folgenden Inhalt ein
    #!/bin/bash
    
    if [ $1 = "VM1" -a $2 = "prepare" -a $3 = "begin" ]; then
            /mnt/cache/system/hook_scripts/vm1_start.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    elif [ $1 = "VM1" -a $2 = "release" -a $3 = "end" ]; then
            /mnt/cache/system/hook_scripts/vm1_stop.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    elif [ $1 = "VM2" -a $2 = "prepare" -a $3 = "begin" ]; then
            /mnt/cache/system/hook_scripts/vm2_start.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    elif [ $1 = "VM2" -a $2 = "release" -a $3 = "end" ]; then
            /mnt/cache/system/hook_scripts/vm2_stop.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    elif [ $1 = "VM3" -a $2 = "started" -a $3 = "begin" ]; then
    #        /mnt/cache/system/hook_scripts/vm3_start.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    elif [ $1 = "VM3" -a $2 = "stopped" -a $3 = "end" ]; then
    #        /mnt/cache/system/hook_scripts/vm3_stop.sh &
            /usr/local/emhttp/webGui/scripts/notify -e "Unraid Server Notice" -s "VM Info, "$1", "$2", "$3"" -i "normal" &
    fi
    exit 0;

     

    In diesem Script wird die GPU bei Start der entsprechenden VM aus dem Ruhezustand rausgeholt und nach Beenden der VM wieder gestartet. In meinem Beispiel ist die dGPU an die VM1 und VM2 durchgereicht. VM3 nutzt die dGPU nicht. 

     

    • Das Script ausführbar machen
    chmod +x /etc/libvirt/hooks/qemu.d/hook_scripts

     

    • Als nächstes erstellen wir die ausführbaren Dateien, die den Ruhezustand entsprechend Ein- oder Ausschalten. Diese nenne ich in meinem Beispiel vm1_start.sh und vm1_stop.sh (siehe auch im Script oben. Also Nr. 1:
    nano /mnt/cache/system/hook_scripts/vm1_start.sh

     

    und kopieren den folgenden Inhalt rein:

     

    #!/bin/bash
    
    nvidia-smi -i 0 -pm 0 &
    
    sleep 1
    
    exit 0;

     

    Und Nr. 2:

     

    nano /mnt/cache/system/hook_scripts/vm1_stop.sh

     

    #!/bin/bash
    
    nvidia-smi -i 0 -pm 1 &
    
    sleep 1
    
    exit 0;

     

    • Auch diese beiden Dateien machen wir ausführbar:

     

    chmod +x /mnt/cache/system/hook_scripts/vm1_start.sh
    chmod +x /mnt/cache/system/hook_scripts/vm1_stop.sh

     

    Sind die Nvidia Treiber (das Plugin) installiert, muss unter Umständen die VM XML angepasst werden. Auch dazu hat Alturismo schon eine tolle Zusammenfassung geschrieben, was wie in der XML angepasst werden muss.

    Zufällig musste ich an meinen nichts ändern und die VMs haben genauso gestartet wie vorher.

     

    Die Quellen sind: 

     

    https://forums.unraid.net/topic/158529-nach-einbau-rtx-3060-ti/

    https://forums.unraid.net/topic/154738-vm-für-gaming-etwas-laggy/

     

    Herzlichen Dank an Alturismo, ich777, DataCollector und zero_neverload für die Unterstützung. Falls ich noch etwas ergänzen / ändern soll, bitte eine Info.

     

    Michael

    • Thanks 1
  14. Ne, die Nextcloud und Matrix VMs kannst du schonmal ausklammern. Das habe ich ja schon auf die Dockerversionen umgezogen. Bevor ich die VMs aber lösche, teste ich die Dockerversionen aber erst noch ein bisschen.

     

    Bzgl. HomeAssistant mache ich mir noch Gedanken, ob ich auf ioBroker umsteige, oder mir nochmal die normale HomeAssistant Version ansehe. Vielleicht reicht es ja inzwischen tatsächlich 

  15. Guten Morgen,

     

    ich bin inzwischen ein ganzes Stückchen weiter und vom Grundprinzip bestimmt auf dem richtigen Weg.

    - Ich habe die hook_scripts soweit eingerichtet und ausführbar gemacht.

    - Die Nvidia Treiber (Plugin) sind installiert.

    - Die VFIO Binds rausgenommen

     

    Manuell gestartet funktionieren auch meine mikavm_start.sh und mikavm_stop.sh und der persistence-mode wird entsprechend ein- oder ausgeschaltet. So bin ich dann übrigens bei ausgeschalteter HomeAssistant VM bei 49W, wobei ich noch immer nicht wirklich über C2 hinauskomme.. Aber darum kümmere ich mich, wenn die VMs wieder starten. 

     

    Starte ich jetzt jedoch die HomeAssistant VM erscheint die Fehlermeldung (Anhang). Benenne ich den qemu.d Ordner vorübergehend um, startet sie natürlich wieder. Was übersehe ich denn da?

     

    Viele Grüße

    Michael

    Screenshot 2024-03-29 075449.png

    Screenshot 2024-03-29 080950.png

  16. Ich schaue mir ioBroker nochmal an. Ist zugegeben schon etwas her, dass ich damit Berührungspunkte hatte.


    Ich nutze noch immer einige Homematic-Geräte, die ich damals nicht ohne Probleme in die normale Version vom Homeassistant integrieren konnte. Dann wollte ich auch HACS nutzen. Es gab einfach einige Abstriche.

    Ich habe noch einen HP Thinclient rumliegen, auf den ich das zur Not installieren könnte. Nur muss ich da erstmal den Verbrauch messen. Nicht, dass es in Summe nachher nichts bringt

×
×
  • Create New...