olco

Members
  • Posts

    46
  • Joined

  • Last visited

Posts posted by olco

  1. I have been enthusiastically using Baikal as a Docker container for our family appointments for about a year. When I switched to a new smartphone, I realized that I could no longer log in with existing users.

    I searched high and low but couldn't find a solution.

     

    I can still log in as an admin, but not with the users via http://ip-adress/dav.php. Neither via DAVx5 nor via web browser does this work. My wife can still create and synchronize appointments, but she hasn't changed her smartphone in the meantime.

     

    However, when I create a new user, logging in via browser and DAVx5 is possible without any problems.

  2. Hi,

    ich habe etwa ein Jahr begeistert Baikal als Docker Container genutzt für unsere Termine als Familie. Nun stellte ich bei Wechsel aufs neue Smartphone fest, dass ich mich mit bestehenden Nutzern nicht mehr einloggen kann.

    Habe dann kreuz und quer gesucht aber keine Lösung gefunden.

     

    Als Admin kann ich mich noch anmelden, aber nicht mit den Nutzern per ip/dav.php. Weder per DAVx5 noch per Webbrowser funktioniert dies. Meine Frau kann noch Termine erstellen und synchronisieren, die hat aber auch ihr Smartphone nicht gewechselt zwischenzeitlich.

     

    Wenn ich allerdings einen neuen Nutzer anlege, dann ist das Einloggen per Browser und DAVx5 ohne Probleme möglich.

     

    Etwas aus Verzweiflung und in der Hoffnung, dass hier jmd. Baikal nutzt, wende ich mich mal an euch.

     

    LG

  3. @mbentley

    Do I have to insert the name of my omada docker container or the name of my omada controller?

     

    docker inspect --format '{{json .Mounts}}' Omada-Controller
    [{"Type":"volume","Name":"a13fa10908be8af6443af13b1d41a1a8ffa0fbd1f9fa8e98224ae985e83e679d","Source":"/var/lib/docker/volumes/a13fa10908be8af6443af13b1d41a1a8ffa0fbd1f9fa8e98224ae985e83e679d/_data","Destination":"/opt/tplink/EAPController/data","Driver":"local","Mode":"","RW":true,"Propagation":""},{"Type":"volume","Name":"9038ba554ee7b24e19c77106f41be5313d61031dff1c5d6ba64e149a24dc1a3f","Source":"/var/lib/docker/volumes/9038ba554ee7b24e19c77106f41be5313d61031dff1c5d6ba64e149a24dc1a3f/_data","Destination":"/opt/tplink/EAPController/logs","Driver":"local","Mode":"","RW":true,"Propagation":""}]

     

     

    Worked like a charm, thanks!

  4. 1 hour ago, mbentley said:

    If you don't know where the container is mounted the data, you can use docker inspect to find out:

     

    This just lists the mounts:

     

    # docker inspect omada-controller | jq '.[]|.Mounts'
    [
      {
        "Type": "bind",
        "Source": "/zfs/apps/omada-controller/cert",
        "Destination": "/cert",
        "Mode": "",
        "RW": false,
        "Propagation": "rprivate"
      },
      {
        "Type": "bind",
        "Source": "/zfs/apps/omada-controller/data",
        "Destination": "/opt/tplink/EAPController/data",
        "Mode": "",
        "RW": true,
        "Propagation": "rprivate"
      },
      {
        "Type": "bind",
        "Source": "/zfs/apps/omada-controller/logs",
        "Destination": "/opt/tplink/EAPController/logs",
        "Mode": "",
        "RW": true,
        "Propagation": "rprivate"
      }
    ]

     

    Or if you don't have jq:

     

    # docker inspect --format '{{json .Mounts}}' omada-controller
    [{"Type":"bind","Source":"/zfs/apps/omada-controller/data","Destination":"/opt/tplink/EAPController/data","Mode":"","RW":true,"Propagation":"rprivate"},{"Type":"bind","Source":"/zfs/apps/omada-controller/logs","Destination":"/opt/tplink/EAPController/logs","Mode":"","RW":true,"Propagation":"rprivate"},{"Type":"bind","Source":"/zfs/apps/omada-controller/cert","Destination":"/cert","Mode":"","RW":false,"Propagation":"rprivate"}]

     

    Screenshot_20231120_124212_Termius.thumb.jpg.485b2232374174e1f700a949efd0805a.jpg

  5. I can see a folder for each of my docker containers in /mnt/user/appdata but none for the omada-controller.

     

    Settings > Docker shows me Default appdata storage location: /mnt/user/appdata/

     

    The data of the running omada controller docker has to be somewhere..

     

    Edit:

    I can only find one folder including the term "omada".

    Screenshot_20231120_001811_Termius.thumb.jpg.e4394001c0bfe2ba07f8c4c4773f940f.jpg

  6. I had the same problem. After I carried out the configuration again, I noticed that there were no paths for the data specified for the docker container.

     

    Now my idea would be to stop the container, copy the data to appdata and assign this path to the container. Then start the container and hope that the data is taken over.

     

    However, I would need to know where the container's data is currently located. How can I find out?

  7. So now I chose the "At Startup of Array" as start option for the script.

     

    The script creates the two folders, which get removed everytime I reboot the server, but it doesn't mount the rclone remote and it doesn't start the embyserver docker. When I abort the script and manually run it again, one time, the remote gets mounted and embyserver docker starts.

     

    It doesn't seem like a complex script to me ;)

     

    #!/bin/bash
    sleep 60
    mkdir /mnt/gsuite
    sleep 5
    mkdir /mnt/gsuite/media
    sleep 5
    rclone mount gsuitemedia:/Medien /mnt/gsuite/media --allow-other --buffer-size 100M --dir-cache-time 72h --drive-chunk-size 32M --umask 002 --vfs-read-chunk-size 128M --vfs-read-chunk-size-limit off --read-only
    sleep 10
    docker container start EmbyServer

     

  8. I would like my rclone-remote to be mounted when the server starts. Only after mounting the remote I want EmbyServer to start Docker.

    I have tried to do this via the User Scripts plugin.
    However, there are problems with this. First, the directory "/mnt/gsuite/media" is deleted on every startup, so I added "mkdir /mnt/gsuite" and "mkdir /mnt/gsuite/media" to the User Script.

    As trigger for the script I defined "@reboot". Nevertheless, nothing happens when the server is started. At the first manual start of the script the rclone-remote is mounted. Docker is not started until the second manual execution of the script.

    Does anyone know what could be the reason for this?

  9. I would like to run a script after the server is started. Can I achieve this by adding "@reboot" under crontab? Because this does not work for me.

     

    Furthermore, the script should also start a Docker container. Are the permissions sufficient for this?

     

    Currently it seems that the script does not start after restarting the server. If I run it manually in the background, then a part is processed, but the Docker container does not start. When I run it a second time, the Docker container also starts.

  10. 26 minutes ago, mgutt said:

    Krusader is not mobile friendly. The better tool for mobile usage is Nextcloud. 

     

    So you would recommend using nextcloud instead, if I only want to access my network and server via VPN, installing nextcoud would be enough? No duckdns, letsencrypt, mariadb, nginx... needed?

  11. On 2/16/2021 at 10:12 AM, mgutt said:

     

    Kannst du den Controller eigentlich über das BIOS deaktivieren und hattest du die HDDs an anderen SATA Ports?

     

    Du hattest auch meine ich nicht gesagt welches Netzteil du verwendest. Wenn du willst, kann ich dir mal meine PicoPSU ausleihen. Als Warensendung kostet das Porto 2,20 €. Dann könntest du mal prüfen wie viel dein Netzteil ausmacht.

     

    Habe dein Angebot, mir deine PicoPSU zu leihen erst jetzt gelesen.

    Danke dafür aber ich glaube, da andere User auch keinen niedrigeren Verbrauch hinbekommen, belasse ich es auch dabei.

     

    Ich nutze ein be quiet! Pure Power 11 CM 400W, das hatte ich vor Kauf für einigermaßen effizient gehalten.

  12. I would like to access Krusader via smartphone and tablet.

     

    When I am using fennec browser to open the webui, I can access krusader but curser jumps to the spot where I touch the screen, it isn't really handy to use.

    How are you using krusader via smartphone or tablet?

  13. Noch was anderes, es gibt doch irgendwo im Board oder Wiki eine Liste mit Einschätzung diverser SSD und inwiefern die sich als Cache sinnvoll einsetzen lassen. Ich finde den Beitrag aber nicht mehr.

     

    Ich hatte mich gefragt, ob sich die WD Blue SN550 1TB anbietet, die gibt es ja immer wieder recht günstig im Angebot.

  14. Ich wunderte mich auch eher, dass direkt über 200GB von den 250GB belegt waren.

    Aber lag ja an der falschen Cache Einstellung für das Medien Verzeichnis.

     

    Das Docker Image ist jetzt auf 20GB festgelegt.

    Ergo werden die 20GB auch bereits verwendet.

    Ist das denn dann die Größe für alle Docker, die ich erstelle oder jeweils für jeden Dienst der als Docker läuft zusätzlich 20GB? Letzteres käme mir doch sehr viel vor.

  15. @Ford Prefect

    Ich habe die SSD als Cache eingebaut und dann die shares /mnt/user/appdata, /mn/user/system und /mnt/user/domains auf prefer gesetzt.

    Anschließend habe ich den Mover manuell gestartet.

     

    Nun habe ich festgestellt, dass die 250GB SSD schon bis auf 30GB befüllt wurde.

    Mein share "Medien" ist auch auf prefer gestellt. Das scheint aber automatisch passiert zu sein.

    Das habe ich nicht eigenständig geändert.

     

    Muss ich das einmal ändern, damit eben meine Daten im cache vorgehalten werden in Form eines Read-Cache?

    Denn das will ich ja nicht.

     

    Edit:

    Habe hier gelesen, dass offenbar "yes" für mein Medienverzeichnis die richtige Wahl ist.

    Habe es daher umgestellt und wieder den Mover angestoßen.

  16. Guten Abend,

     

    ich schreibe normalerweise nicht viele Daten auf einmal auf mein Array und habe noch eine Samsung SATA SSD aus meinem Desktop Rechner ausrangiert. Nun könnte ich natürlich ebenso eine NVMe SSD kaufen aber zum Testen würde ich gerne zunächst die vorhadene SATA SSD nutzen.

     

    Normalerweise hätte ich gesagt ich nutze die SSD nur für Docker, von denen ich eh nicht viele habe.

    Dann ist aber immer noch Speicher frei, daher war meine Überlegung fix 150GB als Write Cache zu verwenden.

     

    Habe zwar schon im Wiki gelesen aber bin nicht ganz schlau draus geworden.

    Kann ich das so definieren?
    Hat jemand eine Anleitung für mich?

  17. Auch wenn ich das Fenster größer ziehe, den Zoom auf 50% stelle oder runter scrolle, da steht bei mir nichts von der iGPU. Komisch.

     

    Unter Tunables steht alles auf "Good".

     

    Ja vielleicht liegt es an dem "Messgerät". Muss im Keller mal suchen, ob ich da noch eine 100Watt Birne finde oder ähnliches.

    60Wat sollten es ja auch tun.

     

    Sonst kann es ja eigentlich nur am Sata Controller liegen aber dass der so viel Energie benötigt kann ich mir kaum vorstellen.

    powertop gpu fehlt.png

    powertop tunables.PNG