olco

Members
  • Posts

    46
  • Joined

  • Last visited

Everything posted by olco

  1. I have been enthusiastically using Baikal as a Docker container for our family appointments for about a year. When I switched to a new smartphone, I realized that I could no longer log in with existing users. I searched high and low but couldn't find a solution. I can still log in as an admin, but not with the users via http://ip-adress/dav.php. Neither via DAVx5 nor via web browser does this work. My wife can still create and synchronize appointments, but she hasn't changed her smartphone in the meantime. However, when I create a new user, logging in via browser and DAVx5 is possible without any problems.
  2. Hi, ich habe etwa ein Jahr begeistert Baikal als Docker Container genutzt für unsere Termine als Familie. Nun stellte ich bei Wechsel aufs neue Smartphone fest, dass ich mich mit bestehenden Nutzern nicht mehr einloggen kann. Habe dann kreuz und quer gesucht aber keine Lösung gefunden. Als Admin kann ich mich noch anmelden, aber nicht mit den Nutzern per ip/dav.php. Weder per DAVx5 noch per Webbrowser funktioniert dies. Meine Frau kann noch Termine erstellen und synchronisieren, die hat aber auch ihr Smartphone nicht gewechselt zwischenzeitlich. Wenn ich allerdings einen neuen Nutzer anlege, dann ist das Einloggen per Browser und DAVx5 ohne Probleme möglich. Etwas aus Verzweiflung und in der Hoffnung, dass hier jmd. Baikal nutzt, wende ich mich mal an euch. LG
  3. @mbentley Do I have to insert the name of my omada docker container or the name of my omada controller? docker inspect --format '{{json .Mounts}}' Omada-Controller [{"Type":"volume","Name":"a13fa10908be8af6443af13b1d41a1a8ffa0fbd1f9fa8e98224ae985e83e679d","Source":"/var/lib/docker/volumes/a13fa10908be8af6443af13b1d41a1a8ffa0fbd1f9fa8e98224ae985e83e679d/_data","Destination":"/opt/tplink/EAPController/data","Driver":"local","Mode":"","RW":true,"Propagation":""},{"Type":"volume","Name":"9038ba554ee7b24e19c77106f41be5313d61031dff1c5d6ba64e149a24dc1a3f","Source":"/var/lib/docker/volumes/9038ba554ee7b24e19c77106f41be5313d61031dff1c5d6ba64e149a24dc1a3f/_data","Destination":"/opt/tplink/EAPController/logs","Driver":"local","Mode":"","RW":true,"Propagation":""}] Worked like a charm, thanks!
  4. My first guess was, config might be the folder of the omada Controller but seems like it isn't:
  5. I can see a folder for each of my docker containers in /mnt/user/appdata but none for the omada-controller. Settings > Docker shows me Default appdata storage location: /mnt/user/appdata/ The data of the running omada controller docker has to be somewhere.. Edit: I can only find one folder including the term "omada".
  6. I had the same problem. After I carried out the configuration again, I noticed that there were no paths for the data specified for the docker container. Now my idea would be to stop the container, copy the data to appdata and assign this path to the container. Then start the container and hope that the data is taken over. However, I would need to know where the container's data is currently located. How can I find out?
  7. So now I chose the "At Startup of Array" as start option for the script. The script creates the two folders, which get removed everytime I reboot the server, but it doesn't mount the rclone remote and it doesn't start the embyserver docker. When I abort the script and manually run it again, one time, the remote gets mounted and embyserver docker starts. It doesn't seem like a complex script to me ;) #!/bin/bash sleep 60 mkdir /mnt/gsuite sleep 5 mkdir /mnt/gsuite/media sleep 5 rclone mount gsuitemedia:/Medien /mnt/gsuite/media --allow-other --buffer-size 100M --dir-cache-time 72h --drive-chunk-size 32M --umask 002 --vfs-read-chunk-size 128M --vfs-read-chunk-size-limit off --read-only sleep 10 docker container start EmbyServer
  8. I would like my rclone-remote to be mounted when the server starts. Only after mounting the remote I want EmbyServer to start Docker. I have tried to do this via the User Scripts plugin. However, there are problems with this. First, the directory "/mnt/gsuite/media" is deleted on every startup, so I added "mkdir /mnt/gsuite" and "mkdir /mnt/gsuite/media" to the User Script. As trigger for the script I defined "@reboot". Nevertheless, nothing happens when the server is started. At the first manual start of the script the rclone-remote is mounted. Docker is not started until the second manual execution of the script. Does anyone know what could be the reason for this?
  9. I would like to run a script after the server is started. Can I achieve this by adding "@reboot" under crontab? Because this does not work for me. Furthermore, the script should also start a Docker container. Are the permissions sufficient for this? Currently it seems that the script does not start after restarting the server. If I run it manually in the background, then a part is processed, but the Docker container does not start. When I run it a second time, the Docker container also starts.
  10. How is it possible to remove credentials from the wallet? There is an unused user which is always taken as the standard user and password because in alphabetical order it is before the new user which would be the right one.
  11. So you would recommend using nextcloud instead, if I only want to access my network and server via VPN, installing nextcoud would be enough? No duckdns, letsencrypt, mariadb, nginx... needed?
  12. Habe dein Angebot, mir deine PicoPSU zu leihen erst jetzt gelesen. Danke dafür aber ich glaube, da andere User auch keinen niedrigeren Verbrauch hinbekommen, belasse ich es auch dabei. Ich nutze ein be quiet! Pure Power 11 CM 400W, das hatte ich vor Kauf für einigermaßen effizient gehalten.
  13. I would like to access Krusader via smartphone and tablet. When I am using fennec browser to open the webui, I can access krusader but curser jumps to the spot where I touch the screen, it isn't really handy to use. How are you using krusader via smartphone or tablet?
  14. Musste erstmal nachlesen, wieso DRAM wichtig ist. Dann warte ich mal auf einen guten Preis für die WD SN750.
  15. Die WD SN550 1TB hat 3D-Nano TLC Zellen, TBW beträgt 600TB. Allerdings besitzt die SSD keinen DRAM.
  16. Noch was anderes, es gibt doch irgendwo im Board oder Wiki eine Liste mit Einschätzung diverser SSD und inwiefern die sich als Cache sinnvoll einsetzen lassen. Ich finde den Beitrag aber nicht mehr. Ich hatte mich gefragt, ob sich die WD Blue SN550 1TB anbietet, die gibt es ja immer wieder recht günstig im Angebot.
  17. Ich wunderte mich auch eher, dass direkt über 200GB von den 250GB belegt waren. Aber lag ja an der falschen Cache Einstellung für das Medien Verzeichnis. Das Docker Image ist jetzt auf 20GB festgelegt. Ergo werden die 20GB auch bereits verwendet. Ist das denn dann die Größe für alle Docker, die ich erstelle oder jeweils für jeden Dienst der als Docker läuft zusätzlich 20GB? Letzteres käme mir doch sehr viel vor.
  18. Ich habe aktuell noch keinerlei Docker eingerichtet und installiert. Ebenso sind keinerlei VMs erstellt. Die Spielerei geht jetzt erst mit SSD los. Docker vDisk size ist auf 20gb eingestellt.
  19. @Ford Prefect Ich habe die SSD als Cache eingebaut und dann die shares /mnt/user/appdata, /mn/user/system und /mnt/user/domains auf prefer gesetzt. Anschließend habe ich den Mover manuell gestartet. Nun habe ich festgestellt, dass die 250GB SSD schon bis auf 30GB befüllt wurde. Mein share "Medien" ist auch auf prefer gestellt. Das scheint aber automatisch passiert zu sein. Das habe ich nicht eigenständig geändert. Muss ich das einmal ändern, damit eben meine Daten im cache vorgehalten werden in Form eines Read-Cache? Denn das will ich ja nicht. Edit: Habe hier gelesen, dass offenbar "yes" für mein Medienverzeichnis die richtige Wahl ist. Habe es daher umgestellt und wieder den Mover angestoßen.
  20. Guten Abend, ich schreibe normalerweise nicht viele Daten auf einmal auf mein Array und habe noch eine Samsung SATA SSD aus meinem Desktop Rechner ausrangiert. Nun könnte ich natürlich ebenso eine NVMe SSD kaufen aber zum Testen würde ich gerne zunächst die vorhadene SATA SSD nutzen. Normalerweise hätte ich gesagt ich nutze die SSD nur für Docker, von denen ich eh nicht viele habe. Dann ist aber immer noch Speicher frei, daher war meine Überlegung fix 150GB als Write Cache zu verwenden. Habe zwar schon im Wiki gelesen aber bin nicht ganz schlau draus geworden. Kann ich das so definieren? Hat jemand eine Anleitung für mich?
  21. Dass alle HDDs, nachdem das System per WOL geweckt wird, hochdrehen, ist das eine Sache vom Mainboard oder vom OS? Hatte gestern Mal herumprobiert und da fiel mir das auf.
  22. Fürs Transcoding in Plex hattest du die GPU drinnen? Brauche ich aktuell nicht, dann kann ich es raus lassen. Aber der Stromverbrauch ist auch noch immer gleich bei 22Watt.
  23. Auch wenn ich das Fenster größer ziehe, den Zoom auf 50% stelle oder runter scrolle, da steht bei mir nichts von der iGPU. Komisch. Unter Tunables steht alles auf "Good". Ja vielleicht liegt es an dem "Messgerät". Muss im Keller mal suchen, ob ich da noch eine 100Watt Birne finde oder ähnliches. 60Wat sollten es ja auch tun. Sonst kann es ja eigentlich nur am Sata Controller liegen aber dass der so viel Energie benötigt kann ich mir kaum vorstellen.