gilladur

Members
  • Posts

    74
  • Joined

  • Last visited

About gilladur

  • Birthday July 19

Converted

  • Personal Text
    Server:
    M/B: Supermicro X11SCH-LN4F Version 1.01 / BIOS: AMI 1.5 / CPU: Intel® Xeon® E-2246G / Memory: 32 GiB DDR4 ECC
    Array 4 x WD 8T / Cache 2 x Kingston DC500M 960GB / Apps 1TB Samsung 970Pro

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

gilladur's Achievements

Apprentice

Apprentice (3/14)

11

Reputation

  1. So wie ich das verstanden habe, ist das SVG Problem kein wirkliches Problem - nur wenn man SVG Dateien auf der Nextcloud verarbeiten möchte, dann hat man das passende Tool für imagick mit installiert. Das ist also höchstens eine Optimierung für SVG, aber sicher kein muss. Für die Verwendung eines eigenen Icons kann das Tool wohl eine Rolle spielen: Die Installation durchzuführen gibt einem also in den meisten Fällen nur das Gefühl, die Meldung nicht mehr angezeigt zu bekommen 😊
  2. As far as I understood, the only thing needed is to turn off the "mysqueezebox.com-Service" plugin and that's it. I've also installed the replacement Tidal Plugin by "philippe_44, Michael Herger" and that's working perfect so far + I removed the old Logitech hosted plugins Tidal, Deezer etc.
  3. I've actually done it already and the warning is gone 🙂 but I agree the documentation is quite hard to overlook. Basically, you just need to set up these two variables in the container in two steps... 1. add the universal-package-installl Mod by adding a new variable to the container (2. screenshot) linuxserver/mods:universal-package-install 2. save -> apply which restarts the Docker 3. Add a new variable "Install Packages" which lists the stuff for the mod to be installed on the next restart, in our case: imagemagick-svg After save and apply, the packet should be installed during restart of the container and the warning should be gone This should be also shown in the logs of container There is a good video on how use these Mods particular useful for the SWAG container - but the approach is the same: hope that helps 🙂
  4. Das wird es wahrscheinlich sein, da ich die Version von linuxserver.io nutze. ---------------------------------------------------------------------------- Nur als Ergänzung, man kann auch mit der Linuxserver.io Version das SVG Problem lösen, und zwar über die Docker Mods, die mit dem io-container kommen - über diesen Weg kann man das Paket "imagemagick-svg" nachinstallieren: https://github.com/linuxserver/docker-mods/tree/universal-package-install Wie die Docker Mods funktionieren, kann man in diesem Video erfahren: die Mods die ich jetzt lade "linuxserver/mods:universal-docker|linuxserver/mods:universal-package-install" - wie es grundsätzlich funktioniert wird in dem Video gut erklärt
  5. Hallo, vielleicht eine dumme Frage beim Hinzufügen dieses Postarguments bekomme ich folgende Fehlermeldung Den apt Befehl kennt mein Unraid wohl nicht und das einzige, was ich dazu gefunden habe, ist der Hinweis das gar nicht zu nutzen: Wo habe ich da meinen Denkfehler?
  6. I have the same error with the missing SVG support. @blaine07 do I understand the github page correct, that it will be added later? I'm a bit confused how to fix or if I need to fix the issue? Edit: I've found the answer in the IO Discord by Driz- you could install the needed package via Docker Mods:
  7. Ich hatte mich da gestern auch noch etwas eingelesen und es wird - um an eine korrekt konfigurierte yaml zu kommen - empfohlen diese zuerst durch eine lokale Installation zu erzeugen und dann in den Docker zu kopieren.
  8. Ich hänge leider auch bei dem Problem, dass die yaml als Ordner und nicht als Date angelegt wird.
  9. Hi Tuetenk0pp, where you actually able to fix the issue. I'm running currently into the same issues with my Win 10 VM. My Home assistant VM is not affected.
  10. Community Apps tells me about Photoprism after I've updated the docker: Is that correct @ich777
  11. Hi ich777, erst einmal vielen Dank für die sehr gute Anleitung. Es hat alles auf Anhieb geklappt. Ich hätte nur eine Frage, vielleicht wurde die auch schon beantwortet, welche Einstellungen sind denn für den Lancache sinnvoll. Mich wundert z.B. die lange Vorhaltezeit von 3650 Tagen: -e CACHE_MAX_AGE="3650d" \ Oder verstehe ich da was falsch. Wenn ich das nachträglich ändern will z.B. auf 300 Tage - wie mache ich das am besten. Im Terminal z.B. über diese Befehle (aus der update-containers.de ausgeliehen): # pull new containers docker pull lancachenet/monolithic # stop containers docker container stop LANCache # remove containers docker container rm LANCache # start container again # LANCache Monolithic docker run -d --name='LANCache' \ --net='bridge' \ -e CACHE_DISK_SIZE="1000000m" \ -e CACHE_INDEX_SIZE="250m" \ -e CACHE_MAX_AGE="300d" \ -e TZ="Europe/Vienna" \ -v '/mnt/lancache/cache':'/data/cache':'rw' \ -v '/mnt/lancache/logs':'/data/logs':'rw' \ -p 80:80 -p 443:443 \ --no-healthcheck --restart=unless-stopped \ 'lancachenet/monolithic' # remove dangling images docker rmi $(docker images -f dangling=true -q) # clear access log from lancache monolithic echo -n "" > /mnt/lancache/logs/access.log Was mir in Bezug auf Adguard übel aufgestoßen ist, ist diese Anmerkung zu der DNS Blockliste von ph00lt0: "We recommend against using the AdGuard DNS filter, they whitellist many tracking domains using @@ which overwrite your settings in the name of functionality. They allow for trackers in emails links and page ads in search results, something we do not compromise for." Und wenn man sich die DNS Liste anschaut, dann findet man wirklich diese Einträge, die alle anderen Regeln überschreiben/whitelisten: @@||ad.10010.com^ @@||ad.abchina.com^ @@||ad.kazakinfo.com^ @@||ad.ourgame.com^ @@||adcdn.pingan.com^ @@||advert.kf5.com^ @@||api.ads.tvb.com^ @@||app-advertise.zhihuishu.com^ @@||buyad.bi-xenon.cn^ @@||captcha.su.baidu.com^ @@||img.ads.tvb.com^ So etwas gibt es bei Pi-Hole nicht. Was denkt ihr dazu? Dann noch eine kurze letzte Frage, habt ihr DNSSEC in Adguard aktiviert? Unbound kann ja die Anfragen nicht verschlüsselt senden, da die Root-Nameserver das DNS over HTTPS (DoH) Protokolle (noch) nicht unterstützen. "Unbound unterstützt zwar DNS over TLS (DoT) und auch DNS over HTTPS (DoH), aber die Root-Nameserver unterstützen diese Protokolle (noch) nicht. Wenn wir also auf einen DNS-Mittelsmann verzichten wollen, müssen wir auch auf die Verschlüsselung unserer DNS-Anfragen verzichten. Der Einsatz von DNSSEC unter unbound stellt aber zumindest sicher, dass die zurückgelieferten Daten echt (Authentizität) und unverändert (Integrität) sind." kuketz-blog.de
  12. I've dived a bit deeper in the dump_all command could it be that the option -s is incorrect? # pg_dump -U nextcloud -s > /var/lib/postgresql/data/bak.sql according to the postgres documentation: This would explain why no data is in the tables after import and therefore I can't login with my login data or? Edit: dumping the Database without -s did the trick - Nextcloud is now running fine under V15 pg_dumpall -U nextcloud > /var/lib/postgresql/data/bak14.sql ==>
  13. Hi jj9987, I've used the Dump all data from the old version and imported it into the new V15 docker - the same way CryPt00n explained it. According to the logs all connections seem to work. Still can't login in the web interface. Could it be, that the password encryption changed between V14 and V15? Edit: I've checked the tables in adminer and unfortunately they are there but empty - somehow the data is not imported properly with the command psql -U nextcloud -d nextcloud < /var/lib/postgresql/data/bak.sql if you wonder, my database is named only nextcloud
  14. Thank you for your very clear explanation. I've followed it and it seems all fine regarding nextcloud being able to connect to the V15 if it's active. Nevertheless, I can't login into the webUI into my Nextcloud - it says that the User or Password is wrong. If I switch back to V14 everything works again. Any idea?
  15. The only thing you have to do is to add ":2023.3.22-38414355" like in the picture under repository - by that way this particular working build is used: