Voss

Members
  • Posts

    29
  • Joined

Everything posted by Voss

  1. Schau über ipleak.net welche DNS Server verwendet werden sobald Werbung auf deinen Smartphones angezeigt wird und vergleiche diese mit denen der lokalen PCs als auch deinen Upstream-DNS-Servern in den Adguard Home Einstellungen. Bei mir hatte ich schon den Fall, dass sich das Android Smartphone immer automatisch mit einem DoT-Server (kann man einstellen) verbunden hatte und so den heimischen DNS Server überbrückt hatte.
  2. Danke für eure Antworten 😊 Die Informationen haben mir sehr geholfen, das Problem einzugrenzen. Es lag letztlich an dem S3-Sleep-Plugin, welches ich wenige Tage vor meinem Powertop-Experiment aktiviert hatte: Dieses hatte nach einer gewissen Zeit in der Nacht versucht, den Rechner in den Standby zu schicken, aber dem syslog konnte ich entnehmen, dass es aus irgendwelchen Gründen nicht geklappt hat. Dennoch wurden beim Versuch die USB-Geräte von der Homeassistant-VM getrennt. Ich habe gestern Abend das Plugin abgeschaltet und seitdem keine Probleme mehr mit den USB-Dongles gehabt. Daher nochmal vielen Dank für eure Hinweise 😊 Ob und, falls ja, wie Powertop da eine Rolle spielte werde ich demnächst nochmal genauer beobachten.
  3. Die beiden USB Dongles sind ja nicht nur temporär weg, sondern so lange bis ich sie wieder manuell trenne und verbinde (via USB Menü). Ich frage mich halt warum eine Trennung der beiden USB Dongles überhaupt stattfindet, wo es vor meinem "Experiment" mit powertop wochenlang funktioniert hatte. Das war auch der Grund warum ich das USBIP Plugin und den RPi als Fehlerquelle recht schnell ausgeschlossen hatte. EDIT: Ok habe soeben festgestellt, das powertop nach einem Neustart wohl automatisch wieder installiert wird: Ich hatte es zuletzt via powertop deinstalliert und nicht wieder neu installiert. Die Go-Datei ist bei mir ohne (mir bekannte) Befehle, die eine automatische Installation zum Neustart begründen: #!/bin/bash # Start the Management Utility /usr/local/sbin/emhttp & Auch die User Scripts weisen keine Auffälligkeiten auf. Gibt es noch andere Orte, wo ich nach Befehlszeilen o.ä. für automatische Installationen suchen könnte?
  4. Hallo zusammen, bei mir läuft Home Assistant als VM in Unraid. Notwendige USB-Geräte (Sonoff Zigbee 3.0 USB_Dongle Plus und Silicon Labs eQ-3 HmIP-RFUSB) sind via usbip (Quelle ist ein Raspberry Pi 3B+ im Keller) am Unraid-Server angeschlossen und werden zur HA-VM durchgereicht. Nun habe ich vor ca. einer Woche powertop installiert und seitdem werden die USB-Dongles regelmäßig nach einer gewissen Laufzeit (< 4 Std.) aus Home Assistant "entfernt". In Unraid sehe ich diese weiterhin über lsusb angezeigt. Im USB-Menü in Unraid werden die beiden Dongles weiterhin der VM als zugeordnet angezeigt. Erst wenn ich hier die Dongles manuell trenne und wieder hinzufüge werden sie wieder in Home Assistant erkannt. Meine Lösungsansätze waren bereits wie folgt: - powertop deinstallieren - Server neu starten - usbip-Quelle (Raspberry Pi 3B+) neu starten - direkte Zuordnung der USB-Dongles im VM-Template Leider alles ohne langfristigen Erfolg. Meine Vermutung ist, dass powertop ggf. irgendwas in den Systemeinstellungen geändert hat, was die Dongles nach gewisser Zeit in den Standby-Zustand versetzt. Allerdings fehlt mir das Know-How dies konkret zu ermitteln und ich bin mir weiterhin auch nicht sicher, ob das die finale Ursache ist. Vielleicht hatte jemand hier schon ein ähnliches Problem und kann weiterhin? Bin für jeden Hinweis dankbar ikarus-diagnostics-20240224-0838.zip
  5. Ich hatte mir seinerzeit die APC-Back-UPS Pro BR1200GI angeschafft. Lässt sich einwandfrei über die Einstellungen steuern.
  6. I'm using NPM too. Firefly also works fine for me. Only Data-Importer shows error 502 when I try to open the WebUI via reverse proxy. Were you able to connect both containers via your reverse proxy?
  7. Hi and thanks for the two containers I have been using them for a short time and am currently trying to get the Firefly III importer to work, however I am having problems accessing the WebUI via a reverse proxy. I have already added the variable TRUSTED_PROXIES with the value "**" to the template, however I still get the error message "502 Bad Gateway" - as if the container is blocking access. this is the log output: <IP of Reverse Proxy)> - - [29/May/2022:19:43:03 +0200] "GET /favicon.ico HTTP/1.1" 200 243 "https://<url for Firefly Importer>/token" "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:100.0) Gecko/20100101 Firefox/100.0 [2022-05-29 19:44:08] production.INFO: The following configuration information was found: [2022-05-29 19:44:08] production.INFO: Personal Access Token: "XXXXXXX" (limited to 25 chars if present) [2022-05-29 19:44:08] production.INFO: Client ID : "0" [2022-05-29 19:44:08] production.INFO: Base URL : "http://XXX.XXX.XXX.XXX:8080" [2022-05-29 19:44:08] production.INFO: Vanity URL : "https://xxx.xxx.org" 172.18.0.7 - - [29/May/2022:19:44:08 +0200] "GET /token HTTP/1.1" 302 4612 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:100.0) Gecko/20100101 Firefox/100.0" Can you help me?
  8. Hello everyone, is there any way to execute the command 'ip route del 192.168.100.0/24' every time the container "AdGuard-Home" is started? I tried different ways, e.g. via "Post Arguments" or "Extra Parameters" in the Docker template, without success. A Google search brought me to terms like "ENTRYPOINT" and "CMD", but I was not clear where to insert these commands.
  9. War es auch Um es kurz zu erläutern: Die FritzBox 4040 hat den physischen WAN-Port an eth1 und die vier physischen LAN-Ports fest an eth0 gebunden. Daher ist die Einbindung selbst innerhalb von OpenWrt etwas "exotisches" - mehr dazu kann man hier im Thread nachlesen. Hatte nach einigem hin- und herprobieren dann über einen Thread im OpenWrt-Forum eine Lösung erarbeitet bzw. die Fehlerquelle beseitigt - jetzt funktioniert es wie gewollt Bin ich ein absoluter Freund von! Lieber frickel ich ein wenig rum und lese mich durch diverse Dokumentationen als meine Idee aufgrund "eingeschränkter Software" nicht umsetzen zu können Das war auch der Grund, warum ich mich u.a. für OpenWrt entschieden hatte. Sieht vielversprechend aus. Sollte sich die Fritte in Zukunft als zu schwach etablieren, werde ich mich bei MikroTik mal umsehen - hatte ich so noch gar nicht auf dem Schirm, danke 👍
  10. Habe auch einen VLAN-fähigen Switch am Router hängen An diesem Switch hängt letztlich dann auch der Unraid-Server. Da habe ich mich am Wochenende dran versucht, bin aber gescheitert. Vom Sinn her ist es mir klar, allerdings fällt mir die Umsetzung auf OpenWrt etwas schwer. Seit Release 21.02 existiert die sogenannte DSA (distributed switch architecture). Für mich als Laie macht es die Sache gefühlt dadurch erstmal schwerer. Weiterhin - und das ist der wesentliche Punkt - werden meine LAN-Ports nur als eine Schnittstelle eth0 wiedergespiegelt. WAN ist eth1. Wenn die Leistung am Ende nicht Gbit ist, dann wäre es nicht so schlimm. Die Hardware kann ich zu gegebener Zeit ersetzen. Vorher brauche ich jedoch ein Verständnis davon, wie es funktioniert, ansonsten sehe ich mich mit neuer Hardware vor denselben Problemen in der Software Falls das hier jetzt jedoch zu off topic wird - immerhin scheitert es gerade hauptsächlich an der Router Konfiguration - dann verlager ich die Fragestellung auch gerne ins OpenWrt-Forum
  11. Hallo Ford, danke für die schnelle Rückmeldung. Wenn ich es richtig verstehe, dann ja, sind LAN, GAST und IOT am selben Switch. Das sind die einzelnen Interfaces. Analog zu GUEST ist auch IOT konfiguriert - beide haben derzeit jeweils nur ein eigenes WLAN zugeordnet. Das alles läuft auf einer FritzBox 4040 als Router mit OpenWrt als OS. Und während ich es hier tippe wird mir die wahrscheinliche Lösung immer offensichtlicher: Ich denke, die Interfaces IOT und GUEST benötigen noch ein "bridged device" zugewiesen, um überhaupt mit den Ethernet-Ports kommunizieren zu können. Danach geht es dann wohl über VLANs welche ebenfalls erstellt werden müssen. In das Thema VLANs werde ich mich (speziell jetzt für dieses Router-Modell) noch ein wenig einarbeiten müssen. Wie sähe denn die Konfiguration danach in Unraid aus? Kann ich speziell eine virtuelle Maschine dem VLAN "LAN" und eine andere dem VLAN "IOT" zuweisen?
  12. Hi Wahrscheinlich für einige von euch eine simple Frage, aber ich komme da irgendwie nicht weiter. Auch die Forensuche hat mir leider nicht geholfen, wobei ich ggf. auch falsch gesucht habe. Ich habe auf meinem Router (OpenWrt) drei Interfaces, welche jeweils ein eigenes Netz steuern (LAN, IoT und Gast). Mein Unraid-Server liegt grundsätzlich im LAN, nun möchte ich allerdings einzelne VMs an das IoT-Netzwerk anschließen. Gibt es da eine Möglichkeit ein Netzwerk zu generieren, welches an das IoT-Netzwerk angeschlossen ist? Kann auch gerne noch weiterführende Informationen bereitstellen.
  13. Fortunately, I have put off troubleshooting long enough. The problem has solved itself. Since I had not changed anything, I suspect some update or something similar. Thanks for your efforts anyway
  14. Thx for your fast reply. One of the affected domains is a searx search engine. I can reach it normally via http over 4G. I changed the email adress and the domain name. If you need further logs, I can deliver them asap.
  15. Hi, first of all this is an amazing docker container. I've been using it for about a half year without facing any problems. But now, when updating certificates of certain domains I'll get an internal error. Also removed an tried to make a new certificate without success. Here is the docker log: [5/31/2021] [9:03:20 PM] [SSL ] › ℹ info Renew Complete [5/31/2021] [10:03:16 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [5/31/2021] [10:03:20 PM] [Nginx ] › ℹ info Reloading Nginx [5/31/2021] [10:03:20 PM] [SSL ] › ℹ info Renew Complete Duplicate relation "access_list" in a relation expression. You should use "a.[b, c]" instead of "[a.b, a.c]". This will cause an error in objection 2.0 [5/31/2021] [10:50:38 PM] [Nginx ] › ℹ info Reloading Nginx [5/31/2021] [10:50:39 PM] [SSL ] › ℹ info Requesting Let'sEncrypt certificates for Cert #22: my-domainname.domain.org [5/31/2021] [10:50:39 PM] [SSL ] › ℹ info Requesting Let'sEncrypt certificates for Cert #22: my-domainname.domain.org [5/31/2021] [10:50:53 PM] [Nginx ] › ℹ info Reloading Nginx [5/31/2021] [10:50:53 PM] [Express ] › ⚠ warning Command failed: /opt/certbot/bin/certbot certonly --non-interactive --config "/etc/letsencrypt.ini" --cert-name "npm-22" --agree-tos --email "[email protected]" --preferred-challenges "dns,http" --domains "my-domainname.domain.org" Saving debug log to /var/log/letsencrypt/letsencrypt.log Plugins selected: Authenticator webroot, Installer None Performing the following challenges: http-01 challenge for my-domainname.domain.org Using the webroot path /data/letsencrypt-acme-challenge for all unmatched domains. Waiting for verification... Challenge failed for domain my-domainname.domain.org http-01 challenge for my-domainname.domain.org Cleaning up challenges Some challenges have failed. [5/31/2021] [10:50:53 PM] [Nginx ] › ℹ info Reloading Nginx [5/31/2021] [10:50:53 PM] [Express ] › ⚠ warning Command failed: /opt/certbot/bin/certbot certonly --non-interactive --config "/etc/letsencrypt.ini" --cert-name "npm-22" --agree-tos --email "[email protected]" --preferred-challenges "dns,http" --domains "my-domainname.domain.org" Saving debug log to /var/log/letsencrypt/letsencrypt.log Plugins selected: Authenticator webroot, Installer None Performing the following challenges: http-01 challenge for my-domainname.domain.org Using the webroot path /data/letsencrypt-acme-challenge for all unmatched domains. Waiting for verification... Challenge failed for domain my-domainname.domain.org http-01 challenge for my-domainname.domain.org Cleaning up challenges Some challenges have failed. It worked a few months ago and is still working with other domains so I ran out of solutions. Unfortunately, it is not an option to make a clean reinstall of NPM, as there are too many dependencies on it. Every help is welcome
  16. Hi, bitte entschuldige die späte Antwort, war eine harte Arbeitswoche. Der Status des Prozesses war in den beiden oberen Fällen "R". root 18459 100 0.0 2460 760 ? R 21:35 14:28 fuser -s /mnt/cache/backups/urbackup/linux-client/210314-1511/root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/i386/selinux Ich habe Dienstagabend jedoch den Server neu gestartet. Da der Mover immer wöchentlich am Montag loslegt, habe ich den Fehler bis jetzt noch nicht reproduzieren können. Seit ich den heute Mittag manuell angestoßen habe, läuft er erstmal ordnungsgemäß durch, braucht allerdings sehr lange. Ich warte jetzt mal die kommenden Tage ab und prüfe, ob/ wann sich der Prozess wieder erhängt. EDIT: Der Prozess hing sich in der Nacht wieder an derselben Datei auf. Ich habe nun auch diese mal gelöscht. Mit etwas Glück, waren es die beiden einzigen Dateien, die Probleme machten. EDIT 2: So scheint es dann auch gewesen zu sein. Der Mover hat als solches im Backup-Ordner zwar sehr sehr langsam gearbeitet, es sind jedoch keine weiteren Dateien aufgetaucht, an denen er sich aufgehangen hat. Damit hat sich das Thema für mich erledigt. Vielen Dank @mgutt für deine Unterstützung
  17. Aber der Prozess bleibt ja konstant bei dieser einen Datei stehen. Wenn der Mover mehrere Dateien hintereinander prüfen würde, ok. Aber bei einer kleinen Datei über mehrere Tage/Wochen hinweg? Sieht für mich mehr nach einem Prozess aus der wiederholt vor die Wand fährt. Gibt es eine Möglichkeit mir den Prozess über die Kommandozeile genauer anzusehen?
  18. Danke für die Rückmeldung Was mich nur irritiert, der Prozess bleibt so wie er ist bestehen, auch wenn der Container beendet wird. Mir sagt das, dass der Prozess vom Betriebssystem ausgeführt wird und da wiederrum sehe ich den "Datei-Mover" als Ursache. Ein weiteres Indiz, was ich anfangs vergessen hatte zu erwähnen, ist, dass ich in der Übersicht meines Arrays den Mover nicht manuell aktivieren kann, da er derzeit ausgeführt wird. Hier mal ein Screenshot dazu: Der Ordner "backups" ist wie folgt angelegt: Die Backupdateien, welche Urbackup anlegt liegen in einem Unterordner "urbackup" auf "backups". Bei einigen scheint der Mover ein Problem mit dem Verschieben zu haben, zumindest hängt er sich daran auf. Ich hatte daraufhin die Datei mal gelöscht, jedoch mit dem Ergebnis, dass er sich an der nächsten Datei aufhängt. Dieses mal ist es folgender sehr ähnlicher (diesmal der Überordner i386 und nicht amd64) Prozess: root 18459 100 0.0 2460 760 ? R 21:35 14:28 fuser -s /mnt/cache/backups/urbackup/linux-client/210314-1511/root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/i386/selinux Eine gelistete Ausgabe des Ordners zeigt mir, dass die Datei ein Symlink und eine sog. Archivdatei (?) zu sein scheint - die rote Schrift soll zumindest ein Indiz dafür sein. Da kenne ich mich leider nicht genug mit aus. root@Ikarus:/mnt/cache/backups/urbackup/linux-client/210314-1511/root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/i386# ls -la total 16 drwxrwx--- 1 nobody users 50 Jul 9 2020 ./ drwxrwx--- 1 nobody users 340 Sep 29 2020 ../ lrwxrwxrwx 1 nobody users 98 Jul 9 2020 etc -> ../../../../../../../../root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/etc lrwxrwxrwx 1 nobody users 104 Jul 9 2020 installed -> ../../../../../../../../root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/installed/ lrwxrwxrwx 1 nobody users 98 Jul 9 2020 lib -> ../../../../../../../../root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/lib/ lrwxrwxrwx 1 nobody users 107 Jul 9 2020 selinux -> ../../../../../../../../root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/i386/selinux drwxrwx--- 1 nobody users 58 Jul 9 2020 usr/ Nur warum genau mag der Mover diese Dateien nicht? Da dies kein Einzelfall zu sein scheint, bin ich gewillt, die Backups von Urbackup direkt auf das Array schreiben zu lassen, ohne vorher über den Cache zu gehen. Kennt hier jemand eine gute Methode die bereits vorhandenen Dateien des Verzeichnisses zu verschieben? Oder ist das klassisch mit dem "mv"-Befehl möglich?
  19. Hallo zusammen, ich beobachte seit einigen Wochen eine ungewöhnliche Auslastung eines Prozesses auf meinem Unraid-Server. Unter Werkzeuge --> Prozesse sieht es wie folgt aus: root 32270 99.9 0.0 2460 756 ? R Mar26 14500:49 fuser -s /mnt/cache/backups/urbackup/linux-client/210314-1511/root/home/username/.steam/debian-installation/ubuntu12_32/steam-runtime/amd64/selinux Man sieht, der Prozess scheint seit dem letzten Neustart des Servers (26.03.) durchgehend in Betrieb zu sein. Auf der Übersichtsseite sehe ich immer wieder einen Prozessorkern, welcher mit 100% ausschlägt. Ich vermute, dass es irgendwas mit meiner Backupsoftware Urbackup, welche ich als Docker-Container laufen hab, Symlinks und dem Mover zu tun hat. Jedoch bin ich bezüglich einer Lösung hier schon mit meinem Latein am Ende Hat jemand von euch einen Vorschlag, wie man dieses Problem der andauernden Prozessorauslastung beheben kann? Wenn noch irgendwelche weiteren Informationen benötigt werden, kann ich diese gerne liefern
  20. This option is for already existing albums in digikam. You have to mount your photo folder in the docker container options. e.g.:
  21. Is there a way to connect through a Guacamole client to the digikam remote session? I have a Guacamole docker in the same subnet as the digikam docker, but I'm not able to connect to the digikam container, no matter what I try.I suppose the protocol is RDP so I tried to connect through this with abc/abc as credentials and also without credentials but with no success.
  22. @alturismo ok, thanks anyway for the support up to this point. I will try to build on your tips and work out a solution for me.
  23. thanks If it's possible, I need some further help. I set up another raspberry pi TVH server in my private network and ran into the same issue as on my unraid TVH container. No tuners visible, so I suppose there is something with port forwarding and NAT. Sadly I'm not that familiar with NAT. Also trying to forward the ports 9981,9982,9983 and redirect port 554 to 9983 doesn't seem to be the solution - the only thing changed is my OpenWrt firewall looks like a swiss cheese now I think this leads into something with NAT rules - do you have any suggestions how to solve this?
  24. I tried that way: Deleted the container and it's config, reinstalled as described in github-readme with host network and port options deleted (also in privileged mode and with PGID=0 and PUID=0 to exclude any permission error), but no tuner shown up. By adding an automatic IPTV network, with URL https://fritz.box/dvb/m3u/tvsd.m3u 97 muxes are found, but ends up with error: 2020-12-24 13:31:17.633 [ INFO] subscription: 0067: "scan" unsubscribing 2020-12-24 13:31:17.633 [ INFO] mpegts: tvsd.m3u - nick/MTV+ in Unitymedia - scan no data, failed 2020-12-24 13:31:17.633 [ INFO] subscription: 0066: "scan" unsubscribing 2020-12-24 13:31:17.633 [ INFO] mpegts: tvsd.m3u - SAT.1 GOLD in Unitymedia - scan no data, failed 2020-12-24 13:31:17.633 [ INFO] subscription: 0065: "scan" unsubscribing 2020-12-24 13:31:17.633 [ INFO] mpegts: tvsd.m3u - NHK WORLD-JAPAN in Unitymedia - scan no data, failed 2020-12-24 13:31:17.633 [ INFO] subscription: 0064: "scan" unsubscribing 2020-12-24 13:31:17.633 [ INFO] mpegts: tvsd.m3u - Health TV in Unitymedia - scan no data, failed 2020-12-24 13:31:17.633 [ INFO] subscription: 0063: "scan" unsubscribing 2020-12-24 13:31:17.633 [ INFO] mpegts: tvsd.m3u - SWR Fernsehen BW in Unitymedia - scan no data, failed 2020-12-24 13:31:17.633 [ INFO] subscription: 0062: "scan" unsubscribing Opening the URL with VLC works properly. EDIT: Just set up TVHeadend on a rasperry pi located in my DMZ and the tuners shown up automatically. So the error is somewhere in the network config or in the docker container config... will do further troubleshooting tomorrow.
  25. Hi everyone, i have an issue with TVH and I hope someone can help me with that. I've installed it with the container variable RUN_OPTS --satip_xml http://<myfritzboxip>:49000/satipdesc.xml so that TVH can find my FritzBox Cable 6490. I've added a new network 'Unitymedia' and selected the pre-defined muxes for Germany:de-Unitymedia. In the tuner settings I linked the network, left the 'specinv' option on 'do not use' and set the 'tuner bind ip address' to my unraid-server-ip (I use the host network for this container). I just activated one tuner for testing if a connection can be established but always ran into the following error: I don't know if it's important, my FritzBox Cable 6490 is the router of my DMZ. In this DMZ is a OpenWrt router which defines my private network where my server is acutally located. I just mention this as I don't think, this causes the issue*, but maybe it's relevant for further solution tracking. *e.g. working fine in VLC with a FritzBox generated .m3u-playlist