Ford Prefect Posted September 19, 2021 Share Posted September 19, 2021 ...ist bei mir eben nur nach der Neu-Konfiguration wieder so. Vorher eben nicht.... Quote Link to comment
mgutt Posted September 19, 2021 Share Posted September 19, 2021 4 hours ago, Ford Prefect said: nach der Neu-Konfiguration wieder so. Also das hat tatsächlich geholfen? Na vielleicht hilft es bei @Smolo auch? Dann hätte man ja einen Ansatz. Denn dann kann es ja nur an einer Config Datei liegen. Hast du von vorher noch ein Backup vom Stick? Ich würde dir dann sagen welche Dateien bei einer New config erneuert werden und dann vergleichen wir Mal. Quote Link to comment
Smolo Posted September 19, 2021 Share Posted September 19, 2021 (edited) On 9/18/2021 at 2:00 PM, mgutt said: Da nur wenige das Problem haben, ist ein Bug eh unwahrscheinlich. Das schaut bei der Anzahl an Posts für mich allerdings gänzlich anders aus. Quote Zuerst muss man auswerten was die Platten weckt. Dafür gibt es diverse Möglichkeiten. Beispielsweise könnte man mit inotifywait ein Monitoring starten, das alle Zugriffe auf Disk X loggt. Ich hab aktuell nur eine Parity / Data neben den Cache Disks im System. Meine Linux Kenntnisse sind zugegebenermaßen noch stark Ausbaufähig daher tue ich mir mit den ganzen Linux Foldern noch extrem schwer. Ich habe inotifywait mal angeworfen aber ich hab keine Ahnung wo ich da Folder technisch ansetzen muss bzw. auf was ich da achten sollte da es weder Plugins noch Docker Container laufen! Quote Und da du die Ursache an Hand der Logs nicht ausgewertet hast, kann das jederzeit wieder passieren. Woran erkenne ich im Log das sich ein System nicht mehr rebooten lässt wenn dort keine Fehler Meldungen hinterlegt sind?😱 Quote Hier wird Lizenz mit Support gleichgesetzt. Wenn du persönlichen Support haben willst, dann musst du schon jemanden dazu beauftragen. Limetech wird sicher nicht hingehen und bei einzelnen Kunden per Fernwartung eine Fehlersuche machen. Warum sollten sie auch. Ansonsten ist unRAID stark Community geprägt und viele Komponenten sind sehr wohl Open Source. Daher kann man nicht einfach ohne Analyse den oder den Dev oder eben Limetech als Ursache ausmachen. Sorry aber die Aussage ist schon extrem frech. Ich habe explizit geschrieben das ich enttäuscht bin das es von Unraid Seite keinerlei Statements zu diesem Thema gibt nicht mehr und nicht weniger. Ich erwarte bei Systemen einfach einen Bug mit einem Verweis das dieser Untersucht wird mit gelegentlichen Status Updates. Nur weil mittlerweile jeder gewohnt ist das Hersteller keine gescheite QA haben (keine Anspielung auf Unraid etc. sondern Allgemein gemeint) und sich einen scheiß um Fehler kümmern hat das immer noch nichts mit der Beauftragung eines persönlichen Support zu tun! Mit dem Nutzungsrecht / Lizenz kauft man auch eine Gewährleistung ein, ob dir das jetzt gefällt oder nicht. Wir sprechen hier ja nicht von einem Plugin sondern einer essentiellen Funktion die aktuell nicht funktioniert. Mit der Argumentation kannst ja mal gucken was passiert wenn nach einem Software Update dein Auto kein Standgas mehr hält. Edited September 19, 2021 by Smolo Quote Link to comment
Smolo Posted September 19, 2021 Share Posted September 19, 2021 (edited) 5 hours ago, mgutt said: Also das hat tatsächlich geholfen? Na vielleicht hilft es bei @Smolo auch? Dann hätte man ja einen Ansatz. Denn dann kann es ja nur an einer Config Datei liegen. Hast du von vorher noch ein Backup vom Stick? Ich würde dir dann sagen welche Dateien bei einer New config erneuert werden und dann vergleichen wir Mal. Also ich hab jetzt wieder 2-3h mit dem Thema verbracht. Unraid > Safemode ohne PlugIns / GUI in 6.9.2 = Problem besteht weiterhin 10-20s nach Spin Down fahren die Platten wieder hoch. (sehe ich auch am Energiemonitor) Unraid > Safemode ohne PlugIns / GUI in 6.9.2 mit Docker und keinen laufenden Container = Gleiches Problem Unraid > Safemode ohne PlugIns / GUI in 6.9.2 Docker ausgeschaltet = Ruhe Ich hatte vorhin den Nginx Proxy Manager im Verdacht aber es scheint eventuell am blanken Docker Dienst zu liegen? @mgutt Ich wollte dann deinen Nginx verwenden aber der hat nur rumgezuckt bei der Ersteinrichtung. Dienst kam immer erst beim 2 Start hoch...Passwort Änderung war nicht möglich...Dienst wieder weg. Thema erledigt > Probleme wegen doppelter IP-Adressvergabe! Nachtrag: Vorhin hatte ich den Docker noch mal gestartet ohne laufende Container > manueller Spin Down > 20s Spin Up! Allerdings hab ich jetzt gesehen das nach dem regulären 30min Spin Down die Platten auch mit Docker Dienst aus sind. Hier wird man echt wahnsinnig 😐 Edited September 19, 2021 by Smolo Quote Link to comment
mgutt Posted September 19, 2021 Share Posted September 19, 2021 27 minutes ago, Smolo said: Ich wollte dann deinen Nginx verwenden aber der hat nur rumgezuckt bei der Ersteinrichtung. Dienst kam immer erst beim 2 Start hoch...Passwort Änderung war nicht möglich...Dienst wieder weg. Klingt komisch. Sind ja mittlerweile einige, die mein Template nutzen und solche Meldungen hatte ich noch nicht. Ich muss gleich eh noch was arbeiten. Wenn du dann noch wach bist, könnte ich Remote mal schauen. Quote Link to comment
Smolo Posted September 19, 2021 Share Posted September 19, 2021 16 minutes ago, mgutt said: Klingt komisch. Sind ja mittlerweile einige, die mein Template nutzen und solche Meldungen hatte ich noch nicht. Ich muss gleich eh noch was arbeiten. Wenn du dann noch wach bist, könnte ich Remote mal schauen. Danke fürs Angebot ich bin aber auch grad am Arbeiten daher keine Zeit. Mich hat es ehrlich gesagt auch gewundert ich schau mir das Morgen noch mal an und schick dir mal LogFile 🙂 Quote Link to comment
Ford Prefect Posted September 20, 2021 Share Posted September 20, 2021 18 hours ago, mgutt said: Also das hat tatsächlich geholfen? Ja, zumindest jetzt erkennt man, dass die Smart Abfragen beim Start der HDD kommen. Wenn man zB Daten auf dem cache hat und der Mover die Parity quasi weckt, kann man die Zeitstempel des smartctl für die Parity korrellieren, Quote Link to comment
Smolo Posted September 20, 2021 Share Posted September 20, 2021 Also einen unhübschen Effekt habe ich jetzt festgestellt: Wenn ich den manuellen SpinDown betätige werden die Platten immer nach 20-30s aufgeweckt ein manueller und dauerhafter Spin Down ist so gar nicht umsetzbar. Wenn ich ihn aber selbstständig in den SpinDown gehen lassen nach 30min bleiben die Platten ausgeschaltet? > SafeMode ohne GUI ohne PlugIns + Docker an + alle Docker Container aus Quote Link to comment
mgutt Posted September 21, 2021 Share Posted September 21, 2021 5 hours ago, Smolo said: Wenn ich den manuellen SpinDown betätige werden die Platten immer nach 20-30s aufgeweckt Kurz nach dem Booten braucht unRAID ein paar Minuten bis wirklich kein Zugriff mehr auf die Platten erfolgt. Das könnte ich mir dadurch erklären. Quote Link to comment
Smolo Posted September 21, 2021 Share Posted September 21, 2021 11 hours ago, mgutt said: Kurz nach dem Booten braucht unRAID ein paar Minuten bis wirklich kein Zugriff mehr auf die Platten erfolgt. Das könnte ich mir dadurch erklären. Damit kann es denke ich nichts zu tun haben weil das Thema reproduzierbar war im laufenden Betrieb?! Ist es normal das der Start des "NginxProxyManager" (nicht der von MGUTT) automatisch dafür sorgt das die Platten hochfahren? Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdb Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdc Sep 21 18:05:33 Sugo webGUI: Successful login user root from 192.168.xxxx Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:45 Sugo kernel: device veth6571ec7 entered promiscuous mode Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdb Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdc Sep 21 18:05:58 Sugo kernel: eth0: renamed from vethf4a4bf2 Sep 21 18:05:58 Sugo kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth6571ec7: link becomes ready Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:06:00 Sugo avahi-daemon[2360]: Joining mDNS multicast group on interface veth6571ec7.IPv6 with address fe80::846b:8eff:fea4:6d6. Sep 21 18:06:00 Sugo avahi-daemon[2360]: New relevant interface veth6571ec7.IPv6 for mDNS. Sep 21 18:06:00 Sugo avahi-daemon[2360]: Registering new address record for fe80::xxxxxx on veth6571ec7.*. 9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:54:22 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:55:44 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Building Access file #1 for: LAN [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: ryto [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: smolo [9/19/2021] [6:56:11 PM] [Access ] › ✔ success Built Access file #1 for: LAN [services.d] stopping services [services.d] stopping app... [9/19/2021] [6:58:16 PM] [Global ] › ℹ info PID 601 received SIGTERM [9/19/2021] [6:58:16 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [services.d] starting statusmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [app] starting Nginx Proxy Manager... [nginx] starting... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/19 19:20:06 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0000_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0001_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0002_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0003_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0000_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0001_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0002_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0003_key-certbot.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 8 file(s) deleted. [9/19/2021] [7:20:08 PM] [Migrate ] › ℹ info Current database version: none [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate completed. [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/19/2021] [7:20:09 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/19/2021] [7:20:09 PM] [Global ] › ℹ info Backend PID 1265 listening on port 3000 ... [9/19/2021] [7:20:12 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [7:20:13 PM] [SSL ] › ℹ info Renew Complete [services.d] stopping services [services.d] stopping app... [9/19/2021] [7:22:50 PM] [Global ] › ℹ info PID 1265 received SIGTERM [9/19/2021] [7:22:50 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 00:21:53 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [12:21:54 AM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [12:21:54 AM] [Global ] › ℹ info Backend PID 1262 listening on port 3000 ... [9/21/2021] [12:21:55 AM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [12:21:55 AM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0 [services.d] stopping services [services.d] stopping app... [9/21/2021] [12:31:39 AM] [Global ] › ℹ info PID 1262 received SIGTERM [9/21/2021] [12:31:39 AM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 18:06:00 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [6:06:00 PM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [6:06:01 PM] [Global ] › ℹ info Backend PID 1260 listening on port 3000 ... [9/21/2021] [6:06:02 PM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [6:06:02 PM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0 Quote Link to comment
mgutt Posted September 21, 2021 Share Posted September 21, 2021 42 minutes ago, Smolo said: Ist es normal das der Start des "NginxProxyManager" (nicht der von MGUTT) automatisch dafür sorgt das die Platten hochfahren? Welche Pfade sind bei dem gemountet? Der sollte natürlich nur das beeinflussen können, worauf er überhaupt Zugriff drauf hat. Quote Link to comment
Smolo Posted September 21, 2021 Share Posted September 21, 2021 4 hours ago, mgutt said: Welche Pfade sind bei dem gemountet? Der sollte natürlich nur das beeinflussen können, worauf er überhaupt Zugriff drauf hat. Nur ein Verzeichnis? Quote Link to comment
alturismo Posted September 22, 2021 Share Posted September 22, 2021 wie sieht denn das aus ? in den beiden shares ... Quote Link to comment
Smolo Posted September 22, 2021 Share Posted September 22, 2021 (edited) 6 hours ago, alturismo said: wie sieht denn das aus ? in den beiden shares ... Seltsam appdata steht auf "cache" aber bei System schaut es anders aus? Was ist denn das Default Setting für das System Share ich wüsste nicht das ich dort was angepasst habe? Edited September 22, 2021 by Smolo Quote Link to comment
alturismo Posted September 22, 2021 Share Posted September 22, 2021 dann hast du bereits 1 Übel gefunden, libvirt ist VM technisch relevant. schalte VM Dienst aus, verschiebe was auch immer da liegt in den cache, starte VM Dienst neu. Empfehlung allgemein ist appdata und system auf prefer zu stellen, meine Empfehlung ist diese auf only zu stellen. 1 Quote Link to comment
mgutt Posted September 22, 2021 Share Posted September 22, 2021 5 hours ago, Smolo said: Was ist denn das Default Setting für das System Share Prefer. Bei Prefer landet nur was auf dem Array, wenn der Cache nachträglich hinzugefügt wurde oder der Cache mal voll gelaufen war. Aber wie schon gesagt wurde, einfach Docker/VM auf No und Mover starten. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.