Smolo

Members
  • Posts

    206
  • Joined

  • Last visited

Converted

  • Gender
    Male
  • ICQ
    30687897

Recent Profile Visitors

282 profile views

Smolo's Achievements

Explorer

Explorer (4/14)

19

Reputation

  1. Seltsam appdata steht auf "cache" aber bei System schaut es anders aus? Was ist denn das Default Setting für das System Share ich wüsste nicht das ich dort was angepasst habe?
  2. Damit kann es denke ich nichts zu tun haben weil das Thema reproduzierbar war im laufenden Betrieb?! Ist es normal das der Start des "NginxProxyManager" (nicht der von MGUTT) automatisch dafür sorgt das die Platten hochfahren? Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdb Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdc Sep 21 18:05:33 Sugo webGUI: Successful login user root from 192.168.xxxx Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:45 Sugo kernel: device veth6571ec7 entered promiscuous mode Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdb Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdc Sep 21 18:05:58 Sugo kernel: eth0: renamed from vethf4a4bf2 Sep 21 18:05:58 Sugo kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth6571ec7: link becomes ready Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:06:00 Sugo avahi-daemon[2360]: Joining mDNS multicast group on interface veth6571ec7.IPv6 with address fe80::846b:8eff:fea4:6d6. Sep 21 18:06:00 Sugo avahi-daemon[2360]: New relevant interface veth6571ec7.IPv6 for mDNS. Sep 21 18:06:00 Sugo avahi-daemon[2360]: Registering new address record for fe80::xxxxxx on veth6571ec7.*. 9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:54:22 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:55:44 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Building Access file #1 for: LAN [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: ryto [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: smolo [9/19/2021] [6:56:11 PM] [Access ] › ✔ success Built Access file #1 for: LAN [services.d] stopping services [services.d] stopping app... [9/19/2021] [6:58:16 PM] [Global ] › ℹ info PID 601 received SIGTERM [9/19/2021] [6:58:16 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [services.d] starting statusmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [app] starting Nginx Proxy Manager... [nginx] starting... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/19 19:20:06 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0000_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0001_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0002_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0003_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0000_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0001_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0002_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0003_key-certbot.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 8 file(s) deleted. [9/19/2021] [7:20:08 PM] [Migrate ] › ℹ info Current database version: none [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate completed. [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/19/2021] [7:20:09 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/19/2021] [7:20:09 PM] [Global ] › ℹ info Backend PID 1265 listening on port 3000 ... [9/19/2021] [7:20:12 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [7:20:13 PM] [SSL ] › ℹ info Renew Complete [services.d] stopping services [services.d] stopping app... [9/19/2021] [7:22:50 PM] [Global ] › ℹ info PID 1265 received SIGTERM [9/19/2021] [7:22:50 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 00:21:53 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [12:21:54 AM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [12:21:54 AM] [Global ] › ℹ info Backend PID 1262 listening on port 3000 ... [9/21/2021] [12:21:55 AM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [12:21:55 AM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0 [services.d] stopping services [services.d] stopping app... [9/21/2021] [12:31:39 AM] [Global ] › ℹ info PID 1262 received SIGTERM [9/21/2021] [12:31:39 AM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 18:06:00 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [6:06:00 PM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [6:06:01 PM] [Global ] › ℹ info Backend PID 1260 listening on port 3000 ... [9/21/2021] [6:06:02 PM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [6:06:02 PM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0
  3. Also einen unhübschen Effekt habe ich jetzt festgestellt: Wenn ich den manuellen SpinDown betätige werden die Platten immer nach 20-30s aufgeweckt ein manueller und dauerhafter Spin Down ist so gar nicht umsetzbar. Wenn ich ihn aber selbstständig in den SpinDown gehen lassen nach 30min bleiben die Platten ausgeschaltet? > SafeMode ohne GUI ohne PlugIns + Docker an + alle Docker Container aus
  4. Danke fürs Angebot ich bin aber auch grad am Arbeiten daher keine Zeit. Mich hat es ehrlich gesagt auch gewundert ich schau mir das Morgen noch mal an und schick dir mal LogFile 🙂
  5. Also ich hab jetzt wieder 2-3h mit dem Thema verbracht. Unraid > Safemode ohne PlugIns / GUI in 6.9.2 = Problem besteht weiterhin 10-20s nach Spin Down fahren die Platten wieder hoch. (sehe ich auch am Energiemonitor) Unraid > Safemode ohne PlugIns / GUI in 6.9.2 mit Docker und keinen laufenden Container = Gleiches Problem Unraid > Safemode ohne PlugIns / GUI in 6.9.2 Docker ausgeschaltet = Ruhe Ich hatte vorhin den Nginx Proxy Manager im Verdacht aber es scheint eventuell am blanken Docker Dienst zu liegen? @mgutt Ich wollte dann deinen Nginx verwenden aber der hat nur rumgezuckt bei der Ersteinrichtung. Dienst kam immer erst beim 2 Start hoch...Passwort Änderung war nicht möglich...Dienst wieder weg. Thema erledigt > Probleme wegen doppelter IP-Adressvergabe! Nachtrag: Vorhin hatte ich den Docker noch mal gestartet ohne laufende Container > manueller Spin Down > 20s Spin Up! Allerdings hab ich jetzt gesehen das nach dem regulären 30min Spin Down die Platten auch mit Docker Dienst aus sind. Hier wird man echt wahnsinnig 😐
  6. Das schaut bei der Anzahl an Posts für mich allerdings gänzlich anders aus. Ich hab aktuell nur eine Parity / Data neben den Cache Disks im System. Meine Linux Kenntnisse sind zugegebenermaßen noch stark Ausbaufähig daher tue ich mir mit den ganzen Linux Foldern noch extrem schwer. Ich habe inotifywait mal angeworfen aber ich hab keine Ahnung wo ich da Folder technisch ansetzen muss bzw. auf was ich da achten sollte da es weder Plugins noch Docker Container laufen! Woran erkenne ich im Log das sich ein System nicht mehr rebooten lässt wenn dort keine Fehler Meldungen hinterlegt sind?😱 Sorry aber die Aussage ist schon extrem frech. Ich habe explizit geschrieben das ich enttäuscht bin das es von Unraid Seite keinerlei Statements zu diesem Thema gibt nicht mehr und nicht weniger. Ich erwarte bei Systemen einfach einen Bug mit einem Verweis das dieser Untersucht wird mit gelegentlichen Status Updates. Nur weil mittlerweile jeder gewohnt ist das Hersteller keine gescheite QA haben (keine Anspielung auf Unraid etc. sondern Allgemein gemeint) und sich einen scheiß um Fehler kümmern hat das immer noch nichts mit der Beauftragung eines persönlichen Support zu tun! Mit dem Nutzungsrecht / Lizenz kauft man auch eine Gewährleistung ein, ob dir das jetzt gefällt oder nicht. Wir sprechen hier ja nicht von einem Plugin sondern einer essentiellen Funktion die aktuell nicht funktioniert. Mit der Argumentation kannst ja mal gucken was passiert wenn nach einem Software Update dein Auto kein Standgas mehr hält.
  7. @alturismo @ich777 VMs, Docker, etc. alles getestet das hatten wir jetzt ja schon x Mal! SafeMode war mir bisher nicht klar bzw. unbekannt dafür bin ich noch zu frisch im Unraid Thema das werde ich dann noch mal testen. Mir ging es aber beim letzten Posts um etwas anderes. Unraid selbst ist ClosedSource mit Lizenz und entsprechend hat der Hersteller auch darauf zu reagieren wenn es Probleme gibt. Problematisch sehe ich hier das man ohne Doku auf die Community verwiesen wird und das kanns dann doch nicht sein...bei solchen Fehlern erwartet man zumindest mal einen BugReport mit einem Status und möglichen Workarounds von offizieller Seite und kein Stillschweigen! Ich habe wirklich Verständnis für die möglichen Probleme aber am Ende des Tages möchte man für sein Geld schon ein stabiles System haben bzw. zumindest einen Support der sich der Thematik auch mal an nimmt. Es soll ja Developer geben die bei ungeklärten Problemen das Logging Konzept erweitern um mögliche Ursachen besser ergründen zu können ^^ Und nicht das ihr mich falsch versteht ...ich finde Unraid bzw. das Konzept extrem gut und die Community hier ist wirklich top aber vom Hersteller kommt mir da zu wenig?!
  8. Sorry aber da wird es doch mittlerweile echt lächerlich und gruselig. Es kommt eine neue Version eines OS raus und plötzlich gibt es bei vielen Usern Probleme mit dem Spin Down! Zuerst sind die Platten schuld, dann PlugIns, dann wieder Platten, dann die Apps / Konfiguration. Alle Raten fröhlich rum und basteln an ihren produktiven Maschinen rum und vom offiziellen Support ist derweil kein einziger Kommentar dazu zu lesen. Sowas macht mich dann wirklich sprachlos. Ich hatte mittlerweile wirklich alles deaktiviert und es gab keinerlei Änderung zum Status Quo! Ich hatte mich jetzt auch auf die RC Version eingelassen und ein paar Tage nicht auf das System geschaut. Das Ergebnis? Die Platten waren tatsächlich aus leider hatte sich nach 19 Tage Uptime irgendwas dermaßen im System verklemmt das drei Cores ständig auf 100% unterwegs waren. Docker halb tot, ein Reboot per SSH oder Weboberfläche hat nicht funktioniert. Am Ende musste ich die Maschine mittles Reset durchstarten 😞🤐😱
  9. Der wurde bereits im März eröffnet und es melden sich immer wieder User und es gibt keinerlei Feedback? 😞
  10. Macht in meinem Fall auch keinen Unterschied von daher egal. Ich bin mittlerweile ziemlich enttäuscht über den nicht existenten Support von der Unraid Truppe bzw. das sich hier nicht mal jemand dazu äussert?!
  11. Is this a standard feature of Unraid? How can I deactivate it? I don't have any other containers running and the disks still start up every few seconds.
  12. Servus, ich wollte mal kurze in die Runde fragen wie ihr mit eurem Passwortmanager des Vertrauens im Zusammenhang mit mehrere Devices und Usern umgeht? Ich selbst nutze Keepass suche aber eine Lösung um vom Handy, Laptop ebenso einfach auf meine Passwörter zu zugreifen. Hierzu mal ein paar Fragen: - Synchronisiert ihr eure Keepass Files zwischen den Devices? - Mit welcher App greift ihr vom Handy drauf zu? Es gibt mittlerweile ja auch Keeweb allerdings habe ich dafür noch keinen Dockercontainer gesehen? Bin für jeden Tip dankbar 🙂 Beste Grüße Smolo
  13. Also folgendes Szenario: 1 ) Platten grad beide an 2) Spindown über dein Cmd ausgeführt > Hier kam ungeplant wieder ein "emhttpd: read SMART /dev/sdb" auf die Parity genau in der Zeit zwischen den beiden Kommandos 3) smartctl aufgerufen > Werte werden angezeigt 4) Noch mal runtergefahren + smartctl = keine Werte Device im Standby Auch die andere Platte konnte ich durch SmartCTL nicht aufwecken.
  14. Ich prüfe das ganz einfach in dem ich die Stromanzeige anschaue die bei mir direkt in der GUI integriert ist. D.h. bei mir hat die Anzeige vom Zustand theoretisch/praktisch immer mit dem Stromverbrauch übereingestimmt. Nach dem beim Default Standby die Platten immer nach 30min runtergefahren sind und der Smart Read auch alle 30min zuschlägt sind bei mir die Platten natürlich immer innerhalb 1min runter und wieder raufgefahren. Ich hatte daher die letzten Wochen den Spindown auf 2h eingestellt. Die letzten Tage ist die Parity Platte dann teilweise im Spin Down geblieben, die Datenplatte ist immer aktiv geblieben.