Smolo

Members
  • Posts

    299
  • Joined

  • Last visited

Everything posted by Smolo

  1. Ich bau das grad mit Photoprism auf und bin bisher ganz zufieden. Was du beachten musst im Standard legt Photoprism den Cache auf den Cache das erzeugt je nach Datenmenge zwei Probleme. 1) Das Backup von den Apps platzt dir und wird riesig weil die Thumbnails dabei sind das kannst du durch eine Ausnahme bei den Backups leicht korrigieren 2) Die Thumbnails können wirklich riesig werden vom Platz....ich hab bei 1,5TB Fotos/Videos über 100GB Thumbs zusammenbekommen. (FullHD bei 90%). An der Stelle wird es komplizierter und ich habe jetzt alles auf eine 4TB SSD ausgelagert damit die Zugriffe schnell laufen! Das schreiben erfolgt ganz normal über die Cache/Partiy etc.
  2. Ich würde mal die neuen Epics abwarten, wenn da der Idle Verbrauch besser abschneidet kann man den ganzen Konsumer kram vergessen und richtige HW verwenden. Das ganze gebastel bezüglich PCIE hört dann schlagartig auf.
  3. Das war genau die Fragestellung von mir ob die SSD einen Sleep Mode überhaupt kennen denn per Definition schläft die SSD ja nicht sondern tut einfach nix. Eventuell hat sich da ja was getan und es gibt schon Chips die dann auch runtertakten etc. Nachtrag: Stellt sich raus so doof war meine Frage gar nicht. Die aktuellen Platten haben tatsächlich einen Powerstate und der weicht gar nicht mal so unbeträchtlich voneinander ab. Die Frage ist ja in welchem Power State betreibt Unraid die SSD? https://www.anandtech.com/show/16458/2021-ssd-benchmark-suite/6 https://docs.microsoft.com/en-us/windows-hardware/design/component-guidelines/power-management-for-storage-hardware-devices-nvme
  4. Schau erstmal das deine Werte stabil sind...dann den 5800er rein und dann würde ich ein neues Netzteil schauen. Beim Netzteil gilt umso höher die Auslastung desto besser die Effizienz. Meine persönlich Meinung lieber unter als überdimensionieren. Mein Server hat selbst mit Miner und 100% Last nur knapp 100w und durch die GPU kommen max. 30w dazu. Je HDD kannst ja bis zu 12w rechnen etc. das wären bei 10 Platten aber auch "nur" 120w d.h. 250w. D.h. solange du da kein CPU / GPU Monster drinnen hast ist das alles halb so wild. Problematisch kann und sind eventuell Peaks bzw. überlastete Lanes auf dem NT wegen ungleicher Verteilung das solltest du vorher querchecken d.h. nicht alle HDDs auf einer Lane! Ich hab mal irgendwo gesehen das die großen HDDs auch mal 20w beim Anlauf anziehen können. Auch wenn mein Motto sonst "Haben ist besser als brauchen!" lautet sollte man beim Netzteil schon genau schauen was man in der Realität überhaupt verwendet.
  5. Das ist wie bei meinem heutigen Test immer dieses teuflische IT Zeugs 🤪 Nach den folgenden Reviews denke ich aber bei dir kommt der Mehrverbrauch durch CPU und Netzteil zustande. Bei 65w hast du allein 10w Verlust durchs Netzteil! Dat kann ja nix werden mit Strom sparen 😁 https://www.tweakpc.de/hardware/tests/netzteile/be_quiet_straight_power_11/s03.php Hier der Test von meiner Serie leider nur als 550w Variante aber ich denke da kommen locker 4-8w Unterschied durchs Netzteil zusammen! Ich bin bei meinem 400er mit 36w wesentlich dichter an der richtigen Effizienzkurve dran als bei dir. Eventuell hat daher nicht HASS sondern das Netzteil mitgelesen https://www.tweakpc.de/hardware/tests/netzteile/be_quiet_pure_power_11_fm/s02.php Hier mal der direkte Vergleich Pure 550w und 650w im Vergleich Pure Power 600w Straight 750w bei 55w
  6. Das wäre dann ja nicht mehr soweit weg von meinem System und das mit der alten CPU! Wenn es blöd läuft macht letztere allein 10-12w und der Rest ist z.B. das Netzteil. Ersteres kann sich dann in der Kombination mit den permanent laufenden Container natürlich verschärfen. Wieviel Speicherriegel hast du verbaut? Und was für ein Netzteil? Wenn in deiner VM / Docker permanent was rödelt dann kommst mit dem Intel wahrscheinlich auch nicht wirklich besser weg Eventuell zum Test einfach mal einen 5600/5800x bestellen? Selbst wenn du den behälst sollte sich die Preisdifferenz überschaubar gestalten weil der 5800x aktuell bereits für 370 zu haben ist und deiner noch einen Listenpreis von 300 hat. Aber eventuell wartest noch bis zum Launch der neuen Prozessoren
  7. Also eventuell hab ich das Problem gefunden oder eingegrenzt denn ich habe jetzt ähnliche Werte wie du! Aktuell stehen bei mir 50-56w an obwohl ich am Setup nichts groß geändert habe. Einzige Ausnahme ich habe jetzt die 4TBB SSD ins Array gepackt und bei den Shares ein paar Regeln geändert. Die SSD macht natürlich keinen Spindown oder gibt es das für die SSD die nicht im Cache Array hängen auch? Ich habe dann mal alles gestoppt, Docker abgeschaltet und das Array kurz angehalten und wieder gestartet > Spin Down und ich war wieder bei meinen 36w! Wieder alles gestartet und dann bis "Idle" gewartet und aktuell wieder bei 50w. Mal gucken wo es sich bei mir versteckt aber aktuell hab ich einen der Container im Verdacht Bei den 36w sieht Powertop bei mir ohne Optimierung so aus
  8. Nimm mal anderen Browser bzw. Private Mode...ich hab bei der normalen Website auch schon interessante Effekte gehabt. Laut Bios 1.22 Laut BMC Interface 1.20 und 1.40 allerdings habe ich diverse Betas installiert gehabt, vielleicht hab ich da auch mal was freigeschaltet etwas kurios. Anscheinend mit der 1.34A mitgekommen?!
  9. Nutzt du dann einen der NUT Adapter in HASS? Mittlerweile funktioniert der Zugriff doch mit den neueren BIOS? Auch wenn ich es nicht erwartet hab arbeiten die Asrock Leute immer noch fleißig am BIOS und BMC. Die ganz aktuelle BIOS Version hab ich mir aber noch nicht getraut auf zu spielen.
  10. Also bei mir läuft grad größerer Sync per Filezilla Container auf den Cache, mehrere Docker Container und ne VM und ich lieg da grad bei 58w. Wenn das durch ist guck ich mal bei mir die C States an kann aber 1-2 Tage dauern Wie ziehst du die Werte in Grafana rein?
  11. 2w mit ner 3,5" HDD schaffst du nicht bzw. hab ich sowas noch nicht gesehen und im Betrieb liegst du da ja noch mal deutlich drüber. Schalt mal im BIOS den ECO Modus an und deaktiviere die 10G Ports und dann alles abschalten. Dann solltest du ja theoretisch sehen können wie hoch der Vergleich zu meinem 5600x ist.
  12. Schmeiß bloß die 2TB HDD aus dem System, die frisst allein ja schon >8w wenn es blöd läuft. Ersetz diese durch ne M2 oder SSD das kostet ja absolut nix mehr. Ich hab selbst in meinem SAT Receiver mittlerweile SSDs drinnen für die Aufnahmen. Wenn dir das zu teuer ist zumindest auf ne 2,5" HDD runterrüsten.
  13. Hallo, mal eine kurze Frage in die Runde wie ihr das Thema Problem gelöst habt. Ich habe aktuell mehrere NAS mit geographischer Verteilung im Betrieb und möchte die Daten zwischen den Server wenn es geht sogar in Echtzeit synchronisieren. Die Daten sollen dabei von zwei Systemen auf ein drittes gespiegelt werden. Ausgangssituation: - Standardort 1 1xQNAP (Daten für Sync ca. 400GB) 1xUnraid (Ziel) - Standardort 2 1xQnap (2TB) Datenverbindung läuft per Wireguard VPN mit ca. 50Mbit Problem: - Der Sync der dezentralen QNAP bricht mir jede Nacht ab und ist einfach abartig langsam. Ich habe das Gefühl das die QNAP Backup Software die Daten immer überträgt statt zu schauen ob die Files bereits vor Ort liege. Was ich probiert habe: - QNAP to Unraid über SMB = zu langsam und Abbruch - QNAP to Qnap über RTRR = zu langsam und Abbruch - Unraid FIlezilla im Container lesen auf QNAP = Performance gut aber irgendwann hats den Container zerlegt bei den 2TB?! Frage: - Welche Tools nutzt ihr dafür? - Habt ihr was für Echtzeit Sync im Einsatz?
  14. Also ich bin ohne Modifikationen beim Bios mit dem 5600x bei 30-36w gelegen wenn alles im Idle ist siehe Screenshot. Hast du noch ne dGPU verbaut? Oder die Kombination aus CPU und Netzteil zieht die Werte bei dir so hoch?
  15. Ich leide auch unter sporadischen Abstürzen mit Kernel Panic Problem. Einzige Möglichkeit das die Maschine bei mir durchläuft ist wenn ich eine VM laufen lasse, dann rennt der Server aber auch ohne Probleme 90 Tage durch.
  16. Ich hab das bei mir über Stromzähler und jetzt aktuell über die UPS gemessen daher kommt das schon hin. Ich denke mal bei dir ist die CPU dann das "Problem".
  17. Tatsächlich ja, hab gar nicht gesehen das der Tiefstand 299€ war😞 Aber aktuell ist der Preis schon wieder bei 345. In Fernost haben die schon wieder neue Liefer-/Herstellungsprobleme angekündigt die Tage, daher lieber jetzt eindecken. Ich hab aber die gleichen wahrscheinlich liegen die dicht beieinander was die Seriennummern angeht
  18. Ich bin übrigens bis auf eine Sache immer noch extrem Zufrieden mit der Kombination Unraid und Ryzen Server. Lichtjahre entfernt von meinen QNAP Systemen und trotz BME/IMPI und x570 und 10G LAN zieht das System "nur" 30w. Wenn die aktuellen Ryzen Modelle auslaufen steck ich mir dann einen 12 oder 16er rein statt dem 6 Kerner. Ich hab aktuell permanent 2 VMs laufen und dann noch 10 aktive Container aber alles läuft perfekt und macht wirklich Spaß. PS: An Weihnachten ist meine 4TB Sandisk SSD eingetrudelt auf die ich alle Fotos ausgelagert hab. Die ist aktuell für einen sehr guten Kurs zu bekommen.
  19. Seltsam appdata steht auf "cache" aber bei System schaut es anders aus? Was ist denn das Default Setting für das System Share ich wüsste nicht das ich dort was angepasst habe?
  20. Damit kann es denke ich nichts zu tun haben weil das Thema reproduzierbar war im laufenden Betrieb?! Ist es normal das der Start des "NginxProxyManager" (nicht der von MGUTT) automatisch dafür sorgt das die Platten hochfahren? Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdb Sep 21 06:01:35 Sugo emhttpd: spinning down /dev/sdc Sep 21 18:05:33 Sugo webGUI: Successful login user root from 192.168.xxxx Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:45 Sugo kernel: device veth6571ec7 entered promiscuous mode Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:05:45 Sugo kernel: docker0: port 1(veth6571ec7) entered disabled state Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdb Sep 21 18:05:56 Sugo emhttpd: read SMART /dev/sdc Sep 21 18:05:58 Sugo kernel: eth0: renamed from vethf4a4bf2 Sep 21 18:05:58 Sugo kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth6571ec7: link becomes ready Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered blocking state Sep 21 18:05:58 Sugo kernel: docker0: port 1(veth6571ec7) entered forwarding state Sep 21 18:06:00 Sugo avahi-daemon[2360]: Joining mDNS multicast group on interface veth6571ec7.IPv6 with address fe80::846b:8eff:fea4:6d6. Sep 21 18:06:00 Sugo avahi-daemon[2360]: New relevant interface veth6571ec7.IPv6 for mDNS. Sep 21 18:06:00 Sugo avahi-daemon[2360]: Registering new address record for fe80::xxxxxx on veth6571ec7.*. 9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:53:37 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:54:22 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:55:44 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Building Access file #1 for: LAN [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: ryto [9/19/2021] [6:56:11 PM] [Access ] › ℹ info Adding: smolo [9/19/2021] [6:56:11 PM] [Access ] › ✔ success Built Access file #1 for: LAN [services.d] stopping services [services.d] stopping app... [9/19/2021] [6:58:16 PM] [Global ] › ℹ info PID 601 received SIGTERM [9/19/2021] [6:58:16 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [services.d] starting statusmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [app] starting Nginx Proxy Manager... [nginx] starting... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/19 19:20:06 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0000_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0001_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0002_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/csr/0003_csr-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0000_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0001_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0002_key-certbot.pem. [cert_cleanup] Deleting /etc/letsencrypt/keys/0003_key-certbot.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 8 file(s) deleted. [9/19/2021] [7:20:08 PM] [Migrate ] › ℹ info Current database version: none [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/19/2021] [7:20:08 PM] [Setup ] › ℹ info Logrotate completed. [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/19/2021] [7:20:08 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/19/2021] [7:20:09 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/19/2021] [7:20:09 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/19/2021] [7:20:09 PM] [Global ] › ℹ info Backend PID 1265 listening on port 3000 ... [9/19/2021] [7:20:12 PM] [Nginx ] › ℹ info Reloading Nginx [9/19/2021] [7:20:13 PM] [SSL ] › ℹ info Renew Complete [services.d] stopping services [services.d] stopping app... [9/19/2021] [7:22:50 PM] [Global ] › ℹ info PID 1265 received SIGTERM [9/19/2021] [7:22:50 PM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 00:21:53 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [12:21:54 AM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [12:21:54 AM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [12:21:54 AM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [12:21:54 AM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [12:21:54 AM] [Global ] › ℹ info Backend PID 1262 listening on port 3000 ... [9/21/2021] [12:21:55 AM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [12:21:55 AM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0 [services.d] stopping services [services.d] stopping app... [9/21/2021] [12:31:39 AM] [Global ] › ℹ info PID 1262 received SIGTERM [9/21/2021] [12:31:39 AM] [Global ] › ℹ info Stopping. [services.d] stopping nginx... [services.d] stopping cert_cleanup... [services.d] stopping statusmonitor... [services.d] stopping logmonitor... [services.d] stopping s6-fdholderd... [cont-finish.d] executing container finish scripts... [cont-finish.d] done. [s6-finish] syncing disks. [s6-finish] sending all processes the TERM signal. [s6-finish] sending all processes the KILL signal and exiting. [s6-init] making user provided files available at /var/run/s6/etc...exited 0. [s6-init] ensuring user provided files have correct perms...exited 0. [fix-attrs.d] applying ownership & permissions fixes... [fix-attrs.d] done. [cont-init.d] executing container initialization scripts... [cont-init.d] 00-app-niceness.sh: executing... [cont-init.d] 00-app-niceness.sh: exited 0. [cont-init.d] 00-app-script.sh: executing... [cont-init.d] 00-app-script.sh: exited 0. [cont-init.d] 00-app-user-map.sh: executing... [cont-init.d] 00-app-user-map.sh: exited 0. [cont-init.d] 00-clean-logmonitor-states.sh: executing... [cont-init.d] 00-clean-logmonitor-states.sh: exited 0. [cont-init.d] 00-clean-tmp-dir.sh: executing... [cont-init.d] 00-clean-tmp-dir.sh: exited 0. [cont-init.d] 00-set-app-deps.sh: executing... [cont-init.d] 00-set-app-deps.sh: exited 0. [cont-init.d] 00-set-home.sh: executing... [cont-init.d] 00-set-home.sh: exited 0. [cont-init.d] 00-take-config-ownership.sh: executing... [cont-init.d] 00-take-config-ownership.sh: exited 0. [cont-init.d] 00-xdg-runtime-dir.sh: executing... [cont-init.d] 00-xdg-runtime-dir.sh: exited 0. [cont-init.d] 90-db-upgrade.sh: executing... [cont-init.d] 90-db-upgrade.sh: exited 0. [cont-init.d] nginx-proxy-manager.sh: executing... [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/etc/nginx/conf.d[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/assets.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/block-exploits.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/force-ssl.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/letsencrypt-acme-challenge.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/proxy.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/include/ssl-ciphers.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/default.conf[0m [1;34m❯ [1;33m/etc/nginx/conf.d/production.conf[0m [1;34m❯ [1;36mEnabling IPV6 in hosts: [1;33m/config/nginx[0m [1;34m❯ [1;33m/config/nginx/proxy_host/1.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/3.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/4.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/5.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/7.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/6.conf[0m [1;34m❯ [1;33m/config/nginx/proxy_host/2.conf[0m [1;34m❯ [1;33m/config/nginx/ip_ranges.conf[0m [1;34m❯ [1;33m/config/nginx/resolvers.conf[0m chown: /config/log/log: Symbolic link loop [cont-init.d] nginx-proxy-manager.sh: exited 0. [cont-init.d] done. [services.d] starting services [services.d] starting s6-fdholderd... [services.d] starting logmonitor... [logmonitor] no file to monitor: disabling service... [services.d] starting statusmonitor... [services.d] starting cert_cleanup... [statusmonitor] no file to monitor: disabling service... [services.d] starting nginx... [services.d] starting app... [cert_cleanup] starting... [nginx] starting... [app] starting Nginx Proxy Manager... [services.d] done. [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Let's Encrypt certificates cleanup - 2021/09/21 18:06:00 [cert_cleanup] ---------------------------------------------------------- [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-1/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-2/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-3/fullchain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/cert1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/privkey1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/chain1.pem. [cert_cleanup] Keeping /etc/letsencrypt/archive/npm-4/fullchain1.pem. [cert_cleanup] 16 file(s) kept. [cert_cleanup] 0 file(s) deleted. [9/21/2021] [6:06:00 PM] [Migrate ] › ℹ info Current database version: none [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate Timer initialized [9/21/2021] [6:06:00 PM] [Setup ] › ℹ info Logrotate completed. [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching IP Ranges from online services... [9/21/2021] [6:06:00 PM] [IP Ranges] › ℹ info Fetching https://ip-ranges.amazonaws.com/ip-ranges.json [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v4 [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info Fetching https://www.cloudflare.com/ips-v6 [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Let's Encrypt Renewal Timer initialized [9/21/2021] [6:06:01 PM] [SSL ] › ℹ info Renewing SSL certs close to expiry... [9/21/2021] [6:06:01 PM] [IP Ranges] › ℹ info IP Ranges Renewal Timer initialized [9/21/2021] [6:06:01 PM] [Global ] › ℹ info Backend PID 1260 listening on port 3000 ... [9/21/2021] [6:06:02 PM] [Nginx ] › ℹ info Reloading Nginx [9/21/2021] [6:06:02 PM] [SSL ] › ℹ info Renew Complete `QueryBuilder#allowEager` method is deprecated. You should use `allowGraph` instead. `allowEager` method will be removed in 3.0 `QueryBuilder#eager` method is deprecated. You should use the `withGraphFetched` method instead. `eager` method will be removed in 3.0 QueryBuilder#omit is deprecated. This method will be removed in version 3.0
  21. Also einen unhübschen Effekt habe ich jetzt festgestellt: Wenn ich den manuellen SpinDown betätige werden die Platten immer nach 20-30s aufgeweckt ein manueller und dauerhafter Spin Down ist so gar nicht umsetzbar. Wenn ich ihn aber selbstständig in den SpinDown gehen lassen nach 30min bleiben die Platten ausgeschaltet? > SafeMode ohne GUI ohne PlugIns + Docker an + alle Docker Container aus
  22. Danke fürs Angebot ich bin aber auch grad am Arbeiten daher keine Zeit. Mich hat es ehrlich gesagt auch gewundert ich schau mir das Morgen noch mal an und schick dir mal LogFile 🙂
  23. Also ich hab jetzt wieder 2-3h mit dem Thema verbracht. Unraid > Safemode ohne PlugIns / GUI in 6.9.2 = Problem besteht weiterhin 10-20s nach Spin Down fahren die Platten wieder hoch. (sehe ich auch am Energiemonitor) Unraid > Safemode ohne PlugIns / GUI in 6.9.2 mit Docker und keinen laufenden Container = Gleiches Problem Unraid > Safemode ohne PlugIns / GUI in 6.9.2 Docker ausgeschaltet = Ruhe Ich hatte vorhin den Nginx Proxy Manager im Verdacht aber es scheint eventuell am blanken Docker Dienst zu liegen? @mgutt Ich wollte dann deinen Nginx verwenden aber der hat nur rumgezuckt bei der Ersteinrichtung. Dienst kam immer erst beim 2 Start hoch...Passwort Änderung war nicht möglich...Dienst wieder weg. Thema erledigt > Probleme wegen doppelter IP-Adressvergabe! Nachtrag: Vorhin hatte ich den Docker noch mal gestartet ohne laufende Container > manueller Spin Down > 20s Spin Up! Allerdings hab ich jetzt gesehen das nach dem regulären 30min Spin Down die Platten auch mit Docker Dienst aus sind. Hier wird man echt wahnsinnig 😐
  24. Das schaut bei der Anzahl an Posts für mich allerdings gänzlich anders aus. Ich hab aktuell nur eine Parity / Data neben den Cache Disks im System. Meine Linux Kenntnisse sind zugegebenermaßen noch stark Ausbaufähig daher tue ich mir mit den ganzen Linux Foldern noch extrem schwer. Ich habe inotifywait mal angeworfen aber ich hab keine Ahnung wo ich da Folder technisch ansetzen muss bzw. auf was ich da achten sollte da es weder Plugins noch Docker Container laufen! Woran erkenne ich im Log das sich ein System nicht mehr rebooten lässt wenn dort keine Fehler Meldungen hinterlegt sind?😱 Sorry aber die Aussage ist schon extrem frech. Ich habe explizit geschrieben das ich enttäuscht bin das es von Unraid Seite keinerlei Statements zu diesem Thema gibt nicht mehr und nicht weniger. Ich erwarte bei Systemen einfach einen Bug mit einem Verweis das dieser Untersucht wird mit gelegentlichen Status Updates. Nur weil mittlerweile jeder gewohnt ist das Hersteller keine gescheite QA haben (keine Anspielung auf Unraid etc. sondern Allgemein gemeint) und sich einen scheiß um Fehler kümmern hat das immer noch nichts mit der Beauftragung eines persönlichen Support zu tun! Mit dem Nutzungsrecht / Lizenz kauft man auch eine Gewährleistung ein, ob dir das jetzt gefällt oder nicht. Wir sprechen hier ja nicht von einem Plugin sondern einer essentiellen Funktion die aktuell nicht funktioniert. Mit der Argumentation kannst ja mal gucken was passiert wenn nach einem Software Update dein Auto kein Standgas mehr hält.