sonic6

Members
  • Posts

    289
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by sonic6

  1. Bei mir war es damals nicht so, da wurde das "Docker Image" als Pfad neu erstellt. Wenn ich mich recht erinnere musste ich auch die Container "neu laden". Ich erinnere mich nicht mehr 100%tig, war aber glaube ich in der 6.9.2 Beta?
  2. Warum war das überhaupt weg? Hast du nicht eingestellt, dass Custom Network erhalten bleiben sollen (Docker Settings)? Das liegt daran, dass die Docker Network Setting im Docker Image unter /docker/container/network/files/local-kv.db liegen. Wenn man die "local-kv.db" vorher aus dem laufenden Docker Image sichert und später im Docker Path wieder herstellt, sind die Customnetworks wieder vorhanden. - Docker mit Docker Image starten - local-kv.db sichern - Docker auf Docker Path starten und warten, dass alle Container gestartet sind - Docker Dienst stoppen - local-kv.db mit dem Backup ersetzten - Docker Dienst starten - ... - sich darüber freuen, dass alles ist wie vorher *edit* Die Lösung einfach "wieder" das Proxynet zu erstellen ist nur Semi gut. Beim ersten mal wenn das Proxynet erstellt wird und man kein Subnet angibt, wird 172.17.0.0 erstellt. Wenn man nur einfach wieder eines erstellt, wird 172.18.0.0 erstellt, selbst wenn das Proxynet "verschwunden" ist. Und so weiter... das hat bei mir alles durcheinander geworfen, als ich auf Docker Path umgestellt habe, da ich überall, wo nicht mit der Namesauflösung gearbeitet wurde, die IPs anpassen musste. Nicht zu vergessen einige Zeilen in der config von NC. In Summe ist da schnell mal was vergessen. Das ganze habe ich umgangen, in dem ich mir einfach meine alten Netzwerksetting aus dem Docker Image gesichert habe.
  3. Erstmal Danke, ich beobachte das Thema schon seit es im Reddit aufgetaucht ist. Gibt es auch eine Kehrseite der Medaille? Was ist mit nem Crash oder sonstigem unvorhersehbarem verhalten? Ist absehbar ob eine dauerhafte Lösung in Unraid implementiert wird?
  4. I am on 9.10.RC1. I am not using spindown on my Array, but i have a UAD which is connected through SATA for a monthly backup. This UAD is unmounted and will only be mounted and unmounted by the backup script. Also this "unmounted" UAD will be spinning up for no reasons.
  5. Vielleicht sollte man DIES (https://forums.unraid.net/topic/101283-what-is-the-difference-between-virtio-and-virtio-net/?do=findComment&comment=1021453) aber auch nicht unerwähnt lassen... hatte lange deswegen crashes.
  6. I am running a BTRFS RAID1 Cache Pool and an XFS single Cache. What is the recommended way for this usecase? Just use the Trim Plugin once a week? Will it be conflicted with the BTRFS Cache? (running Unraid 6.9.2)
  7. I think this depends to the guide from spaceinvader and the rewrite from the nextcloud IP to the WAN URL inside the nextcloud conf.
  8. @bat2o if it works externally and you try to access your nextcloud from the same LAN with your DuckDNS URL then maybe DNS-Rebind Protection / DNS Hairpinning (nat loopback) on your router/firewall can help you.
  9. Noch eine kleine Ergänzung zur CyberPower USV: Wenn man möchte, dass bei beim Netzausfall der Server runterfährt und bei Netzwiederkehr hochfährt muss man folgendes machen: -Statt dem UPS Dienst (welcher in Unraid schon installiert ist), muss man das NUT Plugin nutzen und "Turn off UPS after shutdown:" auf "Yes" setzten. -Im Bios den Server so konfigurieren, dass bei Netzspannung immer "Power on" ist. Warum NUT satt UPS? -Wenn man "Turn off UPS after shutdown:" vom UPS Dienst nutzt fährt die USV erst 60 Minuten runter, nachdem der Server runterfahren wurde. Wenn innerhalb der 60 Minuten das Netzt aber zurück kommt, bleiben alle Ausgänge weiterhin unter Spannung und der Server bleibt immer aus. Die BIOS Funktion "Power on" bei "Netzspannung" funktioniert nur bei einer Flanke von 0 auf 1.
  10. After updating to 1.17.0-ls71 SWAG doen't start: nginx: [emerg] "proxy_redirect" directive is duplicate in /config/nginx/proxy-confs/debianbullseye.subdomain.conf:36 nginx: [emerg] "proxy_redirect" directive is duplicate in /config/nginx/proxy-confs/debianbuster.subdomain.conf:36 nginx: [emerg] "proxy_redirect" directive is duplicate in /config/nginx/proxy-confs/ferdi-client.subdomain.conf:36 nginx: [emerg] "proxy_redirect" directive is duplicate in /config/nginx/proxy-confs/onlyoffice.subdomain.conf:22 i have to commenting out "proxy_redirect" in my all *.subdomain.conf to get SWAG work.
  11. Falls man Cloudlfare für deine Domains nutzt, kann hier vielleicht @hotios cloudflareddns container helfen? Der kann zusätzlich zum A Record auch den AAAA Record per API anpassen.
  12. @nicx may commenting out the notification will be enough?
  13. @guybrush2012 eigentlich sollte es reiche, wenn der Port den Drocker für br0 nutzt, IPv6 aktiv hat.
  14. Die IT FW macht am Ende nen großen unterschied. Aber ja, ich gebe dir recht, der HBA wird in Summe mehr Energie verbrauchen als ne einfache Erweiterungskarte.
  15. Ernsthaft, mein HBA braucht keine 15W im IT Mode. Hatte vor ein paar Wochen den HBA gegen m.2 SATA Controller getauscht und 3W mehr weniger gehabt.
  16. @guybrush2012 Die zweite Unraid IP ist der shim-br0 für den Host Zugriff, wie ihr schon rausgefunden habt. Dieser wechselt auch die MAC nach jedem Unraid Neustart. Meine ganze Fritzbox ist voll mit dem doppelten Unraid eintrag. Der Host Access ist aber (glaube ich) von Nöten, wenn per Wireguard auf nen Pihole der auf Unraid läuft, zugefriffen werden soll. Thema IPv6/IPv4 zugriff auf Unraid bei nem DualStack Light anschluss könnte dir der Cloudflare-Tunnel helfen, oder wenn du CF nicht traust dies: In dem Vortrag wird gut erklärt wie man die DualStack Light Thematik behandeln könnte.
  17. Was spricht gegen nen gebrauchten PCIe SATA HBA im IT Mode? Habe meinen damals günstig in der Bucht geschossen und bin mit den 8 Ports schon ganz zufrieden.
  18. there is one from @ich777 https://unraid.net/community/apps?q=ferdi-client#r
  19. ich lese jetzt seit ein paar Tagen still mit. Ich komme gar nicht erst über C3. Wird das an meinem HBA liegen?
  20. vielleicht hilft dir ja folgendes Plugin heraus zu finden, was deine Platten am SpinDown hindert:
  21. Ich hatte mit meiner Fritzbox auch Probleme mit Wireguard, musste händisch ne Route eintragen. Vielleicht hilft dir das weiter.
  22. Yes. I habe a DS380 Case with hot-swap cages. I didn't touched that drive for month.
  23. i wasn't afraid of my data, only about my drive configuartions like temperatures, etc... thank you guys for the help. i ordered two new cables and will report in a week or two
  24. i hope there is another way... i don't want to lose all my drive configurations...
  25. Parity Drive is connected to an HBA: IBM ServeRaid M1015 SATA / SAS HBA Controller (IT Mode) with a Mini SAS 36 Pin-Stecker (SFF-8087) to 4 x SATA i can swap from P00 to P01 on the HBA when i installed this, i was very carefully and this worked since february what is the best way, to bring my parity back online?