Pillendreher

Members
  • Content Count

    40
  • Joined

Everything posted by Pillendreher

  1. Ich hab mir das mal angesehen, verstehe aber nicht so recht, was dieser Docker macht. So wie ich das jetzt laienhaft verstehe, schiebt er sich dazwischen mit einer VPN Verbindung. Auf welche VPN Verbindung bezieht sich das Ganze aber? Kann man da seine VPN Daten (Wireguard) des Unraid Servers eintragen? Und wie bin ich dann "geschützter" im Vergleich zu vorher?
  2. Danke euch beiden, schau ich mir mal in einer ruhigen Minute an! In der Zwischenzeit habe ich heute zufällig rausgefunden, dass ich über die "MyFritz" APP auch eine VPN Verbindung zur Fritzbox herstellen kann, sodass ich noch eine Alternative zu Wireguard über den Unraid Server habe
  3. Und dieses Netzwerk erstelle ich stinknormal mit "docker network create"? Oder ist das komplizierter?
  4. The same error message just showed up without any hardware swaps on my part. Have you been able to solve this?
  5. Ja, genau das war mein Gedanke. Grob gesagt habe ich mir das so vorgestellt: Laptop möchte sich mit Nextcloud synchronisieren => Router => DuckDNS => Router => Unraid Wenn dem aber nicht so ist, ist das Ganze ja aber kein Problem. My Servers funktioniert übrigens mittlerweile; dadurch wird mir dann aber der 443 Port blockiert. Ich werde jetzt mal einerseits über einen Reverse Proxy Nextcloud offenlassen (damit ich auch in der Arbeit kurz das WebIF aufrufen kann, sobald ich etwas brauche) und mich ansonsten mal in Wireguard einlesen. W
  6. Just to make sure I understand this correctly: The remote access lets me open up my Unraid servers's web interface, but I can't access anyting beyond that like my docker containers' web interfaces, right?
  7. Das stimmt. Vielleicht liegt bei mir auch nur ein Denkfehler vor: Ich befürchte, dass beim Umweg über DuckDNS auch die Nextcloud-Synchronisierung immer einen Umweg geht. Oder dient die Nutzung der DuckDNS Domain nur soz. der "Wegweisung" und der Nextcloud-Client synchronisiert trotzdem ausschließlich intern? Und was mir auch noch ein bisschen Sorgen macht: Ist es nicht so, dass man die Ports 80 und 443 eigentlich nie weiterleiten sollte? Ich könnte das wohl in meinen Geräten abspeichern, aber aufwendig wäre das schon... Wollte ich gerade
  8. Ah, interessant. Würde das mit Adguard Home auch gehen? Das habe ich seit ~zwei Wochen testweise laufen auf dem Server. Geht das über die "Domain Umschreibungen"? Extern ist dann wieder eine eigene Baustelle bei mir. Es wäre nicht schlecht, wenn ich etwa von der Arbeit aus auf meine Nextcloud zugreifen könnte, etwa wenn ich ein Dokument zufällig brauche, das lokal bei mir zuhause liegt. Dafür könnte ich theoretisch dann die duckdns domain zusätzlich nutzen, oder? Ansonsten würde ich wohl eine VPN Verbindung eingehen (bin gerade dabei, mich in die Thematik ei
  9. Das habe ich gestern auch gesehen. Selbst-signierte Zertifikate gehen dann aber? Im Übrigen kam mir deswegen gestern auch der Gedanke, ob ich nicht intern eine "Domain hosten" könnte, aber da ich in der Hinsicht wirklich absoluter Laie bin, weiß ich schlicht nicht, ob so etwas überhaupt technisch möglich ist. Das wäre wohl sehr aufwendig. Der Gedanke kam mir gestern auch, aber sobald ich an der Fritzbox 80 und 443 zugemacht habe, ging nichts mehr über die duckdns Adresse. Im Übrigen bin ich mir aber auch nicht sicher, ob das Ganze bei mir
  10. Nach stundenlanger Recherche bin ich leider keinen Schritt weiter, weswegen ich hier mal direkt frage: Ist es möglich, Nextcloud über Let's Encrypt/SWAG ein allgemein anerkanntes SSL Zertifikat zu verpassen, ohne dafür ständig den Umweg über einen DynDNS DIenst gehen zu müssen? Ich hab es geschafft, eine DuckDNS Domain zu verwenden, jedoch sehe ich wenig Sinn darin, jedes Mal aus meinem lokalen Netzwerk rauszufunken, nur um dann wieder hier lokal zu landen. Auch würde ich es gerne vermeiden, extra deswegen Portfreigaben einzustellen... Was mir vorschwebt: Über den Nginx
  11. These are my currently installed plugins: The only User script I'm running is an undervolting script for my Intel CPU. I also user Docker images, but none of them actually utilize HDDs unless I tell them to. Is there any way to debug the smart reading? Ie can I pinpoint the source for the smart request?
  12. I've suspected that as well, but I don't think there is anything. I'm not running any monitoring software on my Unraid server.
  13. Not really. I'm on 6.9.1 and my disks still wake up due to a smart reading:
  14. Any of you ever run into the following message? Just started showing up. It goes away once I uninstall the sleep plugin and reappears every time I reinstall it.
  15. I've been experiencing the same issue over the last couple of days with the very same behavior. As soon as I put load on the drive, it goes offline and even a reboot doesn't help. I had the same problem a couple of weeks ago back when the drive wasn't housing my Docker files and just acted as a secondary cache drive and iirc I actually managed to fix this, but for the life of me I can't remember what I did...back then it happened when trying to remove unnecessary streams from mkv files - the drive just collapsed. After I changed something though it worked without issue.
  16. Thank you for this. This gets docker going again without having to restart the whole sever.
  17. I went back to Beta 35 to check if the unwanted spin-ups I've experience with RC2 were happening.
  18. I've just experienced the very same issue with Beta35 two days in a row - the Docker service went down while I was at work. Reboot fixed it until the docker service broke again.
  19. Actually they are not. I ran the diagnostics tool right after Docker crashed. I only rebooted afterwards!
  20. Since going from Beta35 to RC2, my Docker service has started crashing irregularly. I have not been able to reproduce it, but this is what I get as an error message when clicking on the Docker tab: Docker Service failed to start. Warning: stream_socket_client(): unable to connect to unix:///var/run/docker.sock (Connection refused) in /usr/local/emhttp/plugins/dynamix.docker.manager/include/DockerClient.php on line 682 Couldn't create socket: [111] Connection refused Warning: Invalid argument supplied for foreach() in /usr/local/emhttp/plugins/dynamix.docker.manager/inc
  21. Same here. I reckon something went wrong during a modification of how smart information is gathered (If I remember correctly I read something regarding SMART in the changelog)
  22. With the RC2, my drives keep waking up, apparently because Unraid is pulling smart data: Dec 29 00:03:47 Tower emhttpd: spinning down /dev/sdd Dec 29 00:07:22 Tower emhttpd: read SMART /dev/sdd Is there any way to keep this from happening? I didn't have this problem with Beta 35. EDIT: Oh, and another thing: Twice now my Docker image seemed to be broken (got a weird error message that looked like something about the webgui was broken: "Docker service wont start"), but instead of having to rebuild the image, a restart fixed it. That didn't happen ei
  23. Thanks, just got around to enable it - works flawlessly.
  24. Already done this as well. Issues happened on port 4, I switched to port 3. I was away for a couple of hours and the resets keep happening: Dec 13 14:36:00 Tower kernel: ata3: SATA link up 6.0 Gbps (SStatus 133 SControl 300) Dec 13 14:36:00 Tower kernel: ata3.00: supports DRM functions and may not be fully accessible Dec 13 14:36:05 Tower kernel: ata3.00: qc timeout (cmd 0x2f) Dec 13 14:36:05 Tower kernel: ata3.00: failed to get NCQ Send/Recv Log Emask 0x4 Dec 13 14:36:05 Tower kernel: ata3.00: NCQ Send/Recv Log not supported Dec 13 14:36:05 Tower kernel: ata3.00: ATA Id