sakistech Posted July 3, 2022 Share Posted July 3, 2022 51 minutes ago, sonic6 said: jap zusammen mit pihole so nutze ich es auch auf einem Raspi4. aber irgendwie scheint nicht alles "richtig" zu laufen. Kannst du mal über meine Konfigs schauen ob ich irgendwo einen fehler drinne habe? Ich habe pihole und Unbound unter dieser Anleitung installiert. Bei meinem Raspi4, wo Pihole und unbound läuft, habe ich unter /etc/dnsmasq.d/07-example.de.conf folgendes stehen. address=/.example.de/192.168.178.110 wobei die 192.168.178.110 mein Nginx Proxy Manager ist, der als Docker im Unraid-Server läuft. cat /etc/resolv.conf spuckt beim Raspi4 das aus domain fritz.box search fritz.box nameserver 192.168.178.20 wobei die 192.168.178.20 mein Raspi4 ist auf den Pihole und Unbound läuft. beim Unraid-Server habe ich unter Local-TLD: local stehen und bei IPv4 DNS server: 192.168.178.1 bei der Fritzbox habe ich unter Internet > Zugangsdaten > DNS-Server bei beiden Feldern die IP des Pihole`s eingetragen und unter Heimnetzwerk > Netzwerk > Netzwerkeinstellungen > IPv4-Einstellungen > Lokaler DNS-Server: habe ich ebenfalls die IP vom Pihole`s eingetragen. Dann habe ich in Pihole unter DNS-Records folgendes eingetragen: server.fritz.box > 192.168.178.200 das ist mein Unraid-Server. und unter CNAME-Records proxy.example.de > server.fritz.box cloud.example.de > server.fritz.box .... Wenn ich jetzt z.b. cloud.example.de anpinge bekomme ich die ip vom Unraid-Server und nicht die IP vom Nextcloud Container, wo ich eine static IP vergeben habe. Habe ich da ein denkfehler oder stimmt da was nicht? Quote Link to comment
sonic6 Posted July 3, 2022 Share Posted July 3, 2022 53 minutes ago, sakistech said: beim Unraid-Server habe ich unter Local-TLD: local da müsste fritz.box rein, das wird aber nicht der Grund sein, warum es nicht läuft. Hast du den dns-rebind Schutz für deine Domains in der der Fritzbox und am Unbound deaktivert? Besonders der vom Unbound wird gerne mal vergessen. Quote Link to comment
sakistech Posted July 3, 2022 Share Posted July 3, 2022 20 minutes ago, sonic6 said: da müsste fritz.box rein, das wird aber nicht der Grund sein, warum es nicht läuft. Hast du den dns-rebind Schutz für deine Domains in der der Fritzbox und am Unbound deaktivert? Besonders der vom Unbound wird gerne mal vergessen. Danke für den Hinweis. wie kann ich es auf beiden deaktivieren? Quote Link to comment
Revan335 Posted July 3, 2022 Share Posted July 3, 2022 Kann man bspw. im Router einrichten. https://avm.de/service/wissensdatenbank/dok/FRITZ-Box-7590/3565_FRITZ-Box-meldet-Der-DNS-Rebind-Schutz-Ihrer-FRITZ-Box-hat-Ihre-Anfrage-aus-Sicherheitsgrunden-abgewiesen/ 1 Quote Link to comment
sakistech Posted July 3, 2022 Share Posted July 3, 2022 15 minutes ago, Revan335 said: Kann man bspw. im Router einrichten. https://avm.de/service/wissensdatenbank/dok/FRITZ-Box-7590/3565_FRITZ-Box-meldet-Der-DNS-Rebind-Schutz-Ihrer-FRITZ-Box-hat-Ihre-Anfrage-aus-Sicherheitsgrunden-abgewiesen/ Muss ich da jede einzelne Domain eintragen? sprich nextcloud.example.de oder nur example.de oder die vom NPM ? Und wo trage ich was bei unbound ein? konnte dazu nichts finden. Quote Link to comment
Revan335 Posted July 3, 2022 Share Posted July 3, 2022 Ob Wildcard/*.domain.de funktioniert weiß ich nicht. Aber jedenfalls deine externen Domains für die du ein Cert willst. Das müsste bei Reverse Proxy oder so nur eine sein? Quote Link to comment
sakistech Posted July 3, 2022 Share Posted July 3, 2022 Ich glaube wir haben uns mistverstanden. Ich möchte nichts von extern zugreifen sondern nur intern. Quote Link to comment
Revan335 Posted July 3, 2022 Share Posted July 3, 2022 Ah, dass hatte ich auch. Hier hatte ich drüber geschrieben. Also in dem Thread. Aber sollte das nicht mit 6.10 wegfallen oder einfacher sein? Quote Link to comment
sonic6 Posted July 3, 2022 Share Posted July 3, 2022 3 hours ago, sakistech said: wie kann ich es auf beiden deaktivieren? und in unbound in der conf (in meinem fall /etc/unbound/unbound.conf.d/pi-hole.conf): 1 Quote Link to comment
High-Tower Posted September 11, 2022 Share Posted September 11, 2022 Hi zusammen, beschäftige mich aktuell auch mit dem Thema. Hab einige Subdomains aktuell über NGINX Proxy Manager und meinem Hoster übers Inet veröffentlicht, vorallem auch wegen Bitwarden (Vaultwarden) https. Da ich zukünftig auf meiner Domain eine Homepage erstellen möchte, könnte man über nen Subdomain Scanner die Subdomains ausfindig machen und hat durch nen Ping meine IP Adresse (dadurch evtl. DDOS Attacken oder weiteren Blödsinn anstellen). Das was ich mir nun vorstelle ist: - Wireguard einrichten auf der PFSense - Alle Clients wo drauf sollen, Wireguard einrichten - Einen lokalen DNS einrichten (könnte ja NPM dafür nehmen) - Eigene Zertifikate erstellen und diese im NPM auf den Host als SSL eintragen So könnte man sich dann von außerhalb mit dem Wireguard einloggen und via DNS auf die Web Pages der verschiedenen Docker zugreifen (Jellyfin, piwigo usw....) vor allem aber auch via https auf den Vaultwarden. Hab leider keine Lösung gefunden, via http bei Vaultwarden zugreifen zu können.... Hoffe ich bin nicht ganz auf dem falschen Dampfer 🙂 Quote Link to comment
i-B4se Posted September 11, 2022 Share Posted September 11, 2022 Ich habe mir eine extra Domain für den Server-Kram gebucht. So hat diese nichts mit meinen Mailadressen etc. zu tun. Die kosten ja heute auch nicht mehr die Welt. 1 Quote Link to comment
mgutt Posted September 11, 2022 Author Share Posted September 11, 2022 1 hour ago, High-Tower said: dadurch evtl. DDOS Attacken oder weiteren Blödsinn anstellen Das Problem hast du immer, wenn du was erreichbar machst. Auch wenn du nur einen Port für den VPN aufmachst. Nur warum sollte jemand überhaupt seine Ressourcen für so einen Angriff verschwenden. Quote Link to comment
High-Tower Posted September 15, 2022 Share Posted September 15, 2022 (edited) On 9/11/2022 at 4:22 PM, mgutt said: Das Problem hast du immer, wenn du was erreichbar machst. Auch wenn du nur einen Port für den VPN aufmachst. Nur warum sollte jemand überhaupt seine Ressourcen für so einen Angriff verschwenden. Das mit der eigenen Domain wäre eine Idee. Würde das aber eigentlich gerne über Wireguard regeln (Zugriff über das Internet). Im eigenen Lan spielt das ja keine Rolle, wenn ein Gerät verbunden ist. Einzig Vaultwarden benötigt https, die anderen Geräte sind auch ohne SSL erreichbar, bzw. Funktionieren. Das ob, warum, usw.. ist das eine Glaubensfrage. Ob man es braucht oder nicht, darf man sich als IT verrückter nicht stellen 😂 eher, wie bekommt man das hin… Auch in dem Hinblick, wenn das Internet ausfällt und ich aber auf Vaultwarden Zugreifen muss, dann spätestens hab ich ein Problem. Edited September 15, 2022 by High-Tower Quote Link to comment
Archonw Posted September 17, 2022 Share Posted September 17, 2022 Ich hatte kurz einen Schreck bekommen. Richtig, was ist wennn das Netz ausfällt, und ich nicht mehr an meine Passwörter ran komme. Doch die Weboberfläche brauche ich dafür nicht zwingend. Es gibt da ja noch das Handy. Und wenn das Netz wirklich ausfällt. Wozu dann einen Passwortmanager über die Weboberfläche öffnen wollen?Gesendet von meinem Pixel 6 Pro mit Tapatalk Quote Link to comment
mgutt Posted September 26, 2022 Author Share Posted September 26, 2022 Ich habe die Anleitung im ersten Beitrag so aktualisiert, dass nun auch IPv6 unterstützt wird. Quote Link to comment
Daen Posted January 30 Share Posted January 30 (edited) On 10/30/2021 at 3:44 PM, mgutt said: Ich möchte möglichst alle Docker über https verschlüsseln. Über NPM kann ich jedem Docker eine Domain zuweisen und dann ein Let's Encrypt Zertifikat anfordern. Allerdings möchte ich nicht jeden Container öffentlich erreichbar machen. Daher kam ich auf die Idee nur lokale Zugriffe zu erlauben: 1.) Ich trage in NPM bei jedem Host, der nur lokal erreichbar sein soll, unter "Advanced" folgende Regel ein: location / { # allow anyone in 192.168.178.0/24 allow 192.168.178.0/24; # allow our public ipv4 allow 169.254.1.1; # allow our public ipv6 allow fe80::/10; # drop rest of the world deny all; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection $http_connection; proxy_http_version 1.1; # Proxy! include conf.d/include/proxy.conf; } 2.) Nun wird das folgende Skript alle 5 Minuten ausgeführt, damit die Platzhalter IP 169.254.1.1 bzw fe80::/10 aus der zuvor genannten Konfiguration gegen meine öffentliche IP ersetzt wird: #!/bin/bash # make script race condition safe if [[ -d "/tmp/${0//\//_}" ]] || ! mkdir "/tmp/${0//\//_}"; then exit 1; fi; trap 'rmdir "/tmp/${0//\//_}"' EXIT; # get public ipv4 ipv4=$(getent ahostsv4 server.example.com | grep STREAM | head -n 1 | cut -d ' ' -f 1) ipv6=$(ip -6 addr show dev br0 scope global | grep -oP "(?<=inet6 )[^/]+" | head -n 1 | cut -d ':' -f 1-4)"::/56" # replace ipv4 in nginx config sed -i "/# allow our public ipv4/!b;n;c\ \ allow $ipv4;" /mnt/user/appdata/npm/data/nginx/proxy_host/*.conf # replace ipv6 in nginx config sed -i "/# allow our public ipv6/!b;n;c\ \ allow $ipv6;" /mnt/user/appdata/npm/data/nginx/proxy_host/*.conf # reload nginx configuration docker exec -i npm nginx -s reload Das ist wichtig, denn obwohl ich von lokal auf den Container zugreife, kommen meine Zugriffe "von außen" über die öffentliche IP-Adresse. Ich komme nun über die Domain auf meinen Container (Falls ich den Proxy Host über NPM bearbeite, verliert er kurz die IP, aber nach 5 Minuten ist sie wieder erlaubt): Haltet ihr das für die "einfachste" Lösung oder habt ihr eine bessere Idee wie man das umsetzen könnte? Hi ich komme hier leider nicht weiter und hoffe mal wieder auf deine Hilfe. Deine Regel habe ich eingefügt, nur ist danach vaultwarden nicht erreichbar. Zum testen habe ich meine Public IP direkt in die Regel geschrieben, ansonsten alles so gelassen. Das Skript habe ich erstmal ignoriert, die IP habe ich ja wie gesagt eingetragen VG Edited January 30 by Daen Quote Link to comment
mgutt Posted January 31 Author Share Posted January 31 On 1/30/2023 at 1:07 AM, Daen said: Deine Regel habe ich eingefügt Zeig mal was du eingetragen hast. Quote Link to comment
Daen Posted January 31 Share Posted January 31 (edited) Guten Morgen/Mahlzeit gerne: Damit kommt ein 403 Forbidden (openresty) Wenn ich z.B. das deny all; entferne komme ich drauf, aber auch jeder andere, egal welche IP. Ich habe auch das Gefühl, dass mir Ordner fehlen?! Wenn ich es richtig irgendwo gelesen habe, sollte im verzeichnis /etc/nginx/conf.d eigentlich der ordner include sein oder nicht? Ist er aber nicht. Dort sind nur zwei Dateien: • locations.conf • server.conf Edited January 31 by Daen Quote Link to comment
Daen Posted February 1 Share Posted February 1 Ok ich habe es hinbekommen, ich führe das morgen/gleich mal ausführlicher aus. Oh man, was für eine "Geburt" 🥳 Quote Link to comment
mgutt Posted February 4 Author Share Posted February 4 On 2/1/2023 at 1:09 AM, Daen said: ich führe das morgen/gleich mal ausführlicher aus. Bin gespannt 😁 Quote Link to comment
Daen Posted February 6 Share Posted February 6 Sorry etwas arg verspätet. Meine Netzwerksituation sieht man auf dem Bild. Ich hatte im NGINX Proxy Manager mein Netz 192.168.178.0/24 auf allow. Der Fehler ist/war aber, dass ich das Netz des Routers bzw. die IP nicht auf auf allow gesetzt habe. Nachdem ich das gemacht habe, ging alles..... Rausgefunden habe ich das nur, weil ich den NGINX PM und vaultwarden im Docker auf einem Raspberry 4 installiert habe und diesen direkt an den Router..... war purer Zufall. Aber egal. Vielleicht gibt es ja noch einen ähnlichen und gefährlichen Amateuer wie mich und mein Beitrag hilft diesem hier Quote Link to comment
Kazino43 Posted April 9 Share Posted April 9 (edited) Versuche das Thema hier zu verstehen, klappt aber nicht so richtig. Hier möchte man also den Zugriff von außen über Reverse Proxy nur auf ausgewählte Docker beschränken, richtig? Geht das nicht einfach über den NPM, dort die jeweilig gewünschte Subdomain des Dockers ink. dem Port angeben und über Access List zusätzlich sichern? Also so wie hier z.B beschrieben: (Das man evtl. die Unraid GUI nicht über Reverse Proxy zugänglich machen sollte, sollte eigentlich klar sein). Ist an der Vorgehensweise im Video sicherheitstechnisch etwas als kritisch zu bezeichnen? Edit: So wie ich das verstanden habe, soll hier auf alle Docker über die „einfachere/schönere“ custom-domain (anstelle der IP:PORT-Adresse) zugegriffen werden, aber trotzdem nur im lokalen Netzwerk, korrekt? Hat das bis auf die einfachere Adresse sonst noch Vorteile? Edited April 9 by Kazino43 Quote Link to comment
mgutt Posted April 9 Author Share Posted April 9 30 minutes ago, Kazino43 said: aber trotzdem nur im lokalen Netzwerk, korrekt? Hat das bis auf die einfachere Adresse sonst noch Vorteile? Es gibt Cornainer, die verlangen, dass man ausschließlich über https draufgeht. Und https bei einer lokalen IP, also ohne gültiges Zertifikat, quittiert der Browser mit einer Warnung/Fehlermeldung. Ist das dann auch noch ein Container, den du nur ausschließlich lokal nutzen willst, brauchst du eine Lösung. Ansonsten gibt es bis auf leichter zu merkende Adressen keinen Mehrwert. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.