Jump to content

derjp

Members
  • Posts

    180
  • Joined

  • Last visited

Posts posted by derjp

  1. 15 minutes ago, alturismo said:

    Und Array danach wieder starten emoji6.png

    Passt, Autostart Array noch ggf ausschalten

    Gesendet von meinem SM-S911B mit Tapatalk
     

     

    Habe die nu alle auf Array gestellt. Dachte ich kann nun den mover anschmeißen und er verschiebt, aber da hatte ich wohl einen Denkfehler.

    Wie mache ich das jetzt am besten? Damit dann wirklich nichts mehr auf dem Cache ist?

    image.thumb.png.55b5ac37a00acc62b1ecc9344aafc60e.png

  2. Hallo.

     

    Aktuell besteht mein Cache aus 2x 1TB NVMEs. Nun möchte ich diesen mit 2x 2TB NVMEs tauschen und Frage mich ob folgender Weg der richtige ist, oder ob ich was vergessen habe:

     

    1. Docker stoppen

    2. Alle Shares vom Cache auf Array verschieben.

    3. Array stoppen

    4. Cache löschen.

    5. Unraid herunterfahren

    6. die beiden NVMEs austauschen

    7. Unraid hochfahren und neuen Cache mit den neuen NVMEs erstellen.

    8. benötigten Shares wieder auf den Cache schieben.

     

    Wäre das der Weg, oder stelle ich mir das zu einfach vor oder habe etwas vergessen?

  3. Ich habe bei vodafone angerufen und habe dann eine IPv4 bekommen.

    Dann habe ich in meiner Fritzbox meine domain von all.inkl als DynDNS eingetragen.

    über nginx mache ich dann die entsprechenden Anwendungen von meinem unraid erreichbar mit subdomains.

     

    nextcloud.meinedomain.de
    pdf.meinedomain.de

    anwedungX.meinedomain.de

    anwedungY.meinedomain.de

    usw

     

     

    • Like 1
  4. Ich habe meine Share auf private gestellt und auf unraid einen Benutzer erstellt, der auf diesen Read/Write hat.

    Die Shares habe ich über die IP als Netzlaufwerke verbunden und den Benutzer dann unter den Windows-Anmeldeinformationen hinzugefügt, sodass dieser Benutzer dann genommen wird, wenn ich auf den Server zugreife.

     

    image.png.d4b097578b039c43e658e8cd2001fe88.png

     

    image.png.cbc7dab7b21649026f62565b2b50365f.png

     

    Wenn ich nun auf unraid in der console schaue, bin ich auch als dieser Benutzer verbunden:

     

    image.png.4fc50e7e741c21de23ffce8513b97b10.png

     

    Wenn ich nun auf dem share drauf bin und zum Beispiel Datein verschieben möchte bekomme ich jedoch diese Meldung, dass ich die benötigten Rechte von JARVIS\nobody benötige um die Datei zu verändern.

     

    Wo habe ich was falsch gemacht? Es müsste doch eigentlich richtig sein oder nicht?

     

     

  5. Hallo,

     

    ich kämpfe hier nun schon einige Tage damit, onlyoffice in meiner NExtcloud zum laufen zu bekommen. Ich habe onlyoffice documentserver als Docker installiert und diesen via Nginx erreichbar gemacht, was scheinbar auch funktioniert hat:

     

    image.thumb.png.222a27034becc10b1068b90128ec0159.png

     

    ich habe diesen Docker benutzt: 

     

    image.thumb.png.b4e65f74704f02b40abfa7b2da77988b.png

     

    Habe dann die URL aus Nginx in meiner Nextcloud eingetragen:

     

    image.thumb.png.9d9b50a8750e4f66cb6d92b4257d5e5b.png

     

    Und immer wenn ich auf speichern klicke bekomme ich die gleiche Fehlermeldung:

     

    image.thumb.png.344dc848ba7e05eb2500030274bd37fc.png

     

    Ich habe nun schon wirklich viel ausprobiert und im Internet gesucht, bevor ich das Thema hier aufmache, aber ich habe es noch nicht hinbekommen, diesen zum laufen zu bekommen. Die Nextcloud interne DocumentServer app, scheint ja auch nicht so richtig zu wollen.

     

    Auf einigen Seiten, ließt man, man solle einige json Datein bearbeiten, die in dem Documentserver unter Appdata liegen, diese sind aber bei mir nicht vorhanden. Gefühlt sind die Ordner im Document Server eh recht leer. Ich habe den Docker auch schon neu installiert und auch einen anderen ausprobiert, ich komme aber leider nicht zum gewünschten Ergebnis, dass es läuft. 

     

    Ich bin aktuell ehrlich gesagt mit meinem Latein am Ende und bräuchte hier einmal etwas Unterstützung. Es kann doch nicht so schwer sein, das zum laufen zu bekommen.

     

    Ich weiß nicht ob ich irgendwo etwas übersehen oder vergessen habe und hoffe mir kann hier jemand weiterhelfen.

  6. Ich habe nun die settings.yml geändert und als settings1.yml gespeichert. die alte settings.yml in settings-old.yml umbenannt (das ging komischerweise) und dann die settings1.yml in settings.yml geändert und nun startet es auch wieder.

     

    nun habe ich aber immernoch eine datei da (settings-old.yml) die ich nicht löschen kann.

     

    //EDIT: ok nun konnte ich die alte auch löschen. 

    • Like 1
  7. 1 hour ago, cz13 said:

    Super vielen Dank,

     

    nun habe ich nur das Problem, dass ich die Datei öffnen, aber nicht bearbeiten bzw speichern kann. 

    Wenn ich das über meinen Code-Server auf unraid machen möchte, bekomme ich die Meldung, dass ich die Änderung nicht speichern kann.

    image.png.3d2d869fd9d970be067a55e01aba4eb8.png

     

    Wenn ich von meinem Rechner auf das appdata Share zugreife und die Datei ändern möchte, funktioniert es auch nicht. Wie kann ich am besten die Berechtigung für diese Datei/Verzeichnis ändern?

    Bei anderen Verzeichnissen in appdata hatte ich solche Probleme nicht.

     

  8. Ich hatte vor einigen Tagen stirlingPDF installiert und es lief auch, bis mir nun aufgefallen ist, dass der Docker gestoppt ist.

    Ich habe also versucht diesen neu zu starten, aber er tut es nicht. 
    Nach einem blick in die Logs wurde mir folgedes angezeigt.

     

    image.thumb.png.4269613cba6de21e99118ca310b57095.png

     

    Ich habe nun versucht herauszufinden, was mir dieser Error sagt, bis jetzt jedoch ohne Erfolg und ich weiß auch nicht warum dieser vorher nicht aufgetreten ist und nun auf einmal auftaucht. Ich weiß auch nicht, ob das wirklich das Problem ist, welches stirlingPDF am starten hindert, ich denke aber schon.

     

  9. 23 hours ago, b_tob said:

    Welche Konfiguration meinst du? Die im NGINX? Die Konfiguration in Nextcloud siehst du ja im Screenshot weiter oben. Ich habe folgenden Container installiert: "onlyoffice/documentserver". Dort kannst du auch das Secret definieren welches in Nextcloud eingegeben werden muss.

     

    Zeig sonst mal was du in der Nextcloud alles eingegeben hast.

     

    Installiert habe ich folgenden Docker indem ich auch das Secret bei der Installation gesetzt habe:

     

    image.thumb.png.98582cfd80978d0473d7516f09d28862.png

     

    Und in der Nexcloud habe ich das auch wie folgt angegeben. Die URL ist die, die ich bei Nginx konfiguriert habe worüber die die oben genannte Seite auch erreiche.

     

    image.thumb.png.4b39fbbe99ba468780818f98740c68cc.png

     

    Bekomme aber immer die Fehlermeldung

  10. 20 hours ago, Amarok said:

     

    Not sure if you figured it out or still need help, I happened to be trying to do the same thing.  I configured everything in services.yaml as below (all specifics removed).

    services.yaml

    - Hosted Services:
        - Unraid:
            icon: unraid.png
            href: http://host.ip
            description: Unraid host
            ping: host.ip
            statusStyle: 'dot'
        - Sonarr:
            icon: sonarr.png
            href: http://host.ip:port
            description: Sonarr
            widget:
                type: sonarr
                url: http://host.ip:port
                key: <your_api_key>
            siteMonitor: http://host.ip:port
            statusStyle: 'dot'

     

    GreenDot.png.ba1c166e65c8a9d97540841cafb32f03.png

     

     

    With the ping approach, when hovering over the green dot I get "Ping Up (0ms)" and wtih the siteMonitor it "HTTP Status 401 (14ms)", I'm assuming thats because Sonarr isn't liking the way the request is being sent (not sure about this, need to do more research).

     

     

     

    Thanks for your reply, i will try it that way

  11. On 12/22/2023 at 5:18 PM, boernie77 said:

    Scheinbar ist die "interne" Lösung mit dem community-server nicht sonderlich gut... Gibt es irgendwo eine gute Anleitung, wie man in Unraid einen Onlyoffice Server installiert und dann per nginx verbindet?

    Moin moin,

     

    hast du es zum laufen bekommen? Ich stehe aktuell auch wie der Ochse vorm Berg und bekomme es mit dem internen Dokumenten Server auch nicht zum laufen. Habe nun den OnlyOfficeDOcumentServer auf unraid installiert, bin mir aber unschlüssig wie es weiter geht. Muss ich bei dem nun noch irgendwas einstellen, oder einfach nur über nginx erreichbar machen und bei nextcloud eintragen und es läuft?

     

    On 12/22/2023 at 2:53 PM, b_tob said:

    Das "ch/" ist die TLD, da ich eine Schweizer Domain habe.

     

    Ich weiss nicht wie es im AiO Container funktioniert, aber ich musste Onlyoffice mit dem Proxy Manager über das Internet mit einer eigenen Domain erreichbar machen und diese Domain habe ich dann in Nextcloud eingetragen. 

    Das ganze ist schon einige Zeit her und ich weiss nicht mehr wo ich die Anleitung damals gefunden habe.

    Ich bin mir auch nicht sicher ob das dir richtige Vorgehensweise ist oder ob es auch funktionieren würde ohne Onlyoffice eine eigene Domain zu erstellen.

    wie sieht die Konfiguration bei dir aus?

     

     

    Ich habe es nun wie in diesem Video gemacht:

     

    Habe die es über nginx erreichbar gemacht:

    image.thumb.png.2866d733764dfb5b88769b6c9b3cb8c4.png

     

    Und wenn ich nun meine domain aus nginx, worüber ich die Seite erreiche, bei nextcloud eingebe bekomme ich die meldung:

     

    image.thumb.png.cccf9c94fdd82017ba6a14cb7cc21759.png

     

     

    Das kann doch nicht so schwer sein, das zum laufen zu bringen?

  12. 2 hours ago, alturismo said:

    naja, dein NPM läuft im bridge mode (Host Netzwerk Stack) und adguard im custom, wenn die NICHT miteinander "reden" sollen (host access disabled) dann kann das nicht gehen, denke auch dran dass reverse proxying kein redirect ist sondern der HTTP Traffic komplett durch den RP läuft, das noch dazu ...

     

    exakt, mix Betrieb usw ist alles kein Thema ... immer nur daran denken

     

    im custom br/eth mode, ist port mapping obsolet (egal was eingetragen ist) ... Ports sind dann immer auf der IP die nativen Ports.

     

    mal ein simples Beispiel (swag, npm, was auch immer) zur Veranschaulichung

     

    Docker welche im custom mit eigener IP laufen und port mappings eingetragen sind, da sind diese dann obsolet

     

    image.thumb.png.1fd2f19a58f3fa080c81bd809dafc9e1.png

     

    da dieser Docker (swag) auf der eigenen IP läuft, läuft der Zugriff auf 192.168.1.83:80 oder :443 und NICHT auf :180 oder :1443, obwohl da zwar ein Mapping eingetragen ist ... aber durch den eigenen stack greift das nicht ...

     

    würde ich den den Docker jetzt umstellen auf bridge, dann wäre das mapping aktiv und ich würde den Docker unter (unraids) host_ip:180 oder :1443 ansprechen müssen.

     

    nur dass dies nicht zu Missverständnissen führt ;)

     

    innerhalb der bridge spreche ich die aber wieder direkt auf dem nativen Port an, Bsp. 172.....:80 ;) andere Baustelle ;)

     

    eins noch als Hinweis, bei unclean shutdowns ... leider immer noch offen und passiert ab und an

     

     

     

    Ja alles klar, das ist mir bewusst, danke für die Infos.

     

    Also unclean shutdown, also wenn der Server irgendwie abschmiert, oder auf einmal Strom weg ist, er also nicht normal heruntergefahren wird und dann wieder startet, dann muss man ab und zu diese funktion deaktivieren und wieder aktivieren, da es manchmal sein kann, dass sie nicht funktioniert.

    Wenn der Server aber ganz normal heruntergefahren wird und wieder hochgefahren, dann sollte es damit keine Probleme geben, habe ich so richtig verstanden?

  13. 23 minutes ago, Archonw said:

    Was es letzten Endes für dich werden soll kannst eh nur du entschieden. Das tolle an Docker ist ja, man kann so vieles einfach völlig gefahrlos ausprobieren. Das System darunter wird ja nicht angetastet.

    Hier hab ich mal beide Oberflächen für dich. Ich finde beide sind in etwa gleich. Bei Immich finde ich die Leiste mit Bildern aus Daten von vor x-Jahren sehr schon. Das muss man in der Nextcloud erst extra aufrufen unter "An diesem Tag". Und da bei mir die Gesichtserkennung einfach nicht mehr gescheit funktionieren will, habe da irgendwo mal einen Fehler in meiner Nextcloud-Datenbank produziert hab ich mir eben Immich dafür dazu geholt.

    1.thumb.png.41bf599a958a4f754ad28a3194dea45d.png

     

    Backuplösungen gibt es ja hier Zahlreiche. Schau dich dazu ruhig nochmal im Forum um. Ich benutze z.B. das Backup Script von Mgutt. Das erstellt incrementelle Backups, mittels eines von ihm erarbeiteten Scripts. Da ich schon öfter mal auf ein Backup zurückgreifen musste kann ich auch sagen, dass es sehr tadellos funktioniert.

    Damit sichere ich täglich mein Cache Laufwerk auf mein Array. Und dann noch mein Array auf zwei externe Festplatten, die ich einmal die Woche wechsel. 

    Solange unser Haus nicht in flammen aufgeht bin ich damit gut gerüstet.

    Es gibt aber wie gesagt jede Menge andere Lösungen, schau einfach mal was du als angenehm empfindest.

    Ich verschlüssele so auch meine Backups nicht. Ich möchte wenn ich schon auf ein Backup zurückgreifen muss, die Hürden und Fehlerquellen so klein wie möglich halten. Aber wie gesagt, meine Backups verlassen auch unser Haus nicht.

    2.png

    Danke für die ausführlichen Infos. Nur auf Fotos bezogen, sagst du das immich optisch ansprechender ist und allgemein besser, auch wenn man dann in Bezug auf nextcloud halt zwei und nicht nur eine app hat? 

  14. 2 hours ago, Archonw said:

    Stimmt. Im mich vergesse ich gerne, obwohl ich es seperat auch noch laufen hab.
    Bearbeiten kann man nicht in Immich. Die Personenerkennung ist ganz okay.
    Ich bin dennoch hauptsächlich bei Nextcloud, da ich dort eben auch Kontakte und Kalender drüber synce und auch mein restlichen NetworkSpeicher darüber eingebunden hab.
     

    Ja also nextcloud werde ich auf jeden fall nutzen, also für andere dateien, kontakte usw, aber für fotos und videos glaube ich nutze ich etwas seperates. So ist jedenfalls mein aktueller stand. Klar eine "app" für alles klingt gut, aber mein gefühl sagt mir, warum auch immer, sollte ich für fotos etwas anderes nutzen. 

     

    Ich denke mir, das immich einfach optisch auch etwas schöner ist als nextcloud, für anwender wie meine eltern und meine frau. Ich vermute es bis jetzt nur, aber nextcloud würde nur wie ein windowsordner aussehen für alle datein, daher grade die fotos seperat behandeln, ist aber nur meine aktuelle vermutung. Und ich denke für fotos hat immich einfach mehr funktionen.

     

    Am ende bin ich mir noch nicht sicher, ich teile nur meine gedankengänge um die beste lösung für mich/uns zu finden.

     

    Zudem würde ich die fotos dann aus den "unraid-ordnern" zusätzlich auf ein nas syncen/sicher und dann vielleicht nochmal in irgend eine cloud. Es wäre einfach zu schade wenn die fotos und videos der kinder aus irgend einem grund weg sind. Wie machst du backups?

     

    Da ich unraid grade erst aufgesetzt habe, suche ich hier auch noch und habe bis jetzt noch gar keine backups von irgendwas.

  15. 2 hours ago, Archonw said:

    Nextcloud macht schon mal den Sync vom Handy auf den Server. Und auch nur in dieser Richtung für den Foto-Upload. Dabei kann man jeweils Einstellen welche Ordner auf dem Handy synchronisiert werden sollen oder nicht. Ob und wie vorhanden Fotos im anschluss auf dem Handy verbleiben kann dabei auch für jeden Ordner einzeln eingestellt werden.

     

    Da du in der Nextcloud natürlich je nach belieben eigene Nutzer anlegen kannst, kannst du darüber regeln welcher Nutzer (welches Gerät) wo hin synchroniseren soll.

    Ja im Grunde wäre das die einfache Lösung und man bräuchte nicht noch ne App und noch n Docker.

     

    Ich weiß nur nicht ob es nicht irgendwie schöner ist die Bilder seperat zu handhaben und sie halt nicht mit allen anderen Daten in die Cloud zu schmeißen.

     

    Eventuell hat immicj da auch wesentlich mehr Potential, da es halt für Fotos und Videos ausgelegt ist.

     

    Aber vielleicht installiere ich erstmal die Cloud und teste es mal mit den Fotos und entscheide dann ob die Fotos mit Dokumenten und alle möglichen anderen Datein in "eine cloud schmeiße" oder ob ich mir doch nochmal immich angucke.

     

    Ich überlege auch ob ich die Bilder dann nicht auch noch in Plex einbinden möchte oder nicht. Ich weiß es noch nicht.

     

    Wenn man in immich noch die fotos etwas bearbeiten könnte, dann wäre das mega, aber man kann ja nicht alles haben :)

  16. Hallo,

     

    ich schließe mich mal dem Thema an, da ich aktuell auch eine geeignete Lösung suche, Bilde automatisch von verschiedenen Handys (also unterschiedliche User) zu syncen/sichern. Auch manuelle Uploads wegen DSLR Kamera wird benötigt. Es sollte für Fotos und Videos gehen.

     

    Was ich mir vorstelle:

    Ich habe auf dem Handy als Beispiel 10 Ordner in welchen ich meine Bilder sortiere. Einer davon ist Kamera wo gemacht Bilder als erstes landen, welchen ich nicht syncen möchte. Die anderen 9 möchte ich aber auch z.B. in der Ordnerstruktur wie auf dem Handy hochladen und nicht in einen einzelnen Ordner Bilder. Zudem wäre es natürlich gut, wenn ich das auch noch nach Gerät/User strukturieren kann.

     

    Genauso wäre es natürlich schön, wenn man einstellen könnte, ob es nur in eine oder beide Richtungen geysnct wird, heißt nur in Richtung Server und ich die Bilder dann quasi vom Handy löschen kann und sie dann über die "neue-Foto-App" über den Server anschauen kann, oder man lässt die Bilder auf dem Handy wenn genug Platz ist und sync es aber auch zum Server, wenn man ein Foto auf dem Handy löscht, sodass dieses Foto auch vom Server gelöscht wird (bin mir nur aktuell gar nicht sicher ob diese Variante überhaupt Sinn macht, vermutlich weniger)

     

    Ich habe vor mir auch noch nextcloud zu installieren, bin mir aber nicht sicher, ob ich für die Fotos nicht etas eigenes nehmen soll, was für diese Zweck vielleicht besser geeignet ist.

     

    Kann jemand Immich empfehlen für mein Vorhaben? Oder doch etwas anderes? 

  17. 17 minutes ago, alturismo said:

    br0 (eigentlich mittlerweile eth0) hast du halt keine Port Konflikte ... da jeder Docker im eigenen Stack läuft, fertig ...

     

    bei bridge musst du halt schauen und standardisierte Dienste ... wie DNS ... siehe oben ;) oder deine Fehlermeldung ...

     

    sprich, in use ist in use ... musst halt suchen ...

     

    und ist der host access aktiviert ?

     

    image.thumb.png.8cd3501e33b1c9f817d41356809b82cd.png

     

    ohne den kann die bridge (auf dem Host) NICHT mit dem custom "sprechen" ...

     

    ansonsten ... einfach nachlesen und für dich entscheiden ;)

     

    Ja, das es dann keine Port Konflikte gibt weil jeder Docker ne eigene IP hat ist klar, das habe ich verstanden.

     

    Host access habe ich nun aktiviert und nun funktioniert die weiterleitung auch. ich verstehe zwar noch nicht warum, da laut meinem Verständnis ja nginx nur etwas auf einer domain reinkommt auf eine bestimmte ip weiterleiten soll und ich nicht weiß, warum dafür br0 und bridge miteinander kommunizieren müssen aber okay :P

     

    Naja bis jetzt läuft ja alles wie es soll denke ich. Mal schauen wie das ist, wenn ich nun nextcloud oder so installiere und ob es auch eine eigene IP haben sollte und ob es dann wieder Probleme gibt, weil nexcloud noch den DB wie mariadb benötigt die aktuell ja auch noch in bridge läuft, aber das werde ich ja dann sehen.

     

    Ja nachlesen muss ich das auf jeden Fall, aber halt mich für blöd, ich habe schon einige Zeit gesucht, aber noch nicht das passende zum nachlesen gefunden, wo mir die Vor und Nachteile oder passende Anwendungsbeispiele aufgezeigt wurden, oder ich stell mich bei der Suche einfach zu blöd an.

     

    Aber wenn ich das richtig verstanden habe, da ich ja nun host access aktiviert habe, kann ich ja die Sachen die laufen auf bridge lassen und bei zukünftigen Dockern die br0 benötigen, diese in br0 konfigurieren und sie können ja dann auch untereinander kommunizieren. Dann sollte es ja kein Problem sein, richtig?

  18. 3 hours ago, alturismo said:

    Nope, Mix Betrieb geht, sicherlich irgendwo etwas nicht sauber konfiguriert ...

     

    angefangen von ipvlan Thematik bis zu docker host access nicht aktiviert ...

     

    oder das "umdenken" nicht beachtet, bei custom gibt es kein port mapping mehr und man nutzt immer die nativen Ports der App auf dem Docker ... usw usw ... kann jetzt vieles sein, wird nur schwer mit den bisherigen Infos ne vernünftige Aussage zu treffen.

     

    das ist so auch nicht richtig, auch adguard läuft im bridge mode als DNS wenn man will ... es wird nur eventuell schwieriger in der bridge mit manchen Diensten, speziell mit standardisierten Ports, Beispiel DNS, alles was als DNS Server fungiert braucht den Port 53, wenn alles in der bridge läuft hast du nur 1 x die Option (inkl. dem Host wo die bridge bereitstellt). Gleiches gilt für DNLA (Port 1900), usw usw ...

     

    Nein, besser wäre es du würdest dich dazu einlesen, verstehen was, wie wo, ... und dann für dich entscheiden was du wie anstellen willst.

     

    es hat alles seine Vor / Nachteile, ich persönlich nutze alle Docker (30+) mit custom ... mit eigener fixen IP ... aber nur weil mir das mapping "auf die Nerven" geht ;) und ich es "cleaner" finde wenn alles auf seiner IP läuft ... und nicht überlegen muss welchen Port ich wie, wo, ... mappe um keine Konflikte zu bekommen.

     

    Nachteil, naja ... ich belege für jeden Docker ne eigene IP im Netz ;) und die bridge ist "geschlossener" ... Nameserving funktioniert hier ganz gut, kann aber sein dass der ein oder andere Docker im Router konfiguriert werden muss (Name eintragen), usw usw ...

     

    Beispiel

     

    image.thumb.png.62f4350b0f550c6b036dd31d6c48e838.png

     

    Danke schonmal für deine ausführliche Antwort.

    Also mit mapping meinst du, dass du gucken musst, welchen Port du nutzt richtig? Naja, aber das machst du ja auch nur einmal bei der Installation. Ob du da nun ne IP einträgst oder einmal guckst welchen Port du nimmst, aber ja das muss jeder selber wissen, das ist richtig. Und ich müsste ja dann wie du sagst, auch noch einiges in der Fritzbox konfigurieren, wenn alles auf eigener IP läuft oder? Dann wäre das ja mehr arbeit als einmal zu schauen, welcher Port schon belegt ist, oder ich habe dich etwas falsch verstanden.

     

    Wenn ich nun adguard testweise auf bridge stellen will bekomme ich die Meldung:

    docker: Error response from daemon: driver failed programming external connectivity on endpoint AdGuard-Home (e11807abfdd6c62da1bd8a76af1217a1b5b1961acf4bfedc3f7b780ca47f0812): Error starting userland proxy: listen tcp4 0.0.0.0:53: bind: address already in use.

     

    aber der port ist ja nur von adguard in use soweit ich das sehe.

     

    Und bei nginx habe ich halt eine subdomain erstellt welche dann auf die ip von adguard weiterleiten soll. ich muss bei nginx ja einen port angeben, da habe ich es mit 80, 53 und 3000 probiert. immer der gleiche Fehler Bad gateway, aber wenn ich die ip so im browser aufrufe funktioniert es ja, das verstehe ich halt nicht, weil nginx soll doch in dem fall eigentlich nur weiterleiten oder nicht?

     

    Ja ich muss mich da sicherlich noch etwas einlesen, ich hatte auch schon hier im Forum geschaut, aber noch nicht das passende geufnden, hast du vielleicht ein Tipp für mich, wo ich mich darüber Anfängerfreundlich einlesen kann?

     

    Bin mir halt jetzt total unsicher, was die bessere Konfiguration wäre. bridge oder alles br0 um es später dann doch "einfacher" zu haben, aus welchen Gründen auch immer.

  19. Moin moin,

     

    Wieso stelle ich diese Frage?

    Nun ich habe vor ca 3 Wochenen angefangen mein ersten unraid Server aufzusetzen. Ich habe nun schon einige Docker installiert und diese habe ich bis jetzt auch immer dazu bekommen miteinander zu arbeiten.

     

    image.png.0a8b0ae7e82cdf5866a4afed71f08137.png

     

    Nun ist heute AdGuard hinzu gekommen. Und nun stelle ich mir die Frage, ob ich von Anfang an etwas wichtiges falsch gemacht habe.

    Ich habe jeden Docker mit dem network type bridge installiert. hat ja bis jetzt auch immer alles gut geklappt. Bei Adguard war es ja aber wichtig diesen mit custom:br0 zu installieren, damit dieser eine eigene IP bekommt, damit ich diese dann in die Fritzbox eintragen kann als DNS Server.

     

    Nun wollte ich über Nginx die einen proxyhost erstellen. adguard.sub.domain.de -> 192.168.178.2 

    nginx soll ja nun wenn die url aufgerufen wird, auf die ip weiterleiten, wie bei anderen dockern auch ( die alle die ip von unraid haben wegen bridge)

     

    Nun gebe ich diese URL ein, es kommt die Login Abfrage von Authelia und danach bekomme ich: 502 bad gateway.

     

    Nun frage ich mich, liegt es wirklich daran, dass adguard br0 ist und nginx in bridge läuft? Die sollen ja eigentlich nicht großartig miteinander kommunizieren, sondern nginx soll ja dann nur an die ip weiterleiten.

     

    Oder liegt es wirklich an den unterschiedlichen network typen? Oder ich habe vielleicht etwas nicht verstanden? Ich habe den halben Tag gesucht und gegooglet, aber ich bin bis jetzt nicht schlauer geworden.

     

    Was mich dann auch noch zu meiner Frage aus dem Threadtitel bringt.

     

    Wäre es besser gewesen, wenn ich von Anfang an jeden Docker mit custom:br0 installiert hätte und jeder seine eigene IP bekommt? Oder habe ich dadurch andere Nachteile? Oder ist es nicht nötig und nur bei einzelnen Dockern, wenn diese mit keinen anderen Dockern kommunizieren müssen?

     

    Sollte ich nun alle editieren und auf br0 umstellen? Würdet ihr mir empfehlen dies erstmal zu berichtigen, bevor ich nun weitere Docker installiere wie nextlcoud, paperless, luckybackup etc?

     

    Ich bin grade etwas überfragt wie ich nun weitermache und vielleicht erstmal "Schadenbegrenzung" betreibe. Lerne durch Schmerz vermute ich mal.

     

  20. Hallo,

     

    ich habe bis jetzt alle docker im bridge laufen und habe nun adguard installiert und wollte dies dann über nginx auch erreichbar machen. wie ich es jedoch verstanden habe, muss man adguard in zb in br0 laufen lassen und nicht über bridge.

     

    ich habe nun nginx einen proxy host wie für adguard eingerichtet, wie für jeden anderen docker auch. wenn ich nun über meine url zugreifen möchte, kommt erst meine authelia abfrage und danach bekomme ich die Meldung 502 Bad Gateway.

     

    liegt dies an dem Unterschied von bridge und br0? Denn über die IP kann ich im Heimnetz adguard ganz normal erreichen.

    wie kann ich adguard nun über  nginx erreichbar machen? oder geht es nur, wenn ich nginx und alle anderen container dann auch auf br0 setze?

  21. 42 minutes ago, alturismo said:

    hast du bei file activity den cache auch rausgenommen ?

     

    zur Info, das ist ein "Problemlöser" wenn die disks nicht in den spindown gehen um zu schauen was aktiv ist ...

     

    kann es sein dass der seit dem das Problem besteht aktiv war ... ;)

     

    und während tdarr auf das file (die files) zugreift werden diese auch nicht moved ... da in use ...

     

    ja da habe ich alles ausgemacht nun

     

    image.thumb.png.0ea554116cb1db6660313559fa603298.png

     

    okay, also file activity nur anmachen, wenn ich irgendwas nachschauen möchte.

    file activity müsste ich meine ich schon ein paar tage länger drauf haben, also kann ich nicht genau sagen, ob es daran lag, dann hätte das ja schon vorher probleme mit dem moven geben müssen.

     

    ja das ist mir klar, tdarr nutzt ja auch einen temp ordner, aber die daten bzw files die tdarr nutzt, benutzt es ja nicht lange, also keine 1-2 tage. große files vielleicht max 20 minuten, aber eher weniger.

     

    also noch läuft der mover, aber der cache ist schon deutlich leerer

     

    image.png.1a48fd56944c426be05cbdcdb102d533.png

     

    image.thumb.png.629dc92e28a7a8cc67d97acd7f71e138.png

     

    muss ich mal beobachten, ob es nochmal passiert und ob ich dann irgendwie feststellen kann woran es liegt.

×
×
  • Create New...