Jump to content

Ulairi

Members
  • Posts

    33
  • Joined

Posts posted by Ulairi

  1. Hallo,

     

    da mir vor kurzem der Cache hops gegangen ist (danke btfs FS), bin ich wieder mal am herumüberlegen, was ich verbessern könnte.

     

    Grundsätzlich sehen meine Plex Shares wie folgt aus:

     

    /mnt/disk1/Animes/

    /mnt/disk1/Dokumentationen/

    etc.

     

    Ich könnte auch folgendes verwenden:

     

    /mnt/user/Animes/

    /mnt/user/Dokumentationen/

    etc.

     

    Ist es möglich, Sachen die ich auf den Cache kopiere, dass diese gleich für Plex verfügbar sind? Ich verwende das Mover Tuning Plugin, ich würde Sachen vom Cache erst nach X Tagen oder wenn der Cache X % voll ist auf das Array verschieben lassen.

     

    Ich habe /mnt/cache/Animes/ probiert....auf einmal war leider alles weg.

     

    Danke für eure Hilfe!

  2. Mittlerweile bin ich davon überzeugt, dass es wirklich das FS ist. Ich kann nicht einmal mit dem Mover alle Daten vom Cache auf das Array verschieben. Bzw. wird mir auch angezeigt, dass die noch vorhandene Platte nur 600 GB insgesamt hat, obwohl es eine 1 TB ist. Es sind bereits 500 GB in Verwendung, obwohl es erst 200 GB sind.

  3. 11 minutes ago, DataCollector said:

    Das Vorgehen ist grundlegend okay.

    Da ein laufender Docker/VM den Zugriff auf die Dateien behindern kann: alle Docker scgh liessen und den Dienst abschalten. bei Vm ebenso

    Dann werde ich das so machen.

     

    11 minutes ago, DataCollector said:

    Deshalb sage ich grob:

    a) Einzeldatenträger immer xfs

    b) Verbunddatenträger zfs

    Ich habe mich nur unverständlich ausgedrückt, ich glaube wir meinen beide das selbe.

     

    Was mir jetzt noch so durch den Kopf geht, wie kann die zweite SSD vom Cache Pool formatieren? Die wird mir ja nicht mehr angezeigt.

  4. Für mich mittlerweile auch kein Zufall mehr, dass am Wochenende eine VM defekt wurde. Siehe hier:

     

    Ich habe alle Docker mit CA Appdata Backup gesichert. Grundsätzlich funktioniert eine Cache SSD ja noch, also die Daten sind ja nicht weg.

     

    Nachdem ich so etwas noch nie gemacht habe, könnte ich die Daten einfach auf das Array kopieren, ich wandele den BRTFS Pool in ZFS um und kopiere dann die Daten wieder auf den Cache Pool?

     

    Mein Array würde ich gerne im XFS Format lassen, weil der Server total auf Strom sparen ausgelegt ist. Aber den Cache Pool in ZFS umzuwanden spricht ja nichts dagegen oder?

     

  5. Hallo,

     

    ich benötige Hilfe. Ich habe heute mein Array gestoppt und habe sofort die Fehlermeldung "Missing Cache Drive bekommen".

     

    Ich habe zwei Samsung 970 Evo Plus 1TB gespiegelt in einem btrfs Cache am Laufen. Auch ein Neustart brachte keine Hilfe.

     

    Ich habe meine Diagnostic angehängt. Und auch einen Screenshot, damit ihr seht, dass die zweite SSD wirklich fehlt.

     

    Danke schon mal für eure Hilfe!

     

    1457008058_Screenshot2024-03-05000017.thumb.png.535120ddcd7eab58877a32f56b6e25b6.png

    baraddur-diagnostics-20240304-2359.zip

  6. Ok alles klar jetzt verstehe ich es.

     

    Ich gehe in meinem Fall davon aus, dass nur die VM was hat, weil alle Docker funktionieren und eine zweite VM funktioniert auch. Und alle Daten für Docker und VM laufen auf dem Cache.

     

    Wenn ich jetzt so darüber nachdenke, habe ich in meinem Fall einen Single Point of Failure. Gibt es irgendwo Backup Guides oder so? Wie kann man überhaupt Backups von VM machen?

  7. 2 hours ago, alturismo said:

    dann war es wohl nicht das Update ...

     

    ich würde eher auf ein fehlerhaftes FS in der VM tippen, da du uns bisher im Ungewissen lässt wie der Rest des Systems aussieht wird es schwer ...

     

    ich rate mal, liegt das VM Image auf einer brfs Platte ? wenn ja, würde ich versuchen (nachdem die VM aus ist) btrfs repair, scrub, was auch immer ...

    durchzuführen, ansonsten, Platte formatieren und das (hoffentlich vorhandene) Backup einspielen.

     

    Ich bitte um Abklärung. Da das System seit sehr lange Zeit Rock stable läuft, habe ich mir da ehrlich gesagt keine Gedanken darüber gemacht.

    Ich update das OS (Dietpi) der VM nicht, also wie kann es da zu einem Fehler kommen? Die Daten sind ja immer die selben? Ich würd es nur gern verstehen.

     

    Was meinst du mit FS?

     

    Mein System ist ziemlich simple, 2x btrfs Samsung 970 Evo Plus im Raid1. Und 4 Seagate Ironwolf 8 TB, xfs und Parity protected.

     

    Heißt das die Samsung Nvme ist defekt? Oder nur die VM?

     

  8. Hallo,

     

    ich habe heute das Unraid Update von 6.12.6 auf 6.12.8 gemacht.

    Wie mir vor ein paar Stunden erst aufgefallen ist, funktioniert meine VM nicht mehr, auf der Loxberry läuft. Hatte vorher alles ohne Probleme funktioniert.

     

    Dachte ich mir, ich mache einfach das Downgrade auf 6.12.6 wieder. Funktioniert trotzdem nicht mehr.

     

    918056351_Screenshot2024-03-02235550.thumb.png.6cfa1ea1aba00e54159df75f2fbe12b3.png

     

    Das ist die Fehlermeldung die ich bekomme. Kann mir jemand helfen? Wäre super dringend, weil ohne Loxberry funktioniert mein Smart Home nicht.

  9.  

     

     

    19 hours ago, Jabberwocky said:

     

    Prima!

    Dann funktioniert also ein dig gegen Adguard ohne Unbound und ein dig gegen Unbound jeweils ohne Probleme nehme ich an?

    Dann sollte die Zusammenarbeit von beiden wie du geschrieben hast passen. Die Konfiguration von Adguard sollte auch passen - hier ist mMn. erstmal nur wichtig, dass dein Unbound als Upstream DNS eingetragen ist.

     

    Ja genau funktioniert jetzt beides. Vielen Dank nochmal.

     

    Was mir jetzt noch so im Kopf herumschwirrt...bei den jetzigen Einstellungen macht Adguard Home einen DNS Cache und Unbound einen Cache oder? Ist das sinnvoll? Sollte ich den Cache in Adguard nicht deaktivieren? Hat damit schon jemand Erfahrung? Wie läuft das in Pihole?

  10. MIt "Host access to custom networks" enabled funktioniert der dig command bei mir jetzt auch.

     

    Aber trotzdem bin ich mir noch nicht sicher, ob alles funktioniert.

     

    Im Log von Unbound habe ich noch folgenden Fehler:

     

    1987439311_Screenshot2024-02-22230749.thumb.png.5e4b063ec6aa7e6bf9c2f8469daec6b0.png

     

    Mache ich einen DNS Leak Test sieht der wie folgt aus:

     

    929503412_Screenshot2024-02-22230737.thumb.png.99e565461c027ca6e41f4042f641c1ed.png

     

    Sollte hier mein ISP stehen? Ich nehme an nicht?

     

    Ich poste auch noch meine ganzen Einstellungen:

     

    278521839_Screenshot2024-02-22231029.thumb.png.aee699046fa826c9803e988ccdf18bbf.png1171746562_Screenshot2024-02-22231041.thumb.png.f0b6b26b9441d35b51af89cc6ae9f7a7.png1934865408_Screenshot2024-02-22231056.thumb.png.2dccb619071ba85c3fae80ec2dde62e1.png2023816115_Screenshot2024-02-22231120.thumb.png.8f8c93853f6d9bfd386dfa46d31e24cc.png

    1284169135_Screenshot2024-02-22231130.thumb.png.fb2de9ee4ca1f1fdf46bbbb4fa98a05e.png

     

  11. Adguard 120 und Unbound 121.

     

    Adguard funktioniert ohne Probleme, wenn ich andere Upstream Server eintrage. Verwende ich seit Jahren so. Dig Command habe ich noch nicht ausprobiert.

     

    Was bei meinem Setup total komisch ist, wenn ich Unbound verwende, es funktioniert alles, ich bekomme im Adguard Log jedoch diese Fehler. Und ganz komisch ist, wenn ich einen DNS Leak Test mache, dann sehe ich, dass auf einmal mein ISP dort aufscheint. Obwohl ich überall die IP von Adguard eingetragen habe.

     

    Stoppe ich Unbound wieder, dann scheint beim DNS Leak Test wieder die Upstream Server von Adguard auf.

    • Like 1
  12. Vielen Dank für die Anleitung.

     

    Ich habe den Unbound Docker Container am Laufen ohne Error im Log File. Ich Glaube in Adguard alles richtig konfiguriert zu haben. Wäre cool wenn jemand seine Adguard Einstellungen in Kombination mit Unbound postet.

     

    Aber woher weiß ich jetzt, ob die DNS Abfrage auch an die Root Server geht? Der dig command funktioniert im Unraid Terminal nicht.

  13. Ich verwende einfach mal dieses Thema hier um eine Frage zu stellen...ich verwende aktuell Adguard mit 4 verschiedenen DNS DoH Upstream Servern und habe Einstellungen Parallel Requests gewählt. Cache Größe habe ich eigentlich recht großzügig gewählt und sogar optimistic caching gewählt. Trotzdem komme ich nur auf eine durchschnittliche processing time von 77 ms.

     

    Warum habe ich 4 DNS Anbieter gewählt? Um meine DNS Abfragen aufzuteilen. So bekommt nicht einer alles. Durch die DoH Abfragen, würde ja eine Man in the middle Attack ja nicht funktionieren, was ich wirklich abfrage sieht ja dann erst der DNS Anbieter. Soweit alles richtig was ich schreibe? Bitte um Korrektur falls ich Blödsinn schreibe.

     

    Jetzt war meine Überlegung auf Unbound zu wechseln, weil dadurch ja direkt die Root Server abgefragt werden und ich die Anbieter umgehe. Und hoffentlich die Abfragezeit verringert. Aber die DNS Abfragen gehen dann ja wieder unverschlüsselt ins Netz und somit wäre theoretisch wieder eine Man in the middle Attack möglich. Und nein ich bin kein zweiter Edward Snowden, aber doch ein bisschen Paranoid wenn es ums Internet geht. Jetzt könnte ich noch einen Schritt weitergehen und hinterfragen wem gehören die Root Server? Wer betreibt die?

  14. Hallo,

     

    hat jemand Adguard Home und Unbound auf seinem Unraid Server am Laufen?

     

    Ich finde leider im Internet nichts dazu. Aktuell verwende ich Adguard Home mit DoH Servern, würde aber gerne auf Unbound wechseln.

     

    Danke für eure Hilfe!

  15. 10 hours ago, JayLong said:

    zuerst mal eine einfache frage, was läuft als Firewall? eine Normale Fritzbox? 

    Unifi USG.

     

    10 hours ago, JayLong said:

    Wenn du ja eh Wireguard verwenden willst wieso brauchst du da ein ngix bzw Revers Proxy?

    Bin dauerhaft mit einem VPN verbunden.

    Ja es wäre möglich mit Wireguard die Verbindung ins Lan nach Hause zu machen, aber ich würde es gerne so einfach als möglich haben. Auf die Audiobooks App klicken und fertig.

  16. Hallo liebe Community,

     

    ich benötige Hilfe/Rat wie ich am Besten umsetze was ich vorhabe.

     

    Habe meinen ersten Unraid Server zusammengebaut, bis dato läuft alles soweit so gut. Jetzt fange ich an Docker/VMs zu installieren und möchte manche davon für mich öffentlich zugänglich machen. Für mich ist das alles Neuland, deswegen gleich im Vorhinen sorry sollten es noob Fragen für manche sein.

     

    Ich habe Home Assistant in einer VM laufen, in Home Assistant das Addon Duckdns installiert und greife mit xxx.duckdns.org auf meine Home Assistant Instanz zu.

    Mein komplettes Netzwerk ist von Unifi, Port Forwarding habe ich im Controller gemacht. Home Assistant läuft, funktioniert ohne Probleme.

     

    Ich möchte auch noch Docker Audiobooks öffentlich zugänglich für mich machen. Wie mache ich das am Besten? Funktioniert das mit einer neuerlichen Dyndns von Duckdns? Oder irgendwie mit Nginx Proxy Manager? Ich bekomme es einfach nicht zusammen und will auch vermeiden, dass ich irgendwo einen Blödsinn mache.

     

    Des weiteren möchte ich Wireguard verwenden und die DNS Anfragen über Adguard Home laufen lassen. Adguard Home läuft unter br0 und hat eine eigene interne IP. Wenn ich einen Peer in Wireguard einrichtige und dort die interne IP von Adguard eingebe funktioniert es nicht. Gebe ich zb 1.1.1.1 ein funktioniert es. Ist es möglich Wireguard mit eigenem Adguard Home zu verwenden?

     

    Danke für die Hilfe!

×
×
  • Create New...