Jump to content

Ulairi

Members
  • Posts

    33
  • Joined

Everything posted by Ulairi

  1. Ich sage danke für eure Antworten. Dann habe ich 2 Jahre lang Plex falsch betrieben....warum auch immer 😤
  2. Hallo, da mir vor kurzem der Cache hops gegangen ist (danke btfs FS), bin ich wieder mal am herumüberlegen, was ich verbessern könnte. Grundsätzlich sehen meine Plex Shares wie folgt aus: /mnt/disk1/Animes/ /mnt/disk1/Dokumentationen/ etc. Ich könnte auch folgendes verwenden: /mnt/user/Animes/ /mnt/user/Dokumentationen/ etc. Ist es möglich, Sachen die ich auf den Cache kopiere, dass diese gleich für Plex verfügbar sind? Ich verwende das Mover Tuning Plugin, ich würde Sachen vom Cache erst nach X Tagen oder wenn der Cache X % voll ist auf das Array verschieben lassen. Ich habe /mnt/cache/Animes/ probiert....auf einmal war leider alles weg. Danke für eure Hilfe!
  3. Mittlerweile bin ich davon überzeugt, dass es wirklich das FS ist. Ich kann nicht einmal mit dem Mover alle Daten vom Cache auf das Array verschieben. Bzw. wird mir auch angezeigt, dass die noch vorhandene Platte nur 600 GB insgesamt hat, obwohl es eine 1 TB ist. Es sind bereits 500 GB in Verwendung, obwohl es erst 200 GB sind.
  4. Dann werde ich das so machen. Ich habe mich nur unverständlich ausgedrückt, ich glaube wir meinen beide das selbe. Was mir jetzt noch so durch den Kopf geht, wie kann die zweite SSD vom Cache Pool formatieren? Die wird mir ja nicht mehr angezeigt.
  5. Für mich mittlerweile auch kein Zufall mehr, dass am Wochenende eine VM defekt wurde. Siehe hier: Ich habe alle Docker mit CA Appdata Backup gesichert. Grundsätzlich funktioniert eine Cache SSD ja noch, also die Daten sind ja nicht weg. Nachdem ich so etwas noch nie gemacht habe, könnte ich die Daten einfach auf das Array kopieren, ich wandele den BRTFS Pool in ZFS um und kopiere dann die Daten wieder auf den Cache Pool? Mein Array würde ich gerne im XFS Format lassen, weil der Server total auf Strom sparen ausgelegt ist. Aber den Cache Pool in ZFS umzuwanden spricht ja nichts dagegen oder?
  6. Ich habe gerade folgendes in den System Logs gefunden. Ich fange nur leider gar nichts damit an.
  7. Hallo, ich benötige Hilfe. Ich habe heute mein Array gestoppt und habe sofort die Fehlermeldung "Missing Cache Drive bekommen". Ich habe zwei Samsung 970 Evo Plus 1TB gespiegelt in einem btrfs Cache am Laufen. Auch ein Neustart brachte keine Hilfe. Ich habe meine Diagnostic angehängt. Und auch einen Screenshot, damit ihr seht, dass die zweite SSD wirklich fehlt. Danke schon mal für eure Hilfe! baraddur-diagnostics-20240304-2359.zip
  8. Das Beste ist, gestern am Abend auf Gut Glück die VM gestartet, funktioniert auf einmal wieder. Warum....ich habe keine Ahnung. Ich muss mich jetzt mal mit dem Thema VM Backup beschäftigen, dass das nicht mehr passiert.
  9. Ok alles klar jetzt verstehe ich es. Ich gehe in meinem Fall davon aus, dass nur die VM was hat, weil alle Docker funktionieren und eine zweite VM funktioniert auch. Und alle Daten für Docker und VM laufen auf dem Cache. Wenn ich jetzt so darüber nachdenke, habe ich in meinem Fall einen Single Point of Failure. Gibt es irgendwo Backup Guides oder so? Wie kann man überhaupt Backups von VM machen?
  10. Ich bitte um Abklärung. Da das System seit sehr lange Zeit Rock stable läuft, habe ich mir da ehrlich gesagt keine Gedanken darüber gemacht. Ich update das OS (Dietpi) der VM nicht, also wie kann es da zu einem Fehler kommen? Die Daten sind ja immer die selben? Ich würd es nur gern verstehen. Was meinst du mit FS? Mein System ist ziemlich simple, 2x btrfs Samsung 970 Evo Plus im Raid1. Und 4 Seagate Ironwolf 8 TB, xfs und Parity protected. Heißt das die Samsung Nvme ist defekt? Oder nur die VM?
  11. Hallo, ich habe heute das Unraid Update von 6.12.6 auf 6.12.8 gemacht. Wie mir vor ein paar Stunden erst aufgefallen ist, funktioniert meine VM nicht mehr, auf der Loxberry läuft. Hatte vorher alles ohne Probleme funktioniert. Dachte ich mir, ich mache einfach das Downgrade auf 6.12.6 wieder. Funktioniert trotzdem nicht mehr. Das ist die Fehlermeldung die ich bekomme. Kann mir jemand helfen? Wäre super dringend, weil ohne Loxberry funktioniert mein Smart Home nicht.
  12. Ja genau funktioniert jetzt beides. Vielen Dank nochmal. Was mir jetzt noch so im Kopf herumschwirrt...bei den jetzigen Einstellungen macht Adguard Home einen DNS Cache und Unbound einen Cache oder? Ist das sinnvoll? Sollte ich den Cache in Adguard nicht deaktivieren? Hat damit schon jemand Erfahrung? Wie läuft das in Pihole?
  13. MIt "Host access to custom networks" enabled funktioniert der dig command bei mir jetzt auch. Aber trotzdem bin ich mir noch nicht sicher, ob alles funktioniert. Im Log von Unbound habe ich noch folgenden Fehler: Mache ich einen DNS Leak Test sieht der wie folgt aus: Sollte hier mein ISP stehen? Ich nehme an nicht? Ich poste auch noch meine ganzen Einstellungen:
  14. Adguard 120 und Unbound 121. Adguard funktioniert ohne Probleme, wenn ich andere Upstream Server eintrage. Verwende ich seit Jahren so. Dig Command habe ich noch nicht ausprobiert. Was bei meinem Setup total komisch ist, wenn ich Unbound verwende, es funktioniert alles, ich bekomme im Adguard Log jedoch diese Fehler. Und ganz komisch ist, wenn ich einen DNS Leak Test mache, dann sehe ich, dass auf einmal mein ISP dort aufscheint. Obwohl ich überall die IP von Adguard eingetragen habe. Stoppe ich Unbound wieder, dann scheint beim DNS Leak Test wieder die Upstream Server von Adguard auf.
  15. Ich habe eine ganz komische Situation. Adguard und Unbound sind installiert. Es schient so, als würde es funtkionieren. Aber ich bin mir ziemlich sicher, dass es nicht funktioniert. Der dig command funktioniert nicht. Bekomme ich folgende Fehlermeldung. Auch interessant ist der Adguard Log. Hat irgendjemand eine Idee was hier sein könnte?
  16. Ich bekomme genau die selbe Fehlermeldung wie Mohrian. Kann im moment leider keine Screenshots posten, weil ich nicht zuhause bin. Ich kann am Abend auch meine Adguard Einstellungen posten.
  17. Vielen Dank für die Anleitung. Ich habe den Unbound Docker Container am Laufen ohne Error im Log File. Ich Glaube in Adguard alles richtig konfiguriert zu haben. Wäre cool wenn jemand seine Adguard Einstellungen in Kombination mit Unbound postet. Aber woher weiß ich jetzt, ob die DNS Abfrage auch an die Root Server geht? Der dig command funktioniert im Unraid Terminal nicht.
  18. Ich verwende einfach mal dieses Thema hier um eine Frage zu stellen...ich verwende aktuell Adguard mit 4 verschiedenen DNS DoH Upstream Servern und habe Einstellungen Parallel Requests gewählt. Cache Größe habe ich eigentlich recht großzügig gewählt und sogar optimistic caching gewählt. Trotzdem komme ich nur auf eine durchschnittliche processing time von 77 ms. Warum habe ich 4 DNS Anbieter gewählt? Um meine DNS Abfragen aufzuteilen. So bekommt nicht einer alles. Durch die DoH Abfragen, würde ja eine Man in the middle Attack ja nicht funktionieren, was ich wirklich abfrage sieht ja dann erst der DNS Anbieter. Soweit alles richtig was ich schreibe? Bitte um Korrektur falls ich Blödsinn schreibe. Jetzt war meine Überlegung auf Unbound zu wechseln, weil dadurch ja direkt die Root Server abgefragt werden und ich die Anbieter umgehe. Und hoffentlich die Abfragezeit verringert. Aber die DNS Abfragen gehen dann ja wieder unverschlüsselt ins Netz und somit wäre theoretisch wieder eine Man in the middle Attack möglich. Und nein ich bin kein zweiter Edward Snowden, aber doch ein bisschen Paranoid wenn es ums Internet geht. Jetzt könnte ich noch einen Schritt weitergehen und hinterfragen wem gehören die Root Server? Wer betreibt die?
  19. Hat hier zufällig jemand Adguard + Unbound am Laufen?
  20. Hallo, hat jemand Adguard Home und Unbound auf seinem Unraid Server am Laufen? Ich finde leider im Internet nichts dazu. Aktuell verwende ich Adguard Home mit DoH Servern, würde aber gerne auf Unbound wechseln. Danke für eure Hilfe!
  21. Hallo, ich hole dieses alte Thema wieder hoch. Ich habe Loxberry laut der offizielen Anleitung eingerichtet. Siehe das hier: https://wiki.loxberry.de/installation_von_loxberry/installation_fur_andere_plattformen_und_vms/unraid?s[]=unraid Ich bekomme jedoch folgenden Fehler beim starten der VM. Kann mir jemand helfen, der Loxberry in einer VM am laufen hat?
  22. Unifi USG. Bin dauerhaft mit einem VPN verbunden. Ja es wäre möglich mit Wireguard die Verbindung ins Lan nach Hause zu machen, aber ich würde es gerne so einfach als möglich haben. Auf die Audiobooks App klicken und fertig.
  23. Hallo liebe Community, ich benötige Hilfe/Rat wie ich am Besten umsetze was ich vorhabe. Habe meinen ersten Unraid Server zusammengebaut, bis dato läuft alles soweit so gut. Jetzt fange ich an Docker/VMs zu installieren und möchte manche davon für mich öffentlich zugänglich machen. Für mich ist das alles Neuland, deswegen gleich im Vorhinen sorry sollten es noob Fragen für manche sein. Ich habe Home Assistant in einer VM laufen, in Home Assistant das Addon Duckdns installiert und greife mit xxx.duckdns.org auf meine Home Assistant Instanz zu. Mein komplettes Netzwerk ist von Unifi, Port Forwarding habe ich im Controller gemacht. Home Assistant läuft, funktioniert ohne Probleme. Ich möchte auch noch Docker Audiobooks öffentlich zugänglich für mich machen. Wie mache ich das am Besten? Funktioniert das mit einer neuerlichen Dyndns von Duckdns? Oder irgendwie mit Nginx Proxy Manager? Ich bekomme es einfach nicht zusammen und will auch vermeiden, dass ich irgendwo einen Blödsinn mache. Des weiteren möchte ich Wireguard verwenden und die DNS Anfragen über Adguard Home laufen lassen. Adguard Home läuft unter br0 und hat eine eigene interne IP. Wenn ich einen Peer in Wireguard einrichtige und dort die interne IP von Adguard eingebe funktioniert es nicht. Gebe ich zb 1.1.1.1 ein funktioniert es. Ist es möglich Wireguard mit eigenem Adguard Home zu verwenden? Danke für die Hilfe!
  24. Dann geb ich mich mal damit zufrieden 😁 Danke für eure Antworten.
  25. Für mich ist das alles ja Neuland. Wusste bis vor ein paar Wochen nicht einmal was ECC Ram ist. Was mich nur stutzig macht ist der folgender Verweis auf der Kingston Homepage. Bzw. wenn ich "dmidecode -t memory" im Terminal eingeben, kommt "Error Information Handle: Not Provided".
×
×
  • Create New...