Jump to content

Ulairi

Members
  • Posts

    33
  • Joined

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Ulairi's Achievements

Noob

Noob (1/14)

1

Reputation

  1. Ich sage danke für eure Antworten. Dann habe ich 2 Jahre lang Plex falsch betrieben....warum auch immer 😤
  2. Hallo, da mir vor kurzem der Cache hops gegangen ist (danke btfs FS), bin ich wieder mal am herumüberlegen, was ich verbessern könnte. Grundsätzlich sehen meine Plex Shares wie folgt aus: /mnt/disk1/Animes/ /mnt/disk1/Dokumentationen/ etc. Ich könnte auch folgendes verwenden: /mnt/user/Animes/ /mnt/user/Dokumentationen/ etc. Ist es möglich, Sachen die ich auf den Cache kopiere, dass diese gleich für Plex verfügbar sind? Ich verwende das Mover Tuning Plugin, ich würde Sachen vom Cache erst nach X Tagen oder wenn der Cache X % voll ist auf das Array verschieben lassen. Ich habe /mnt/cache/Animes/ probiert....auf einmal war leider alles weg. Danke für eure Hilfe!
  3. Mittlerweile bin ich davon überzeugt, dass es wirklich das FS ist. Ich kann nicht einmal mit dem Mover alle Daten vom Cache auf das Array verschieben. Bzw. wird mir auch angezeigt, dass die noch vorhandene Platte nur 600 GB insgesamt hat, obwohl es eine 1 TB ist. Es sind bereits 500 GB in Verwendung, obwohl es erst 200 GB sind.
  4. Dann werde ich das so machen. Ich habe mich nur unverständlich ausgedrückt, ich glaube wir meinen beide das selbe. Was mir jetzt noch so durch den Kopf geht, wie kann die zweite SSD vom Cache Pool formatieren? Die wird mir ja nicht mehr angezeigt.
  5. Für mich mittlerweile auch kein Zufall mehr, dass am Wochenende eine VM defekt wurde. Siehe hier: Ich habe alle Docker mit CA Appdata Backup gesichert. Grundsätzlich funktioniert eine Cache SSD ja noch, also die Daten sind ja nicht weg. Nachdem ich so etwas noch nie gemacht habe, könnte ich die Daten einfach auf das Array kopieren, ich wandele den BRTFS Pool in ZFS um und kopiere dann die Daten wieder auf den Cache Pool? Mein Array würde ich gerne im XFS Format lassen, weil der Server total auf Strom sparen ausgelegt ist. Aber den Cache Pool in ZFS umzuwanden spricht ja nichts dagegen oder?
  6. Ich habe gerade folgendes in den System Logs gefunden. Ich fange nur leider gar nichts damit an.
  7. Hallo, ich benötige Hilfe. Ich habe heute mein Array gestoppt und habe sofort die Fehlermeldung "Missing Cache Drive bekommen". Ich habe zwei Samsung 970 Evo Plus 1TB gespiegelt in einem btrfs Cache am Laufen. Auch ein Neustart brachte keine Hilfe. Ich habe meine Diagnostic angehängt. Und auch einen Screenshot, damit ihr seht, dass die zweite SSD wirklich fehlt. Danke schon mal für eure Hilfe! baraddur-diagnostics-20240304-2359.zip
  8. Das Beste ist, gestern am Abend auf Gut Glück die VM gestartet, funktioniert auf einmal wieder. Warum....ich habe keine Ahnung. Ich muss mich jetzt mal mit dem Thema VM Backup beschäftigen, dass das nicht mehr passiert.
  9. Ok alles klar jetzt verstehe ich es. Ich gehe in meinem Fall davon aus, dass nur die VM was hat, weil alle Docker funktionieren und eine zweite VM funktioniert auch. Und alle Daten für Docker und VM laufen auf dem Cache. Wenn ich jetzt so darüber nachdenke, habe ich in meinem Fall einen Single Point of Failure. Gibt es irgendwo Backup Guides oder so? Wie kann man überhaupt Backups von VM machen?
  10. Ich bitte um Abklärung. Da das System seit sehr lange Zeit Rock stable läuft, habe ich mir da ehrlich gesagt keine Gedanken darüber gemacht. Ich update das OS (Dietpi) der VM nicht, also wie kann es da zu einem Fehler kommen? Die Daten sind ja immer die selben? Ich würd es nur gern verstehen. Was meinst du mit FS? Mein System ist ziemlich simple, 2x btrfs Samsung 970 Evo Plus im Raid1. Und 4 Seagate Ironwolf 8 TB, xfs und Parity protected. Heißt das die Samsung Nvme ist defekt? Oder nur die VM?
  11. Hallo, ich habe heute das Unraid Update von 6.12.6 auf 6.12.8 gemacht. Wie mir vor ein paar Stunden erst aufgefallen ist, funktioniert meine VM nicht mehr, auf der Loxberry läuft. Hatte vorher alles ohne Probleme funktioniert. Dachte ich mir, ich mache einfach das Downgrade auf 6.12.6 wieder. Funktioniert trotzdem nicht mehr. Das ist die Fehlermeldung die ich bekomme. Kann mir jemand helfen? Wäre super dringend, weil ohne Loxberry funktioniert mein Smart Home nicht.
  12. Ja genau funktioniert jetzt beides. Vielen Dank nochmal. Was mir jetzt noch so im Kopf herumschwirrt...bei den jetzigen Einstellungen macht Adguard Home einen DNS Cache und Unbound einen Cache oder? Ist das sinnvoll? Sollte ich den Cache in Adguard nicht deaktivieren? Hat damit schon jemand Erfahrung? Wie läuft das in Pihole?
  13. MIt "Host access to custom networks" enabled funktioniert der dig command bei mir jetzt auch. Aber trotzdem bin ich mir noch nicht sicher, ob alles funktioniert. Im Log von Unbound habe ich noch folgenden Fehler: Mache ich einen DNS Leak Test sieht der wie folgt aus: Sollte hier mein ISP stehen? Ich nehme an nicht? Ich poste auch noch meine ganzen Einstellungen:
  14. Adguard 120 und Unbound 121. Adguard funktioniert ohne Probleme, wenn ich andere Upstream Server eintrage. Verwende ich seit Jahren so. Dig Command habe ich noch nicht ausprobiert. Was bei meinem Setup total komisch ist, wenn ich Unbound verwende, es funktioniert alles, ich bekomme im Adguard Log jedoch diese Fehler. Und ganz komisch ist, wenn ich einen DNS Leak Test mache, dann sehe ich, dass auf einmal mein ISP dort aufscheint. Obwohl ich überall die IP von Adguard eingetragen habe. Stoppe ich Unbound wieder, dann scheint beim DNS Leak Test wieder die Upstream Server von Adguard auf.
  15. Ich habe eine ganz komische Situation. Adguard und Unbound sind installiert. Es schient so, als würde es funtkionieren. Aber ich bin mir ziemlich sicher, dass es nicht funktioniert. Der dig command funktioniert nicht. Bekomme ich folgende Fehlermeldung. Auch interessant ist der Adguard Log. Hat irgendjemand eine Idee was hier sein könnte?
×
×
  • Create New...