BigChris

Members
  • Posts

    134
  • Joined

  • Last visited

Everything posted by BigChris

  1. Nein. Bei drei Festplatten werden die Daten verteilt und mit Hilfe der Parity gesichert. Da hast eine Information auf beide Festplatten, nennen wir sie A + B. Daraus wird eine Information für die Parity erzeugt. Nennen wir sie Information C. Die Formel ist A + B = C. Fällt nun eine Datenplatte aus, haben wir in der Gleichung eine unbekannte. Das kann man schnell lösen. Nehmen wir an, die Daten aus Platte A sind defekt. Dann ist A = C - B. So würde eine Datenplatte also rekonstruiert werden können. Fällt die Parity aus, passiert erst mal nichts, es sind ja alle Klardaten weiter vorhanden. Ungefähr klar wie unraid funktioniert? Nein, raucht die Parity ab bei der Wiederherstellung lächelst du kurz, ziehst deine Backupfestplatte aus der Schublade und machst völlig tiefen entspannt weiter.
  2. Korrekt. Da liegen deine Daten. Ich glaube bei zwei Festplatten sind die komplett gespiegelt. Mir ist Bit Rot im Privatbereich noch nie untergekommen. Wobei ich auch nicht danach suche, indem ich für jede Datei Prüfummen erstelle und diese immer wieder vergleiche. Eine defekte Datei kann schon mal vorkommen, denke ich. Aber ob es dann ein RAM Fehler war, ein Bit Rot oder sonst was, wird dir glaube ich im Privatsektor niemand rausrecherchieren. Ich würde auf xfs im Array setzen. Das hat sich bewährt.
  3. Ich hatte ja auch was von Verfügbarkeit geschrieben. Unraid, oder auch anderen Raidsysteme, bieten nur eine Datenverfügbarkeit. Diese steigt mit den Redundanzen der Festplatten, das ist richtig. Bei drei Festplatten ist die Wahrscheinlichkeit, dass zwei Aufgrund eines technischen Defekts, welches nur die Festplatten und nicht das gesamte System betrifft, ZEITGLEICH ausfallen so gering, dass ich es als quasi unmöglich deklarieren würde. Wenn eine Festplatte ausfällt, bringt der Versender deines Vertrauens dir innerhalb 24 Stunden eine Ersatzplatte. Die tauscht du mit deiner defekten und freust dich alles richtig gemacht zu haben. In der Zwischenzeit kannst du weiter auf deine Daten zugreifen, das Array ist auch mit einer Platte erreichbar. Vielleicht deutlich langsamer, aber erreichbar. Zeit ein gutes Buch zu lesen, bis der Postbote zweimal klingelt. Das alles hat jedoch nichts und gar nichts mit Datensicherheit zu tun. Unraid schützt dich nicht vor physikalischen Gefahren, wie Brand, Blitzschlag, Hochwasser. Auch nicht vor Layer8 Fehlern. Wenn du heute Daten löscht und morgen merkst das es die falschen waren, holt dir keine Parityplatte der Welt die Daten wieder zurück. All diese Fälle, kann man nur über ein Backup abdecken. Wie mpc561 schon sagt, wichtige Daten existieren immer an drei Orten. Einmal dem Ort wo sie als Wirksystem vorgehalten werden, auf einem vom System getrennten Speichermedium und auf einem weiteren Medium, welches an einem anderen Ort als das Wirksystem steht. Z.B. Cloud, oder aber auch ein anderes Haus. Das nennt man auch feuerfestes Backup. Und hier kannst du dann auch verschiedene Stände sichern, so das wenn du merkst das jemand den falschen Ordner gelöscht hat, du diesen aus wieder zurückholen kannst. Ich empfehle drei Festplatten. Maximale Größe was der Geldbeutel hergibt. Platte 1 und 2 im Unraid. Parity und Daten. Platte drei per SATA-USB als Backupplatte nutzen. Diese nach dem Backup immer abziehen und sicher lagen.
  4. Ich hätte jetzt gesagt, dass das Array läuft und du auch auf die Daten zugreifen können müsstest? Kommst du auf deine Shares? Es sollte alles gespiegelt auf der Parity liegen, somit ist ein Datenverlust - solange die Parity in Ordnung ist - nicht zu befürchten. Ich würde versuchen eine Datensicherung auf eine externe Platte vorzunehmen und schauen ob man über die Datenplatte was rausbekommt. Die vielleicht mal extern versuchen auszulesen. Wahrscheinlich würde ich die aus Sorge einfach direkt austauschen.
  5. Höhere Verfügbarkeit ja, aber du hast nur so viel nutzbaren Speicherplatz, wie du in den nicht Parity Platten hast. 3 x wenig ist kleiner als 2 mal groß Abgesehen vom Energieverbrauch und späteren Erweiterungen. Die Parity muss mindestens so groß sein, wie die größte Datenplatte.
  6. Ich finde es auch sehr interessant und Frage mich warum ich das vorher hier noch nicht gelesen habe? @mgutt Du warst doch auch auf der Suche nach einem sparsamen Board? Das klingt doch hier sehr vielversprechend oder?
  7. Wie meinst du das? Wahrscheinlich nicht einfach den mover starten, oder? Oder geht es um die docker Geschichten ? Wie machst du das Backup vom cache?
  8. Jupp Danke für den Hinweis. Also bewusst war das nicht, vielleicht war ich kurz ohnmächtig oder so 🤔
  9. Ehrlich gesagt, wusste ich bis eben nicht, dass ich das mover tuning plugin installiert habe, geschweige denn, dass es das überhaupt gibt! Kann es bei irgendwas mit installiert wurden sein? Ich habe es mal deinstalliert und starte gerade einmal neu durch und schaue mal wie es sich dann verhält. Sachen gibts...
  10. Hallo, ich hatte ja mal geschrieben, dass ich den Cache tauschen wollte. Bei den Vorbereitungen ist mir aufgefallen, dass der Cache generell in Verbindung mit dem Mover nicht zu funktionieren scheint. Vielleicht verstehe ich es auch nicht richtig. Meine Annahme war, dass alle drei Stunden der Mover ausgeführt und die Daten ins Array schiebt. Jetzt habe ich gesehen, dass vom Cache (ein btrfs Pool mit 2 x 2TB SSD) 1,57TB genutzt werden. Versuche ich Move passiert nichts. Also keine Schreibvorgänge in das System. Laut "Main" Ansicht soll der Mover laufen. Im Anhang Screenshots von den Movereinstellungen und die Einstellungen eines Shars, von dem viele Daten auf dem Cache liegen, sowie die Diagnostics. Was mache ich falsch? fize-data-diagnostics-20231120-1030.zip
  11. Es hat sich glücklicherweise erledigt - reboot tut gut. Jetzt habe ich auch ein Backup
  12. Eigentlich wollte ich den Cachepool ja erweitern. Als ich mich dann heute auf das Webinterfache eingeloggt habe, habe ich Meldung "Your flash drive is corrupted or offline" erhalten. Das war das letzte was funktioniert hat, als ich in der Oberfläche etwas aufrufen wollte (diagnostics) hatte ich keinen Zugriff mehr. Ich komme noch per SSH auf das System. Was kann ich tun, evt. ist der Stick defekt. Ein Backup des USB-Sticks habe ich leider nicht
  13. Ich würde gerne meinen Cachepool durch zwei größere SSD ersetzen. Wie gehe ich am besten vor? Kann ich einfach eine nach der anderen ziehen? Grüße Christian
  14. Das ist kein Problem. Ich bin in der unifi Welt und habe einen Wireguard Zugang.
  15. Ich würde gern wissen, wie ihr so mit dem Zugriff auf Eure Daten umgeht und ob ihr vielleicht Tipps für mich habt. Bisher habe ich so ziemlich alles in Shares auf dem Unraid verteilt und greife darauf schön mit meinem Desktop Rechner von zu Hause zu. Läuft wunderbar, ich bin zufrieden und fühle mich sicher aufgehoben mit meinen Daten. Ich ziehe einmal im Monat ein Vollbackup und den Rest der Zeit vertraue ich auf die hohe Verfügbarkeit durch die Parity. Wenn sich sehr wichtige Daten ändern, ziehe ich auch mal zwischendurch die Daten ins Backup. Diese liegen verschlüsselt auf einem unraid-Server außerhalb des Hauses und noch auf einer Transportfestplatte. Auf Energiespargründen schalte ich den Unraid in den Standby, wenn es nicht benötigt wird. Das verstehe ich, ich fühle mich gut Nun hat man ja ein paar Dateien, auf die man aber gerne auch von Unterwegs Zugriff hätte. Fotos z.B. oder die Dokumentanablage. Und hier weiß ich aktuell nicht weiter, was ich tun kann, oder sollte. Neben dem Unraid habe ich noch einen Lenovo Tiny als Server, der die 24/7 Dienste bereitstellt wie z.B. mein IoBroker. Ich habe gedacht, ob ich hier die Daten ablege, die ich immer benötige und so Zugriff hätte. Z.B. mit Nextcloud, ich bin aber auch für alles andere offen - solange ich es verstehe Ich hätte gern etwas, dass ich weiter meine Daten mit dem Desktoprechner per NFS-Freigabe bearbeiten kann (oder ist das nicht sinnvoll?) und gleichzeitig diese Dateien auch auf den mobilen Geräten sehen kann. Irgendwie muss sichergestellt werden, dass die Daten konsistent bleiben, also das es nicht vorkommt, da der Unraid nicht immer läuft, es Probleme mit unterschiedlichen Versionen der Dateien gibt z.B.. Wie kann man das denn am besten anstellen? Oder müsste ich meine Server zu umstellen, dass der Unraid doch durchläuft? Vielleicht hat jemand gute Ideen für mich?
  16. Hallo, ich würde gerne einen Ordner, der auf meinem Unraid liegt, mit einem Nexcloudordner, welcher auf einem anderem Rechner läuft, synchron halten. Der Unraid (Rechner) ist bei mir so konfiguriert, dass er sich schlafen legt, wenn nichts mehr zu tun ist. Der Nextcloudserver läuft auf einem sparsamen System 24/7. Meine Dokumente hätte ich nun gerne synchron gehalten, so dass ich die hohe Verfügbarkeit des Unraids mit der kontinuierlichen Zugriffbereitschaft des Nextclouds verbinden kann. Wie kann ich das machen? Das der Nextcloud nicht plötzlich alles löscht, weil z.B. der Ordner gerade nicht erreichbar ist? Ich hatte das mal als Umweg über meinen Dektop-Rechner versucht, nur wenn der seine Freigabe auf dem Unraid mal gerade nicht erreicht, synct der Nextcloud gnadenlos auf das lokale System. Da gibt es bestimmt einen guten Weg, den ich nicht sehe, oder?
  17. @mgutt Was ist das für ein 920x den du noch "über" hast?
  18. Das Array ist quasi leer, ich wollte Veracrypt Container anlegen. Beim Share habe ich 100GB eingetragen, beim Cache glaube ich nichts? Der steht wahrscheinlich auf dem Defaultwert.
  19. Hallo, ich habe eine Datei die größer als mein Cachepool (1TB) ist. Ich hätte gedacht, dann schreibt Unraid die Datei direkt ins Array? Ich bekomme aber mittlerweile die Anzeige, dass mein Cache vollläuft. Muss man bei so was vorher die Cachenutzung auf Nein stellen?
  20. Das habe ich gemacht, es ist jetzt so wie vor der Aktion.
  21. Ich habe ein bisschen die Nerven verloren und es nun folgendermaßen gelöst. Die "alte" Cacheplatte wieder über NewConfig hinzugefügt. Die Shares alle auf YES gestellt und den Mover gestartet. Hat ein bisschen gedauert.... Dann die Platte als BTRFS umformatiert und die Shares auf PREFER gestellt. (Only ging seltsamerweise nicht, der Mover hat so nichts gemacht. Anschließend den Mover gestartet und der hat die Shares wieder korrekt auf den Cache geschoben. Die Shares wieder auf ONLY gestellt und Docker läuft. *Puh* Gerade noch mal gut gegangen. Kann ich jetzt die zweite Cacheplatte als BTRFS einfach hinzufügen? Vielen Dank für die Hilfe!