Jump to content

nach Neustart werden meine Cache SSDs nicht mehr geladen : einhängen nicht möglich


Recommended Posts

Hi,

heute Nacht war meine NAS nicht mehr erreichbar und ich hab sie heute morgen neu gestartet. Seitdem werden meine Cache SSDs nicht mehr geladen: "nicht einhängbare Datenträger vorhanden"

Kann ich hier noch was retten?

 

image.thumb.png.e871d24d393c4c604f3257dc10bf697f.png

 

Wenn ich im Wartungsdienst-Modus starte bekomme ich folgendes bei meinen SSDs:

 

image.thumb.png.4a54d5818b95da0f5d069a4f59a121f3.png

 

image.thumb.png.177fc15c15840bdc98d6d2e8b826c134.png

Link to comment
20 minutes ago, FIetch said:

heute Nacht war meine NAS nicht mehr erreichbar und ich hab sie heute morgen neu gestartet. Seitdem werden meine Cache SSDs nicht mehr geladen: "nicht einhängbare Datenträger vorhanden"

...

 

Wenn ich das richtig lese: btrfs Fehler.

Vielleicht hilft es Dir die repair Funktion zu nutzen und wenn erfolgreich: den Inhalt zu backuppen.

Aber dann solltest Du überdenken ob Du wirklich noch btrfs einsetzen willst.

Bei Single Datenträgern vielleicht xfs, bei Festplatten/SSD-Verbund vielleicht doch zfs (sofern die unraidversion das her gibt).

 

Du bist übrigens nicht allein mit btrfs Problemen...

Eine Suche in dem Forum mag helfen.

https://forums.unraid.net/topic/148411-keine-vms-und-docker-container-mehr-plötzlich/?do=findComment&comment=1330777

 

  • Thanks 1
Link to comment
Just now, FIetch said:

Wie könnte ich das denn am einfachsten wechseln ohne alles neu zu machen?

Kurz: gar nicht.

Der Cache muss dafür neu formatiert werden.

 

Daher alle Shares die den Cache nutzen umstellen auf Array (Primary Storage=array, secondary Storage=Cache).

Docker & ggfs VM Services(!) beenden

Dann Mover starten.

Wenn fertig prüfen ob wirklich alle Daten vom Cache verschoben wurden.

Falls nicht, mit Midnight Commander/Krusader/File Manager Plugin nachhelfen

 

Dann array stoppen und dann müsstest du den Cache neu formatieren können.

Link to comment
49 minutes ago, FIetch said:

btfrs repair hat geholfen, Einbindung erfolgreich! :)

 

auf BTRFS kann ich auch gerne verzichten wenn zB nfs besser läuft.

Wie könnte ich das denn am einfachsten wechseln ohne alles neu zu machen?

 

Die Daten im Pool sind eigentlich nur ganz normale Dateien, Verzeichnisse und Berechtigungen.

Zuerst würde ich eine Sicherheitskopie machen! Es kann immer etwas schief gehen.

(mc, krusader; Dynamix File Manager....)

 

Vorabinfo:

Als ich meine Pools von btrfs auf zfs umgestellt habe, habe ich auch (in den meisten Fällen) im selben Schritt neue Datenträger (größere) mit eingesetzt, weshalb ich dann nur die neuen Datenträger korrekt mit zfs zusammenstellen (den Pool identisch wie vorher benennen) und die Sicherung dort wieder aufkopieren mußte. Als ich danach unraid neu startete und das Array in betrieb nah, lief alles wie vorher gewohnt normal weiter.

Nur in einem Fall habe ich die vorhandene Datenträger in einem Pool beibehalten.

 

Wie würde ich vorgehen (wenn ich ein Backup vorher angefertigt habe!)

(Ab Punkt e aus dem Gedächtnis, da ich jetzt nicht gerade meinen Pool kaputt machen will):

 

a) VM und Dockercontainer alle stoppen und auch in den Settings VM-Manager + Docker abschalten, damit Verzeichnisse nicht davon festgehalten werden.

b) Alle shares so einstellen, daß die nichts mehr mit dem Pool zu tun haben und per mover ins array verschieben lassen.

c) Array stoppen, damit die Pools editierbar werden.

d) in den ersten Datenträger des btrfs Pools gehen (Screenshot 1 gelbe Markierung). Dort sollte Erase auswählbar sein (Screenshot 2 auch gelb markiert).

...

e) wenn alle Datenträger des Pools nun frei sind, kannst Du das Filesystem zfs neu wählen und die zugehörenden Datenträger wieder zufügen.

f) Array wieder starten

g) sie Shares wieder auf Poolbeteiligung zurueckstellen

h) mover starten.

i) wenn Mover fertig ist kannst Du den VM-Manger und Docker wieder aktivieren und Deine Vm und Dockercontainer in Folge ebenfalls.

Fertig.

 

Screenshot 1:

CACHE1---Screenshot 2023-12-03 112806.jpg

 

Screenshot 2:

second-Screenshot 2023-12-03 113752.jpg

Edited by DataCollector
Link to comment
2 hours ago, FIetch said:

ist denn zfs so viel besser als btrfs dass es sich lohnt?

 

Ich las/lese hier zumindest mehr Beiträge wegen Problemen mit btrfs als mit zfs.

Ob zfs auch eine versteckte Zeitbombe sein kann, weiß ich nicht. btrfs hat dies aber ja schon gezeigt.

Ich hatte btrfs als Raid5 und raid0 Ersatz in Betrieb mit SSDs und Festplatten und da auch keine Probleme (auch wenn btrfs bei raid5 und 6 wirklich noch nicht so ganz empfehlenswert sein soll).

 

Doch basierend auf den doch immer wieder vernehmbaren Problemen rund um btrfs habe ich alles mit Erscheinen von unraid 6.12.x (wenn ich mehr als 1 Datenträger koppeln wollte) auf zfs gewechselt.

Ich habe auch damit bisher keine Probleme.

 

Hier wurde zwar auch ab und zu mal von Problemen mit zfs berichtet, doch klang mir das meist, als wenn dann auch ein bisschen mehr mit zfs experimentiert wurde. Ich nutze es als Dateisystem bei Datenträgerkopplung und dafür ist es meiner persönlichen Meinung nach gut.

Snapshots oder so brauche und nutze ich aktuell nicht.

 

Was Du daraus machst ist Deine Sache, aber wenn Dir Die Daten auf den Pools wichtig sind, solltest Du zumindest ab und zu Backups machen.

  • Thanks 1
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...