Wirman

Members
  • Posts

    46
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Wirman's Achievements

Rookie

Rookie (2/14)

1

Reputation

1

Community Answers

  1. Ja mist, wenn die .img Datei beschädigt ist und ich nicht mehr drauf zugreifen kann. Lessons learnt, jetzt muss ich es wohl versuchen aus den .imgs wiederherzustellen. Die wichtigste VM, die von HomeAssistant, müsste dann vermutlich auch kaputt sein. edit: habs hinbekommen, die HomeAssistant VM startet und läuft soweit. Generelle Frage: Das VM Backup Plugin (Beta das richtige?) kann die VMs im laufenden Betrieb backupen?
  2. Okay, das mit den Dockern hat geklappt. laut sind die configs in system/libvirt/libvirt.img gespeichert. Dort liegt bei mir eine Datei mit 1,07GB. Es zeigt mir aber nichts unter VM an. Kann ich irgendwie die configs aus der Datei wiederherstellen? Okay, wenn ich die libvirt.img auf Windows kopiere und dort versuche zu öffnen, sagt es mir, dass die Datei beschädigt sei. Gibts eine Möglichkeit auf die Dateien innerhalb der libvirt zugreifen zu können, dass ich eventuell die configs wiederherstellen kann? Falls das nicht geht, was würde passieren, wenn ich die die VMs neu konfiguriere mit den .imgs und etwas an den Parametern anders einstelle?
  3. Hab jetzt den Pool entfernt, die defekte Platte entfernt und den Pool neu angelegt und den Mover gestartet. Ein Großteil der Daten (unter anderem 2 der VMs) sind komplett, jetzt hab ich aber das Problem, dass die zwar in den richtigen Ordnern sind, aber die Konfigurationen dazu weg sind, Unter VM und Docker im Dashboard ist alles leer. Wo speichert Unraid denn die Konfigurationen? In den Apps zeigt es die Docker nicht mehr als installiert an.
  4. Nach dem Move sind immer noch diverse Ordner in appdata, domains und system in zwei locations. Im Log bekomme ich Fehler a la: Mar 29 15:33:32 jarvis move: error: move, 392: Input/output error (5): lstat: /mnt/cache/system/docker/installed/btrfs/subvolumes/2183f70ef0121783280a0cf06ad8037911981ec3822749e87398e1358370ec45 und Mar 29 15:34:01 jarvis kernel: BTRFS error (device nvme0n1p1): bad tree block start, want 2211463168 have 0 Wenn ich auf Cache klicke im Dashboard, komme ich auf die Cache Settings Seite, die ich im vorigen Post als Bild im Spoiler angehängt habe.
  5. Ja, ich hab Docker und VMs in den Settings deaktiviert, dann erst den Mover gestartet. Erst nachdem der Mover fertig war, ich die neue SSD eingebaut habe, die SSD dem Pool zugewiesen habe und die Shares wieder anders eingestellt habe, habe ich den Mover erneut gestartet und nachdem er wieder fertig war, dann habe ich erst wieder die VM und Docker in den Settings enabled. Yes:Cache ist auch die richtige Einstellung oder? Bei No kopiert er ja nichts vom Cache aufs Array, wenn ich das richtig verstehe. Wo sehe ich das RAID Level? Im Dashboard sehe ich es nicht, wenn ich die Platten anklicke und in die Setttings gehe, dann sieht es jedoch anders aus für beide Platten. Dashboard: Cache 1 (kaputte Platte) Cache 2 (neue Platte): Ich stell jetzt nochmal appdata, domains und system auf Yes:Cache und lass den Mover nochmal laufen.
  6. Danke für die Klarstellung. Ich habe das jetzt so gemacht, wie ihr gesagt habt, Shares von Prefer:Cache auf Yes:Cache gestellt, den Mover gestartet und schlussendlich war dann wieder alles auf grün bei den Shares. Jetzt habe ich die neue von der RMA gekommene Festplatte eingebaut und wollte jetzt beide im RAID betreiben, bis die alte mit dem selben Fehler auch kaputt geht. Ich hab die Shares wieder umgestellt auf Prefer:Cache und den Mover gestartet. Mehrere Dinge sind mir jetzt unklar oder es klappt etwas nicht. 1. Warum zeigt es mir 3TB Size im Cachepool an? Erstens hab ich doch nur 1TB SSDs die ja im RAID1 laufen sollten, und ja auch nur 2 Stück. Ist die Standardkonfiguration nicht RAID1 im Cache? Ich bin mir nicht mehr sicher, die Einrichtung war schon zu lange her. Aber es zeigt ja keine Reads/Writes auf der zweiten Platte an, das spricht ja dafür, dass da nichts passiert. 2. Ich kann nun meine VMs nicht mehr starten, bei HomeAssistant kommt z.B. folgender Fehler: Docker zeigt es gar nicht mehr an, wenn ich auf Docker klicke, kommt. "Docker Service failed to start." 3. Nach der Mover Aktion ist die zweite SSD von 25% Available Spare auf 0% runter. Ich wollte nun meine VMs und Docker manuell vom Cache auf einen Backup Ordner per File Manager kopieren, dann wird alles kopiert bis 100%, dann läuft die anzeige aber über 100% hinaus und dann kommt folgender Fehler: Ich weiß jetzt nicht ob meine Daten geschützt sind oder nicht. Ich denke wenn ich einen Neustart mache oder das Array stoppe, nach dem Neustart könnte die kaputte Cache platte nicht mehr erkannt werden (so war es zumindest bei der ersten). Der Fehler ist denke ich am ehesten ein Schreibfehler, sprich Lesen geht noch solange die Platte jetzt noch erkannt ist. Im FileManager steht bei Location, dass appdata, system und domains sowohl auf der cache disk, als auch auf disk2 (vom array) liegt. Müsste das nicht von disk2 wieder runter sein, nachdem ich den Mover nach einstellen der Shares auf Prefer wieder gestartet habe? Danke für eure Hilfe
  7. Okay, dann würde ich es mit der 970 Evo Plus aus der RMA nochmal versuchen und die SMART Werte regelmäßig checken.
  8. Okay, dann mach ich das wohl so mit dem Array. Die AData Legend 960 ist PCIe 4.0, mein Board hat nur 3.0.Da lohnt sich der Aufpreis für PCIe 4.0 nicht so. Kennt jemand diese hier? https://geizhals.de/apacer-as2280p4u-pro-1tb-ap1tbas2280p4upro-1-a2625758.html?hloc=at&hloc=de
  9. Hi, ich hatte hier schon mein Problem mit meinen Cache Disks beschrieben: Jetzt wollte ich hier mal weiter machen. Ich schicke die erste der Evo 970 Plus zur RMA. Die zweite wird auf kurz oder lang auch kaputt gehen. Anscheinend wird ein Firmware Update die Probleme lösen. Habt ihr noch andere Ideen oder Erfahrungen, welche Festplatten für den Cache gut sind? Angenommen ich würde einen Tausch machen, kann ich jetzt z.B. 2x WesternDigital NVMes kaufen, mit 1TB und dann erst eine einbauen, dem CachePool hinzufügen, warten bis das Raid sich synchronisiert hat und dann die bereits vorhandene Festplatte mit der zweiten neuen Festplatte tauschen? Oder gibt es eine andere Möglichkeit, die vielleicht eher empfohlen wird? Danke für eure Hilfe und vg Wirman
  10. okay, then i will try the new nvme from rma process with the firmware update.
  11. Thanks. Do you recommend any other NVMe or brand?
  12. Okay, but it is not a specific problem of the Evo 970 Plus? Maybe only a bad batch? I will send the nvme through RMA and hope the next one will be better.
  13. Yeah i know. But the spare value starts with value 100. My NVMe in my Laptop which is 7 years old has still a spare value of 100. I am just wondering why the spare value of the EVO 970 Plus is so bad in combination with unraid. The NVMes are only about a year old. One of them is apparently dead, and with the other one it is probably only a question of time. So i am wondering if i can do something to prevent the disk of getting bad available spares.
  14. Hi, i have two Samsung Evo 970 Plus as cache drives. After a reboot the second disk could not be found and assigned to a pool. I have taken the disk out of the server and put it in an nvme adapter and have run crystal info on it. There it says Critical warning 9 and available spare 0. (Threshold 10) I have run the smart test with the diskSpeed docker in unraid on the first cache disk and there it also says only 30 available spare. Why is this value there also so bad? Here are the other values: SMART Data as of Mar 9, 2023 1:13 AM Temperature 42 Celsius Warning Comp. Temperature Time 0 Critical Comp. Temperature Time 0 Temperature Sensor 1 42 Celsius Temperature Sensor 2 40 Celsius Critical Warning 0x00 Available Spare 30% Available Spare Threshold 10% Percentage Used 2% Data Units Read 7,002,678 [3.58 TB] Data Units Written 55,581,189 [28.4 TB] Host Read Commands 68,939,664 Host Write Commands 1,155,659,216 Controller Busy Time 20,175 Power Cycles 144 Power On Hours 6,125 Unsafe Shutdowns 70 What can i do to prevent this? Or is it a problem with the disks? (but it contains both disks, is that probable?) Thanks in advance for your help Wirman
  15. Hm, that sounds a bit impractical. The second to last time, it took 15 days for the error to occur. Is safe mode only without docker and VMs? Or are there other features disabled?