paulinus

Members
  • Posts

    43
  • Joined

  • Last visited

paulinus's Achievements

Rookie

Rookie (2/14)

1

Reputation

  1. Danke für die Ratschläge. Ich kann ja gerne auch xfs verwenden beim neu formatieren der Platten. Im Moment will ich ja erst mal ZFS los werden. Ob mein aktuelles Problem aber etwas mit der vorliegenden Formatierung zu tun hat oder nicht, kann ich nicht beurteilen. Vermutlich nicht, denn ich kann problemlos Dateien und Verzeichnisse auf der Platte löschen. Besonderheit aktuell ist ja, dass Verzeichnisse, die ehemals Shares waren, sich nicht löschen lassen. Vielleicht hat ja noch jemand eine Idee. P.S.: Warum bietet Unraid eigentlich an, Array-Platten mit nicht empfehlenswerten (vielleicht sogar dysfunktionalen) Dateisystemen zu initialisieren?
  2. @alturismo Danke für die Nachricht. Grund war: ich wollte einfach Erfahrungen mit dem neuen Filesystem sammeln, das vielerorts über den grünen Klee gelobt wird. Aber natürlich nicht so. Inzwischen konnte ich das Problem beheben, ich hatte zwei Cache SSDs im Mirroring-Betrieb unter ZFS Laufen, dort lag der Fehler. Jetzt bin ich dabei, das Array auf btrfs umzuformatieren und gehe dabei nach der von Spaceinvader one empfohlenen Methode vor. Zwei der Platten laufen bereits unter btrfs. Zwei andere habe ich mit unbalance leer gemacht, sie enthalten aber noch Folder im root, die ich nicht löschen kann. Die Meldung in der Konsole ist "rm: cannot remove 'Data': Device or resource busy". Fehlersuche bisher: Docker und VMs ausgeschaltet Mover ist inaktiv Unter Shares die Disk ausgeschlossen Array neu gestartet zpool status zeigt keinerlei Fehler an Ich habe keine Idee, warum dies Ordner oder das Device "busy" sein sollte. Hast Du eine Idee?
  3. Moin zusammen. Ich habe mein Array umkonfiguriert. Die Cache-Disks habe ich noch nicht eingebunden, die hatten zuvor Probleme gemacht (NVMEs). Jetzt würde ich die gerne checken, ggf. darauf vorhandenen appdata-Ordner sichern und dann ggf. neu formatieren. Leider bekomme ich bei dem Versuch, die über Unassigned Devices einzuhängen den Fehler " unassigned.devices: Error: Device '/dev/nvme2n1p1' mount point 'cache' - name is reserved, used in the array or a pool, or by an unassigned device." Ich habe dann eine der beiden nvme's versucht in cache2 umzubenennen, was auch nicht ging. Mein letzter Versuch den einhängepunkt in "bla" umzubenennen hat funktioniert. Jetzt erhalte ich die Meldung: "unassigned.devices: Mount of 'nvme2n1p1' failed: 'Cannot determine Pool Name of '/dev/nvme2n1p1'" und "Partition 'cache' cannot be mounted.".
  4. Is it possible that Unraid would just have to recreate the configuration of the array? If it had to recreate the parity in the process, that would be ok with me. Finally I had moved all important data from Disk4 to another disk, there is only data on Disk4 that can be deleted.
  5. Unfortunately I can't format the disk. Whatever I do, as soon as I start the array the computer hangs. Even if I completely removed the affected disk, the computer hangs. I have currently completely removed Disk4 from the system. I started the array in the hope that it would boot up and maybe emulate Disk4 or even forget it. Both would be ok, but unfortunately Unraid has been saying "Mounting disks..." since yesterday evening. As soon as I start the array, "VERIFY3(size <= rt->rt_space) failed (281442899902464 <= 14951145472)" and "PANIC at range_tree.c:436:range_tree_remove_impl()" appear on the console. The existing discs themselves seem ok. I can access it in the console and also through the GUI I can access the directories of the existing disks. They are just not available as shares.
  6. So that I can give the hard drive a different format, I assigned it to a different slot. So I could set btrfs and when starting the array I could set the hard disk to be formatted. Unfortunately, Unraid still panics when i am staring the array. It even panics when I remove the hard drive with the problem from the system completely. I guess I didn't understand the process properly. What am I doing wrong?
  7. Unraid still says "Mounting disks...", since more then two hours now. I can access the discs using the console. However, the shares are not available. Does anybody have an idea, what I can do?
  8. Syslog shows the following lines: Dec 3 20:37:29 Gandalf kernel: VERIFY3(size <= rt->rt_space) failed (281442899902464 <= 14951145472) Dec 3 20:37:29 Gandalf kernel: PANIC at range_tree.c:436:range_tree_remove_impl() Dec 3 20:37:29 Gandalf kernel: Showing stack for process 22643 Dec 3 20:37:29 Gandalf kernel: CPU: 0 PID: 22643 Comm: zpool Tainted: P O 6.1.64-Unraid #1 Dec 3 20:37:29 Gandalf kernel: Hardware name: QEMU Standard PC (i440FX + PIIX, 1996), BIOS rel-1.16.2-0-gea1b7a073390-prebuilt.qemu.org 04/01/2014 Dec 3 20:37:29 Gandalf kernel: Call Trace:
  9. I have now replaced the memory modules and inserted the previous disk 4 back into the array. After starting, Unraid offered me to restore disk 4. I have confirmed this. I've been waiting for the restore to start for ten minutes now. The status line in the GUI window says "Array is starting, disks are being mounted". It looks like the server is hanging again. It can't be the memory modules, I just replaced them. What can I do next?
  10. In any case, I will now have to hard reset the computer again. Then I will only be able to start it in maintenance mode, since it stops when the disks are mounted. Can I just reformat Disk4 in maintenance mode? What then happens to the parity data? Before I took disk 4 out of the array, Unraid started and was able to mount the array. Other than the reported error messages, everything seemed to work. It could also be written to and read from Disk 4.
  11. I hope I haven't made a major mistake with my qualified ignorance... Situation is as follows: Unraid array of five data disks and two parity disks has a problem with Disk4. The disks on the array are formatted with ZFS. Zpool status shows that there is an error on the disk and recommends restoring a data backup. I cannot identify a specific file that is corrupt. The error is: "One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A config: NAME STATE READ WRITE CKSUM disk4 ONLINE 0 0 0 md4p1 ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: disk4:<0x5af494>" A specific file cannot be identified that contains the error. Two other issues seem to be related to the same error: Unraid says when booting up on the console: "VERIFY3(size <= rt->rt_space) failed (281442899902464 <= 14951145472) PANIC at range_tree.c:436:range_tree_remove_impl()" And the last problem, the array can no longer be stopped. Unraid always hangs when shutting down and then has to be hard reset. My attempted solutions: First, I moved all important data from Disk4 to another of the disks. That worked without any problems. My next action was to run a parity check in the hope that this would correct errors. Unfortunately without success. The parity check went through about 95 percent of the time and then hung for many hours with the message saying that it needed another two hours to complete. But it didn't do anything anymore. My next attempt at a solution is based on experiences from the time before I reformatted the disks to ZFS. The idea now was to simply pull out the problematic disk and then start a rebuild with a replacement disk ready. So I restarted Unraid with disk 4 missing. I checked the note that I wanted to replace disk 4 as soon as possible and started the array. At this point I would have expected a running array with emulated Disk4. Now the GUI has been showing "Starting..." for more than an hour and all disks are shown at the top with a green dot, only Disk4 says "not installed". The status line in the window says "Array is starting. Disks are being mounted". At this point I don't know what to do next. Can I cancel the whole thing? I probably have to, because it's obviously not possible to mount it. What can I do without causing greater damage (if it hasn't already happened)?
  12. Ich hoffe, ich habe mit meiner qualifizierten Ahnungslosigkeit gerade keinen größeren Fehler gemacht... Situation ist Folgende: Unraid Array aus fünf Datenplatten und zwei Parity Platten hat ein Problem mit Disk4. Datenplatten sind alle mit ZFS formatiert, Zpool status zeigt, das es auf der Disk einen Fehler gibt und empfiehlt, eine Datensicherung zurück zu spielen. Eine spezielle Datei lässt sich nicht ausmachen, die fehlerhaft ist. Der Fehler ist: "One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A config: NAME STATE READ WRITE CKSUM disk4 ONLINE 0 0 0 md4p1 ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: disk4:<0x5af494>" Eine spezielle Datei lässt sich nicht ausmachen, die den Fehler enthält. Zwei weitere Probleme scheinen mit demselben Fehler zusammen zu hängen: Unraid sagt beim Hochfahren auf der Console: "VERIFY3(size <= rt->rt_space) failed (281442899902464 <= 14951145472) PANIC at range_tree.c:436:range_tree_remove_impl()" Und das letzte Problem, das Array lässt sich nicht mehr stoppen. So hängt Unraid auch immer beim Runterfahren und muss dann hart resettet werden. Zuerst habe ich alle wichtigen Daten von Disk4 auf eine andere der Disks verschoben. Meine nächste Aktion war einen Parity-Check durcklaufen zu lassen, in der Hoffnung, dass dadurch Fehler korrigiert würden. Leider ohne Erfolg. Der Parity Check lief zu ca, 95 Prozent durch und hing dann viele Stunden mit der Anzeige, dass er bis zum Abschluss noch zwei Stunden bräuchte. Machte aber gar nichts mehr. Mein nächster Lösungsversuch basiert auf Erfahrungen aus der Zeit bevor ich die Platten auf ZFS umformatiert hatte. Die Idee war jetzt, die problematische Platte einfach heraus zu ziehen, und dann mit einer bereit liegenden Ersatzplatte einen Rebuild zu starten. Also habe ich Unraid neu gestartet mit fehlender Platte 4. Den Hinweis, dass ich die Platte 4 baldmöglichst ersetzen wolle habe ich angehakt und das Array gestartet. An der Stelle hätte ich erst mal ein laufendes Array erwartet mit emulierter Disk4. Jetzt zeigt die GUI allerdings seit mehr ale einer Stunde an "Starte..." und oben werden mir alle Platten mit grünem Punkt angezeigt, lediglich bei Disk4 steht "nicht installiert". In der Statuszeile des Fensters steht "Array startet. Datenträger werden eingehängt". An der Stelle weiß ich jetzt nicht weiter. Kann ich das Ganze abbrechen? Muss ich wohl, denn das Einhängen gelingt ja offensichtlich nicht. Was kann ich tun, oh e größeren Schaden anzurichten (wenn nicht schon passiert)?
  13. Nachdem auf die letzte Nachricht keine Reaktion mehr kam, gehe ich davon aus, dass die Angaben in der VM config und der syslinux.cfg soweit in Ordnung sind und das vorhandene Problem aufgrund einer Fehlkonfiguration besteht (die vermutlich infolge des Supports über den Discord Channel entstanden ist). Daher meine Frage: Gibt es ein Verfahren, um den Unraid-Server auf die initiale Konfiguration zurück zu setzen, ohne dabei die Konfiguration des Arrays selbst und der Freigaben zu verlieren?
  14. Danke für die Hinweise. Also wissentlich habe ich nicht in den Einstellungen gespielt. Ich erinnere mich aber, dass ich am Anfang Probleme hatte und dann auf dem Discord Channel "GeekFreaks" Hilfe bekommen habe. Soweit ich mich erinnere, gab es einmal ein Problem, dass beim Start meiner VM der erste CPU-Kern auf hundert Prozent ging und dort blieb. Was wir dann alles eingestellt hatten, weiß ich nicht mehr. Ich meine aber, wir hätten auch noch etwas bei den Systemgeräten in den IOMMU Einstellungen verändert. Jedenfalls ist dort aktuell bei der IOMMU group 26 (VGA Controller und zugehöriges Audio-Device) ein Haken und jeweils ein grüner Punkt. Jetzt habe ich jedenfalls wie oben angezeigt VFIO allow unsafe Interrupts auf "No" gestellt. In der VM Config sieht es jetzt so aus: <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='4' threads='2'/> <cache mode='passthrough'/> </cpu> und die Zeile in der syslinux.cfg hat den Inhalt: append intel_iommu=on ommu=pt kvm-intel.nested=1 initrd=/bzroot Ich habe das Unraid system mit der Konfiguration neu gestartet. Die normale Windows-VM läuft noch wie gewohnt hoch. In der TestVM habe ich VM Plattform aktiviert und da habe ich jetzt den Effekt, dass beim Start dieser VM der erste CPU-Kern auf hundert Prozent geht und dort bleibt. Die VM läuft dann auch nicht hoch. Viele Grüße...
  15. Ich hab was gefunden und die syslinux nach dem Beispiel in "forums.unraid.net/topic/70040-guide-vms-in-vm-intel-nested-virtualization/" angepasst. Edit: Link war falsch in der Zeile "append" steht bei mir allerdings der dort angezeigte Eintrag "vfio-pci..." nicht. Stattsessen steht da "intel_iommu=on ommu=pt vfio_iommu_type1.allow_unsafe_interrupts=1". In der VM-Config konnte ich auch den mode= "custom" so nicht einstellen. Der weiter unten zitierte Eintrag mode='host-model' check='partial' funktionieren will es aber trotzdem nicht....