DataCollector Posted October 1, 2022 Share Posted October 1, 2022 (edited) Hallo, ich habe mein 1st System (siehe Signatur) heute von unraid 6.11.0.rc3 auf 6.11.0 stable upgedated. Nach dem Neustart und eingabe des Keypass bekomme ich eine Meldung, die ich nicht verstehe, da ich im Main-Tab die benannte Disk doch sehe. Unraid meldet mir nach dem Reboot, daß in einem BTRFS Raid0 Pool von 3 Disks eine Disk fehlt. (Siehe Screenshot rechts gelbe Meldung) Mich wundert die Meldung, weil ich sie so interpretieren würde, daß genau die Disk fehlt, die ich aber im Pool sehe. Ist es üblich, dass unraid einen Fehler generell bei der ersten Disk verortet? Edit: Ich hatte falsch in Erinnerung, dass der Pool aus 4 Festplatten besteht, doch ich hatte ihn vor kurzem wieder umgebaut und er bestand zuletzt und auch jetzt aus 3 x16TB Festplatten. Ich habe den ursprünglichen Beitrag und Betreff angepasst, da eigentlich keine Disk vermisst wird. Dennoch bleibt die Frage: Was meldet mir unraid da? Sind doch alle 3 Disks da. P.S.: Ich werde nun dazu über gehen den Datenbestand dieses Pool binär mit dem Original auf einem anderen PC zu vergleichen um zu sehen, ob da etwas passiert ist. Edited October 1, 2022 by DataCollector SItuation verändert- Beitrag angepasst Quote Link to comment
mgutt Posted October 1, 2022 Share Posted October 1, 2022 Du weil sie angezeigt wird, heißt das nicht, dass sie da ist. Dass ist ja ein RAID. Das soll ja auch dann laufen, wenn eine Disk aussteigt. Daher gehe ich davon aus, dass die Disk fehlt. Was sagt denn die Hardware-Auflistung unter Tools? Bzw das Kommando lsscsi ? Quote Link to comment
DataCollector Posted October 1, 2022 Author Share Posted October 1, 2022 (edited) 2 hours ago, mgutt said: Du weil sie angezeigt wird, heißt das nicht, dass sie da ist. Dass ist ja ein RAID. Meine bisherige Erfahrung: Ein Raid0 emuliert aber nicht. Dafür müsste es Raid 1 oder höher sein. 2 hours ago, mgutt said: Das soll ja auch dann laufen, wenn eine Disk aussteigt. Auch unraid Raid0? 2 hours ago, mgutt said: Daher gehe ich davon aus, dass die Disk fehlt. Ich nicht. Aber wie schon gesagt, ich bin dabei die enthaltenen Daten auf diesem unraid BTRFS Raid0 mit der Windows Quelle zu vergleichen. Bisher fehlt keine Datei. Er ist aber erst bei 5 von rund 34TB. 2 hours ago, mgutt said: Was sagt denn die Hardware-Auflistung unter Tools? Siehe ersten Screenshot: alle 3 16TB Disks werden aufgelistet. (andere 16TB Disks sind in dem System nicht mehr verbaut. Alles andere sind 18TB Disks und SSD.) 2 hours ago, mgutt said: Bzw das Kommando lsscsi ? Siehe zweiten Screenshot. Leider scheint das Kommando die Datenträger nicht weit genug anzuzeigen, so daß man die 16TB Disks einfach erkennt. Nebenbei: Danke fuer das Kommando. Ich bin in Linux eben noch absolut Neu und lerne dadurch direkt auch den Nutzen diverser Kommandos und Befehle. Edited October 1, 2022 by DataCollector Quote Link to comment
mgutt Posted October 1, 2022 Share Posted October 1, 2022 2 hours ago, DataCollector said: Auch unraid Raid0? Ne natürlich nicht. Dann ist der Fehler wirklich komisch. Was zeigt das Kommando? btrfs filesystem show Quote Link to comment
DataCollector Posted October 1, 2022 Author Share Posted October 1, 2022 1 hour ago, mgutt said: Ne natürlich nicht. Dann ist der Fehler wirklich komisch. Sehe ich auch so. Bei einem JBOD System hätte ich mir den (anfangs) fehlerfreien Betrieb erklären können, weil der Fehler erst dann auftaucht wenn man lesend/schreibend dort ist, wo ein Device fehlt. Aber bei Raid0 werden ja alle Devices (fast) gleichzeitig benutzt und es sind auf allen Datenträgern ja nur Teildaten. Aber aktuell habe ich schon 8,9TB auf diesen BTRFS Raid0 Festplattenpool gegen das Original (Windows PC) geprüft und sie sind bisher binär identisch. 1 hour ago, mgutt said: Was zeigt das Kommando? btrfs filesystem show Den oberen Teil des Kommandos verstehe ich noch, die unteren beiden Absaetze kann ich mir nicht erklären. Zur Info: das UnraidSystem hat 2 BTRFS Raid0 Pools. Ein Pool besteht aus 4 x2TB SATA SSD (MX500) als BTRFS Raid0 = ca. 8TB nominale Nutzkapazität Der andere (und hier betroffene) Pool besteht aus 3 x16TB SATA Festplatten (Toshiba) als BTRFS Raid0 = ca. 48TB nominale Nutzkapazität Quote Link to comment
DataCollector Posted October 2, 2022 Author Share Posted October 2, 2022 On 10/1/2022 at 7:09 PM, DataCollector said: Aber aktuell habe ich schon 8,9TB auf diesen BTRFS Raid0 Festplattenpool gegen das Original (Windows PC) geprüft und sie sind bisher binär identisch. So, alle Dateien wurden geprüft. 3 waren nicht identisch, aber das waren keine Dateifehler, sondern zwischenzeitlich mit gleichem Namen umkopierte Dateien, was bei der Prüfung auffiel. Somit ist also alles da, was da sein soll und ich kann mir die ursprüngliche Fehlermeldung weiterhin nicht erklären. Unraid hat für mich immer noch Überraschungen parat, weshalb ich bisher mein Quellsystem auf Windowsbasis immer noch nicht ersetzen kann. Also weiter testen und lernen. Quote Link to comment
mgutt Posted October 2, 2022 Share Posted October 2, 2022 On 10/1/2022 at 7:09 PM, DataCollector said: die unteren beiden Absaetze kann ich mir nicht erklären. Die sind bestimmt von Docker Container. Wenn du folgendes ausführst, siehst du die auch: df -h Poste vielleicht auch mal die Diagnostics. Die (temporär?) fehlende Disk muss ja geloggt worden sein. Quote Link to comment
DataCollector Posted October 2, 2022 Author Share Posted October 2, 2022 1 hour ago, mgutt said: Die sind bestimmt von Docker Container. Wenn du folgendes ausführst, siehst du die auch: df -h Ja,ich finde da 2 Ausgaben mit loop. (Siehe Screenshot) Da ich aktuell nur einen Docker (sabnzbd/ich777) laufen habe wundert es mich dennoch, das es 2 zusätzliche BTRFS Volumes sein sollen. Aber okay. Wieder etwas entdeckt. 1 hour ago, mgutt said: Poste vielleicht auch mal die Diagnostics. Die (temporär?) fehlende Disk muss ja geloggt worden sein. Bitte schön. ur-tessa-diagnostics-20221002-2330.zip Quote Link to comment
hawihoney Posted October 3, 2022 Share Posted October 3, 2022 (edited) 8 hours ago, DataCollector said: Bitte schön. Was ist denn /dev/mapper/? Das habe ich noch nie gesehen. Und /mnt/user0/ gibts auch nicht mehr. Muss mal gucken auf welcher Version Du bist. Edited October 3, 2022 by hawihoney Quote Link to comment
alturismo Posted October 3, 2022 Share Posted October 3, 2022 1 hour ago, hawihoney said: Und /mnt/user0/ gibts auch nicht mehr. wie kommst du darauf ? root@AlsServer:~# ls -la /mnt/user* /mnt/user: total 12 drwxrwxrwx 1 nobody users 19 Jul 20 05:36 ./ drwxr-xr-x 13 root root 260 Oct 2 10:32 ../ drwxrwxrwx 1 nobody users 140 Sep 22 07:14 Daten/ drwxrwxrwx 1 nobody users 41 Oct 2 10:35 Dokumente/ drwxrwxrwx 1 nobody users 123 May 11 22:30 Media/ drwxrwx--- 1 nobody users 222 May 10 14:59 Nextcloud/ drwxrwxrwx 1 nobody users 4096 Sep 5 15:02 appdata/ drwxrwxrwx 1 nobody users 108 Jul 30 06:37 domains/ drwxrwxrwx 1 nobody users 4096 Sep 30 06:23 isos/ drwxrwxrwx 1 nobody users 42 Aug 30 12:21 lxc/ drwxrwxrwx 1 nobody users 265 Sep 15 15:35 system/ /mnt/user0: total 0 drwxrwxrwx 1 nobody users 19 Jul 20 05:30 ./ drwxr-xr-x 13 root root 260 Oct 2 10:32 ../ drwxrwxrwx 1 nobody users 144 May 11 22:30 Media/ root@AlsServer:~# Quote Link to comment
DataCollector Posted October 3, 2022 Author Share Posted October 3, 2022 (edited) 4 hours ago, hawihoney said: Was ist denn /dev/mapper/? Keine Ahnung. Ich habe es nicht selber angfelegt. Darin scheinen auch überwiegend nur Platzhalter für die Datenträger zu sein (siehe Screenshot). 4 hours ago, hawihoney said: Und /mnt/user0/ gibts auch nicht mehr. Muss mal gucken auf welcher Version Du bist. 6.11.0 stable. in mnt/user0 sind diverse Shares sichtbar (aber nicht alle). Edited October 3, 2022 by DataCollector Quote Link to comment
hawihoney Posted October 3, 2022 Share Posted October 3, 2022 2 hours ago, alturismo said: wie kommst du darauf ? 3 Server hier - 2x 6.11, 1x 6.10.3. User Shares aktiviert aber nicht genutzt. Keiner hat mehr /mnt/user0. Ich meine ich hätte vor einiger Zeit in den Ankündigungen darüber gelesen. Quote Link to comment
DataCollector Posted October 3, 2022 Author Share Posted October 3, 2022 7 minutes ago, hawihoney said: 3 Server hier - 2x 6.11, 1x 6.10.3. User Shares aktiviert aber nicht genutzt. Keiner hat mehr /mnt/user0. Ich meine ich hätte vor einiger Zeit in den Ankündigungen darüber gelesen. Ich habe mit Unraid 6.9.2 ab mitte letzten Jahres begonnen und diverse Upgrades durchgeführt. Bisher war immer user0 da und ist auch auf keinem meiner beiden Systeme (beide 6.11.0. stable) "verschwunden". Quote Link to comment
alturismo Posted October 3, 2022 Share Posted October 3, 2022 11 minutes ago, hawihoney said: 3 Server hier - 2x 6.11, 1x 6.10.3. User Shares aktiviert aber nicht genutzt. Keiner hat mehr /mnt/user0. 2 x 6.11, 1 x 6.9.2, auch alle mit user0 noch da ... ich meine das auch mal gehört zu haben, aber umgesetzt wurde das bisher nicht ... jedenfalls nicht dass ich es mitbekommen hätte aber wer weiß ... Quote Link to comment
hawihoney Posted October 3, 2022 Share Posted October 3, 2022 3 hours ago, alturismo said: alle mit user0 noch da Seltsam. Ich habe die bei mir nicht selbst gelöscht. Die waren irgendwann einfach weg. Quote Link to comment
hawihoney Posted October 3, 2022 Share Posted October 3, 2022 (edited) 6 hours ago, DataCollector said: Keine Ahnung. Ich habe es nicht selber angfelegt. Da würde ich mal ansetzen. /dev/mapper ist nicht von Unraid. Solange ich zurückblicken kann war es so wie in der Liste unten und nicht anders. /dev/md* --> /mnt/disk*. So sieht das auf meinem Haupt-Server aus. Die Ausgabe habe ich nur um die vielen /mnt/remotes (Unassigned Devices) gekürzt. /mnt/disks, /mnt/remotes und /mnt/rootshare sind von UD. Die overlays kamen irgendwann mit Docker. /mnt/user und /mnt/user0 kamen (und gingen - bei mir) mit den User-Shares. Die pools kamen erst vor Kurzem. Das meiste stammt aber genau so noch aus Anfangstagen: root@Tower:~# df -h Filesystem Size Used Avail Use% Mounted on rootfs 63G 976M 62G 2% / tmpfs 32M 1.3M 31M 5% /run /dev/sdd1 15G 336M 15G 3% /boot overlay 63G 976M 62G 2% /lib/firmware overlay 63G 976M 62G 2% /lib/modules devtmpfs 8.0M 0 8.0M 0% /dev tmpfs 63G 0 63G 0% /dev/shm cgroup_root 8.0M 0 8.0M 0% /sys/fs/cgroup tmpfs 128M 564K 128M 1% /var/log tmpfs 1.0M 0 1.0M 0% /mnt/disks tmpfs 1.0M 0 1.0M 0% /mnt/remotes tmpfs 1.0M 0 1.0M 0% /mnt/rootshare /dev/md1 11T 11T 20G 100% /mnt/disk1 /dev/md2 11T 11T 11G 100% /mnt/disk2 /dev/md3 11T 11T 16G 100% /mnt/disk3 /dev/md4 11T 11T 17G 100% /mnt/disk4 /dev/md5 11T 11T 28G 100% /mnt/disk5 /dev/md6 11T 11T 33G 100% /mnt/disk6 /dev/md7 11T 11T 21G 100% /mnt/disk7 /dev/md8 11T 11T 16G 100% /mnt/disk8 /dev/md9 11T 11T 11G 100% /mnt/disk9 /dev/md10 11T 11T 16G 100% /mnt/disk10 /dev/md11 11T 11T 13G 100% /mnt/disk11 /dev/md12 11T 11T 17G 100% /mnt/disk12 /dev/md13 11T 11T 11G 100% /mnt/disk13 /dev/md14 11T 11T 13G 100% /mnt/disk14 /dev/md15 5.5T 5.5T 20G 100% /mnt/disk15 /dev/md16 11T 11T 11G 100% /mnt/disk16 /dev/md17 3.7T 3.1T 605G 84% /mnt/disk17 /dev/md18 11T 11T 9.5G 100% /mnt/disk18 /dev/md19 11T 11T 3.6G 100% /mnt/disk19 /dev/md20 11T 11T 37G 100% /mnt/disk20 /dev/md21 11T 11T 13G 100% /mnt/disk21 /dev/md22 11T 11T 5.0G 100% /mnt/disk22 /dev/nvme0n1p1 932G 209G 723G 23% /mnt/pool_nvme shfs 228T 227T 937G 100% /mnt/user /dev/nvme1n1p1 932G 241G 691G 26% /mnt/disks/NVMe2 /dev/sdb1 1.9T 698G 1.2T 38% /mnt/disks/pool_ssd /dev/loop2 1.0G 4.9M 904M 1% /etc/libvirt overlay 932G 209G 723G 23% /var/lib/docker/overlay2/9c3b1a35a6f003a0998916ccdc09c5a770c6f8990cefe6dfcb739ddc59076400/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/832b60984ae67cb6a9acba9fcbea57904a8e68037bf6c1612a596ebb4468d9ec/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/5a91d2aba41b53cb0cf3387af22ea2f2b5d0a8d6cba2ad0c6632d0f6f691a7d6/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/1bb39e54dbdbca640ecb1f50510780c2232d3a31de49f2ca080bbf7c974c91dc/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/25b9c4616bf9d4a979a907deedf933b05f178eda8d8e8a4651fa0ac359df8429/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/d73fb010cfd76d190a3e4db7cd68a85ab78dfd36ced4e0b9512f2121d4e00f07/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/88106699d68600d9e20c36b1869e8f1530bc6cbbbd2673ad66923155956bc963/merged overlay 932G 209G 723G 23% /var/lib/docker/overlay2/d2baec3937bab2f40f154229b0e640e36cdeaea4792d9320324b240bcf39c675/merged tmpfs 13G 0 13G 0% /run/user/0 Edited October 3, 2022 by hawihoney Quote Link to comment
DataCollector Posted October 3, 2022 Author Share Posted October 3, 2022 2 hours ago, hawihoney said: Da würde ich mal ansetzen. /dev/mapper ist nicht von Unraid. und das soll die Erklärung für die Meldung der verlorenen Festplatte sein, obwohl die festplatte vorhanden und die Daten im BTRFS Raid0 korrekt und vollständig sind? Ich erkenne den Zusammenhang nicht wirklich. Quote Link to comment
hawihoney Posted October 3, 2022 Share Posted October 3, 2022 1 hour ago, DataCollector said: Ich erkenne den Zusammenhang nicht wirklich. Meines Wissens ist das hier das Support Forum von Unraid. Die Konfiguration wirkt auf mich als wäre sie nicht Standard Unraid. Du meldest Probleme mit Unraid. Und Du verstehst nicht den möglichen Zusammenhang? Das wiederum verstehe ich nicht. Quote Link to comment
mgutt Posted October 3, 2022 Share Posted October 3, 2022 /dev/mapper kommt, wenn man die Laufwerke verschlüsselt hat. Also ganz normal. 2 Quote Link to comment
DataCollector Posted October 4, 2022 Author Share Posted October 4, 2022 9 hours ago, mgutt said: /dev/mapper kommt, wenn man die Laufwerke verschlüsselt hat. Also ganz normal. Danke. Ja, die Laufwerke sind xfs encrypted. Quote Link to comment
DataCollector Posted October 4, 2022 Author Share Posted October 4, 2022 9 hours ago, hawihoney said: Die Konfiguration wirkt auf mich als wäre sie nicht Standard Unraid. Was davon weicht von Standard Unraid ab? 9 hours ago, hawihoney said: Du meldest Probleme mit Unraid. Und Du verstehst nicht den möglichen Zusammenhang? Das wiederum verstehe ich nicht. Was brauchst Du denn für Informationen? Ich glaube ich habe schon alles geliefert, was angefragt wurde. Ich vermute, dass es ein Timingproblem ist. BTRFS hat irgendwie die benannte Festplatte nicht früh genug entdeckt und daher kommt die Meldung. Als BTRFS dann (vielleicht wenige Sekunden später) die festplatte entdeckt hat, hat es das Raid0 bereitgestellt. Die Meldung blieb aber stehen, bis ich sie sah. Das ist aber eben nur eine reine Vermutung. Quote Link to comment
mgutt Posted October 4, 2022 Share Posted October 4, 2022 Die Logs in deiner Diagnostics fangen erst um 08:14 Uhr an. Die Meldung kam aber laut Screenshot um 07:46 Uhr. Hast du noch andere Logs? Vielleicht durch syslog mirror? Quote Link to comment
DataCollector Posted October 4, 2022 Author Share Posted October 4, 2022 54 minutes ago, mgutt said: Die Logs in deiner Diagnostics fangen erst um 08:14 Uhr an. Die Meldung kam aber laut Screenshot um 07:46 Uhr. Hast du noch andere Logs? Vielleicht durch syslog mirror? Den Syslog Mirror (auf USB Stick) hatte ich leider am 28.09.22 abgeschaltet. Auch ist meine letzte Diagnostic von vor "ur-tessa-diagnostics-20221002-2330.zip" aus dem September (ur-tessa-diagnostics-20221002-2330.zip ur-tessa-diagnostics-20220924-1227.zip). Ich weiß also nicht, welche Informationen ich noch liefern kann um die Meldung, bzw. den Grund einzugrenzen. Quote Link to comment
mgutt Posted October 4, 2022 Share Posted October 4, 2022 Was zeigt denn: head /var/log/syslog Bzw gibt es zwei? ls /var/log Vielleicht sind die aus der Diagnostics nur abgeschnitten?! Quote Link to comment
DataCollector Posted October 4, 2022 Author Share Posted October 4, 2022 (edited) 19 minutes ago, mgutt said: head /var/log/syslog ls /var/log Vielleicht sind die aus der Diagnostics nur abgeschnitten?! Ich kann mit der Ausgabe nicht viel anfangen (wg. Unwissen): Edited October 4, 2022 by DataCollector Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.