Pool BTRFS Raid0 - Unraid meldet missing Disk?


DataCollector

Recommended Posts

Hallo,

 

ich habe mein 1st System (siehe Signatur) heute von unraid 6.11.0.rc3 auf 6.11.0 stable upgedated.


Nach dem Neustart und eingabe des Keypass bekomme ich eine Meldung, die ich nicht verstehe, da ich im Main-Tab die benannte Disk doch sehe.

Unraid meldet mir nach dem Reboot, daß in einem BTRFS Raid0 Pool von 3 Disks eine Disk fehlt. (Siehe Screenshot rechts gelbe Meldung)


Mich wundert die Meldung, weil ich sie so interpretieren würde, daß genau die Disk fehlt, die ich aber im Pool sehe.

 

Ist es üblich, dass unraid einen Fehler generell bei der ersten Disk verortet?

 

 

 

Edit: Ich hatte falsch in Erinnerung, dass der Pool aus 4 Festplatten besteht, doch ich hatte ihn vor kurzem wieder umgebaut und er bestand zuletzt und auch jetzt aus 3 x16TB Festplatten. Ich habe den ursprünglichen Beitrag und Betreff angepasst, da eigentlich keine Disk vermisst wird.

Dennoch bleibt die Frage: Was meldet mir unraid da? Sind doch alle 3 Disks da.

P.S.: Ich werde nun dazu über gehen den Datenbestand dieses Pool binär mit dem Original auf einem anderen PC zu vergleichen um zu sehen, ob da etwas passiert ist.

 

 

Missing-Devices-2022-10-01 07_51_23-102 Tessa Main.png

Edited by DataCollector
SItuation verändert- Beitrag angepasst
Link to comment
  • DataCollector changed the title to Pool BTRFS Raid0 - Unraid meldet missing Disk?
2 hours ago, mgutt said:

Du weil sie angezeigt wird, heißt das nicht, dass sie da ist. Dass ist ja ein RAID.

Meine bisherige Erfahrung: Ein Raid0 emuliert aber nicht.

Dafür müsste es Raid 1 oder höher sein.

 

2 hours ago, mgutt said:

Das soll ja auch dann laufen, wenn eine Disk aussteigt.

Auch unraid Raid0?

 

2 hours ago, mgutt said:

Daher gehe ich davon aus, dass die Disk fehlt.

Ich nicht. Aber wie schon gesagt, ich bin dabei die enthaltenen Daten auf diesem unraid BTRFS Raid0 mit der Windows Quelle zu vergleichen. Bisher fehlt keine Datei. Er ist aber erst bei 5 von rund 34TB.

 

2 hours ago, mgutt said:

Was sagt denn die Hardware-Auflistung unter Tools?

Siehe ersten Screenshot: alle 3   16TB Disks werden aufgelistet. (andere 16TB Disks sind in dem System nicht mehr verbaut. Alles andere sind 18TB Disks und SSD.)

2 hours ago, mgutt said:

Bzw das Kommando lsscsi ?

Siehe zweiten Screenshot.

Leider scheint das Kommando die Datenträger nicht weit genug anzuzeigen, so daß man die 16TB Disks einfach erkennt.

 

Nebenbei: Danke fuer das Kommando. Ich bin in Linux eben noch absolut Neu und lerne dadurch direkt auch den Nutzen diverser Kommandos und Befehle.

 

HDD Auflistung 2022-10-01 14_50_23-102 Tessa Main.png

lsscsi-2022-10-01 14_55_25-102 Tessa Main.png

Edited by DataCollector
Link to comment
1 hour ago, mgutt said:

Ne natürlich nicht. Dann ist der Fehler wirklich komisch.

Sehe ich auch so.

Bei einem JBOD System hätte ich mir den (anfangs) fehlerfreien Betrieb erklären können, weil der Fehler erst dann auftaucht wenn man lesend/schreibend dort ist, wo ein Device fehlt.

Aber bei Raid0 werden ja alle Devices (fast) gleichzeitig benutzt und es sind auf allen Datenträgern ja nur Teildaten.

Aber aktuell habe ich schon 8,9TB auf diesen BTRFS Raid0 Festplattenpool gegen das Original (Windows PC) geprüft und sie sind bisher binär identisch.

1 hour ago, mgutt said:

Was zeigt das Kommando?

btrfs filesystem show

Den oberen Teil des Kommandos verstehe ich noch, die unteren beiden Absaetze kann ich mir nicht erklären.

Zur Info: das UnraidSystem hat 2 BTRFS Raid0 Pools.

Ein Pool besteht aus 4 x2TB SATA SSD (MX500) als BTRFS Raid0 = ca. 8TB nominale Nutzkapazität

Der andere (und hier betroffene) Pool besteht aus 3 x16TB SATA Festplatten (Toshiba) als BTRFS Raid0 = ca. 48TB nominale Nutzkapazität

 

btrfs-show-2022-10-01 19_01_13-102 Tessa Main (TESSA-MAIN1064) – VNC Viewer.png

Link to comment
On 10/1/2022 at 7:09 PM, DataCollector said:

Aber aktuell habe ich schon 8,9TB auf diesen BTRFS Raid0 Festplattenpool gegen das Original (Windows PC) geprüft und sie sind bisher binär identisch.

So, alle Dateien wurden geprüft.

3 waren nicht identisch, aber das waren keine Dateifehler, sondern zwischenzeitlich mit gleichem Namen umkopierte Dateien, was bei der Prüfung auffiel.

Somit ist also alles da, was da sein soll und ich kann mir die ursprüngliche Fehlermeldung weiterhin nicht erklären.

 

Unraid hat für mich immer noch Überraschungen parat, weshalb ich bisher mein Quellsystem auf Windowsbasis immer noch nicht ersetzen kann.

Also weiter testen und lernen.

Link to comment
1 hour ago, mgutt said:

Die sind bestimmt von Docker Container. Wenn du folgendes ausführst, siehst du die auch:

df -h

Ja,ich finde da 2  Ausgaben mit loop. (Siehe Screenshot)

Da ich aktuell nur einen Docker (sabnzbd/ich777) laufen habe wundert es mich dennoch, das es 2 zusätzliche BTRFS Volumes sein sollen.

Aber okay. Wieder etwas entdeckt. :)

 

 

1 hour ago, mgutt said:

Poste vielleicht auch mal die Diagnostics. Die (temporär?) fehlende Disk muss ja geloggt worden sein.

Bitte schön.

dl-2022-10-02 23_26_54-102 Tessa Main.png

ur-tessa-diagnostics-20221002-2330.zip

Link to comment
1 hour ago, hawihoney said:

Und /mnt/user0/ gibts auch nicht mehr.

wie kommst du darauf ?

 

root@AlsServer:~# ls -la /mnt/user*
/mnt/user:
total 12
drwxrwxrwx  1 nobody users   19 Jul 20 05:36 ./
drwxr-xr-x 13 root   root   260 Oct  2 10:32 ../
drwxrwxrwx  1 nobody users  140 Sep 22 07:14 Daten/
drwxrwxrwx  1 nobody users   41 Oct  2 10:35 Dokumente/
drwxrwxrwx  1 nobody users  123 May 11 22:30 Media/
drwxrwx---  1 nobody users  222 May 10 14:59 Nextcloud/
drwxrwxrwx  1 nobody users 4096 Sep  5 15:02 appdata/
drwxrwxrwx  1 nobody users  108 Jul 30 06:37 domains/
drwxrwxrwx  1 nobody users 4096 Sep 30 06:23 isos/
drwxrwxrwx  1 nobody users   42 Aug 30 12:21 lxc/
drwxrwxrwx  1 nobody users  265 Sep 15 15:35 system/

/mnt/user0:
total 0
drwxrwxrwx  1 nobody users  19 Jul 20 05:30 ./
drwxr-xr-x 13 root   root  260 Oct  2 10:32 ../
drwxrwxrwx  1 nobody users 144 May 11 22:30 Media/
root@AlsServer:~#

 

Link to comment
4 hours ago, hawihoney said:

 

Was ist denn /dev/mapper/?

Keine Ahnung. Ich habe es nicht selber angfelegt.

Darin scheinen auch überwiegend nur Platzhalter für die Datenträger zu sein (siehe Screenshot).

 

4 hours ago, hawihoney said:

Und /mnt/user0/ gibts auch nicht mehr. Muss mal gucken auf welcher Version Du bist.

6.11.0 stable.

in mnt/user0  sind diverse Shares sichtbar (aber nicht alle).

 

 

MAPPER-2022-10-03 12_26_43-102 Tessa Main.png

Edited by DataCollector
Link to comment
7 minutes ago, hawihoney said:

 

3 Server hier - 2x 6.11, 1x 6.10.3. User Shares aktiviert aber nicht genutzt. Keiner hat mehr /mnt/user0.

 

Ich meine ich hätte vor einiger Zeit in den Ankündigungen darüber gelesen.

 

Ich habe mit Unraid 6.9.2 ab mitte letzten Jahres begonnen und diverse Upgrades durchgeführt.

Bisher war immer user0 da und ist auch auf keinem meiner beiden Systeme (beide 6.11.0. stable) "verschwunden".

Link to comment
11 minutes ago, hawihoney said:

3 Server hier - 2x 6.11, 1x 6.10.3. User Shares aktiviert aber nicht genutzt. Keiner hat mehr /mnt/user0.

 

2 x 6.11, 1 x 6.9.2, auch alle mit user0 noch da ... ich meine das auch mal gehört zu haben, aber umgesetzt wurde das bisher nicht ... jedenfalls nicht dass ich es mitbekommen hätte ;) aber wer weiß ...

Link to comment
6 hours ago, DataCollector said:

Keine Ahnung. Ich habe es nicht selber angfelegt.

 

Da würde ich mal ansetzen. /dev/mapper ist nicht von Unraid. Solange ich zurückblicken kann war es so wie in der Liste unten und nicht anders. /dev/md* --> /mnt/disk*. So sieht das auf meinem Haupt-Server aus. Die Ausgabe habe ich nur um die vielen /mnt/remotes (Unassigned Devices) gekürzt. /mnt/disks, /mnt/remotes und /mnt/rootshare sind von UD. Die overlays kamen irgendwann mit Docker. /mnt/user und /mnt/user0 kamen (und gingen - bei mir) mit den User-Shares. Die pools kamen erst vor Kurzem. Das meiste stammt aber genau so noch aus Anfangstagen:

 

root@Tower:~# df -h
Filesystem                Size  Used Avail Use% Mounted on
rootfs                     63G  976M   62G   2% /
tmpfs                      32M  1.3M   31M   5% /run
/dev/sdd1                  15G  336M   15G   3% /boot
overlay                    63G  976M   62G   2% /lib/firmware
overlay                    63G  976M   62G   2% /lib/modules
devtmpfs                  8.0M     0  8.0M   0% /dev
tmpfs                      63G     0   63G   0% /dev/shm
cgroup_root               8.0M     0  8.0M   0% /sys/fs/cgroup
tmpfs                     128M  564K  128M   1% /var/log
tmpfs                     1.0M     0  1.0M   0% /mnt/disks
tmpfs                     1.0M     0  1.0M   0% /mnt/remotes
tmpfs                     1.0M     0  1.0M   0% /mnt/rootshare
/dev/md1                   11T   11T   20G 100% /mnt/disk1
/dev/md2                   11T   11T   11G 100% /mnt/disk2
/dev/md3                   11T   11T   16G 100% /mnt/disk3
/dev/md4                   11T   11T   17G 100% /mnt/disk4
/dev/md5                   11T   11T   28G 100% /mnt/disk5
/dev/md6                   11T   11T   33G 100% /mnt/disk6
/dev/md7                   11T   11T   21G 100% /mnt/disk7
/dev/md8                   11T   11T   16G 100% /mnt/disk8
/dev/md9                   11T   11T   11G 100% /mnt/disk9
/dev/md10                  11T   11T   16G 100% /mnt/disk10
/dev/md11                  11T   11T   13G 100% /mnt/disk11
/dev/md12                  11T   11T   17G 100% /mnt/disk12
/dev/md13                  11T   11T   11G 100% /mnt/disk13
/dev/md14                  11T   11T   13G 100% /mnt/disk14
/dev/md15                 5.5T  5.5T   20G 100% /mnt/disk15
/dev/md16                  11T   11T   11G 100% /mnt/disk16
/dev/md17                 3.7T  3.1T  605G  84% /mnt/disk17
/dev/md18                  11T   11T  9.5G 100% /mnt/disk18
/dev/md19                  11T   11T  3.6G 100% /mnt/disk19
/dev/md20                  11T   11T   37G 100% /mnt/disk20
/dev/md21                  11T   11T   13G 100% /mnt/disk21
/dev/md22                  11T   11T  5.0G 100% /mnt/disk22
/dev/nvme0n1p1            932G  209G  723G  23% /mnt/pool_nvme
shfs                      228T  227T  937G 100% /mnt/user
/dev/nvme1n1p1            932G  241G  691G  26% /mnt/disks/NVMe2
/dev/sdb1                 1.9T  698G  1.2T  38% /mnt/disks/pool_ssd
/dev/loop2                1.0G  4.9M  904M   1% /etc/libvirt
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/9c3b1a35a6f003a0998916ccdc09c5a770c6f8990cefe6dfcb739ddc59076400/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/832b60984ae67cb6a9acba9fcbea57904a8e68037bf6c1612a596ebb4468d9ec/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/5a91d2aba41b53cb0cf3387af22ea2f2b5d0a8d6cba2ad0c6632d0f6f691a7d6/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/1bb39e54dbdbca640ecb1f50510780c2232d3a31de49f2ca080bbf7c974c91dc/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/25b9c4616bf9d4a979a907deedf933b05f178eda8d8e8a4651fa0ac359df8429/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/d73fb010cfd76d190a3e4db7cd68a85ab78dfd36ced4e0b9512f2121d4e00f07/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/88106699d68600d9e20c36b1869e8f1530bc6cbbbd2673ad66923155956bc963/merged
overlay                   932G  209G  723G  23% /var/lib/docker/overlay2/d2baec3937bab2f40f154229b0e640e36cdeaea4792d9320324b240bcf39c675/merged
tmpfs                      13G     0   13G   0% /run/user/0

 

 

Edited by hawihoney
Link to comment
1 hour ago, DataCollector said:

Ich erkenne den Zusammenhang nicht wirklich.

 

Meines Wissens ist das hier das Support Forum von Unraid. Die Konfiguration wirkt auf mich als wäre sie nicht Standard Unraid. Du meldest Probleme mit Unraid. Und Du verstehst nicht den möglichen Zusammenhang?

 

Das wiederum verstehe ich nicht.

 

Link to comment
9 hours ago, hawihoney said:

 

Die Konfiguration wirkt auf mich als wäre sie nicht Standard Unraid.

Was davon weicht von Standard Unraid ab?

 

9 hours ago, hawihoney said:

Du meldest Probleme mit Unraid. Und Du verstehst nicht den möglichen Zusammenhang?

Das wiederum verstehe ich nicht.

Was brauchst Du denn für Informationen?

 

Ich glaube ich habe schon alles geliefert, was angefragt wurde.

Ich vermute, dass es ein Timingproblem ist. BTRFS hat irgendwie die benannte Festplatte nicht früh genug entdeckt und daher kommt die Meldung. Als BTRFS dann (vielleicht wenige Sekunden später) die festplatte entdeckt hat, hat es das Raid0 bereitgestellt. Die Meldung blieb aber stehen, bis ich sie sah.

Das ist aber eben nur eine reine Vermutung.

Link to comment
54 minutes ago, mgutt said:

Die Logs in deiner Diagnostics fangen erst um 08:14 Uhr an. Die Meldung kam aber laut Screenshot um 07:46 Uhr. Hast du noch andere Logs? Vielleicht durch syslog mirror?

Den Syslog Mirror (auf USB Stick) hatte ich leider am 28.09.22 abgeschaltet.

Auch ist meine letzte Diagnostic von vor "ur-tessa-diagnostics-20221002-2330.zip" aus dem September (ur-tessa-diagnostics-20221002-2330.zip ur-tessa-diagnostics-20220924-1227.zip).

Ich weiß also nicht, welche Informationen ich noch liefern kann um die Meldung, bzw. den Grund einzugrenzen.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.