Array Fehler nach Festplatteneinbau in USB Gehäuse


zero_neverload

Recommended Posts

Also bei mi sind die Platten grundsätzlich immer auf grün, das heisst vermutlich das sie nie schlafen gehen. ISt aber nicht schlimm, da ich grundsätzlich eh die WD Red verwende. Strom ist in der Miete von daher....

 

Wäre aber dennoch schön wenn es geht. Wenn er allerdings die Platten alle 10 min aufweckt, wäre das allerdings suboptimal für die Platten und deren Motor.

Link to comment
34 minutes ago, zero_neverload said:

Wenn er allerdings die Platten alle 10 min aufweckt, wäre das allerdings suboptimal für die Platten und deren Motor.

WD sagt 200k ist das Limit und Google sagt, dass ein Zusammenhang zwischen Ausfällen und Spin cycle nicht eindeutig ist:

https://superuser.com/questions/197862/how-harmful-is-a-hard-disk-spin-cycle

 

Da aber alle 10 Minuten keine 4 Jahre resultieren würde um 200k zu erreichen, hast du schon recht.

 

Ich habe bei mir mal geschaut. Meine Platten stehen aktuell bei ~500 Start Stop Cycle und ~100 Power Cycle (ja viele Tests mit meinen Skripten ^^) und das nach 6 Monaten. Nur eine steht bei ~1700. Da liegen die User Shares drauf. Aber selbst das reicht für 50 Jahre. Ist also nicht so als würde Unraid hier Platten ausradieren 

 

Die Frage ist allerdings ob du überhaupt in den Einstellungen ausgewählt hast, dass sie schlafen gehen sollen. Ich vermute mal nicht.

56 minutes ago, zero_neverload said:

Strom ist in der Miete von daher....

Kostenloses Bitcoin Mining bei dir zu Hause in 3, 2, 1 ^^

Link to comment
15 minutes ago, mgutt said:

WD sagt 200k ist das Limit und Google sagt, dass ein Zusammenhang zwischen Ausfällen und Spin cycle nicht eindeutig ist:

https://superuser.com/questions/197862/how-harmful-is-a-hard-disk-spin-cycle

Wo sieht man das?

15 minutes ago, mgutt said:

 

Da aber alle 10 Minuten keine 4 Jahre resultieren würde um 200k zu erreichen, hast du schon recht.

ich schau mal in den Einstellungen 

 

image.thumb.png.0cc4b7d9f0d3e5dd6ab0765d441fcf78.png

Quote

 

Ich habe bei mir mal geschaut. Meine Platten stehen aktuell bei ~500 Start Stop Cycle und ~100 Power Cycle (ja viele Tests mit meinen Skripten ^^) und das nach 6 Monaten. Nur eine steht bei ~1700. Da liegen die User Shares drauf. Aber selbst das reicht für 50 Jahre. Ist also nicht so als würde Unraid hier Platten ausradieren 

 

Die Frage ist allerdings ob du überhaupt in den Einstellungen ausgewählt hast, dass sie schlafen gehen sollen. Ich vermute mal nicht.

Kostenloses Bitcoin Mining bei dir zu Hause in 3, 2, 1 ^^

Mining macht mein vermieter, von daher....

 

Du bist doch gut aufgestellt was Linux angeht oder? Kannst du mir einen Rat geben bezugnehmend meines ZFS Pools den ich gerne Vollständig irgendwie in Uraid funktional Mounten möchte?
Aktuell hab ich das in den Mountpoint Disks gemountet über SMBtools. DAs ist meiner Meinung nach der falsche Punkt, da VM Backup und auch andere Dienste hier nicht zugreifen können.

 

Am liebsten wäre mir der Mountpoint in USer, aber das hat leider nicht geklappt, da dann nur mein tank und kein anderes Verzeichnis mehr sichtbar waren.

Vermutlich hab ich damit die Unraid scripte abgewürgt. Hab es dann wie gesagt wieder so eingestellt, das er sich ins disks Verzeichnis einhängt mit diesem Script:

 

[ZFS-tank]
path = /mnt/disks/tank/
browseable = yes
guest ok = yes
writeable = yes
read only = no
create mask = 0775
directory mask = 0775

 

Hast du ne Idee?

 

Edited by zero_neverload
Link to comment
1 hour ago, zero_neverload said:

Wo sieht man das?

 

Die 600K für den Load Cycle Count stehen im Datenblatt. Die 200K für den Start Stop Count hat er denke ich ausgerechnet. Keine Ahnung wo er den sonst her hat. Bei mir steht der noch auf 100. Erst wenn der auf 99 gefallen ist, kann man ja hochrechnen:

 

143248501_2020-10-2122_33_35.thumb.png.0fa51d5c78fa83c561b25b906d8d7a5b.png

 

Den Load Cycle Count kann ich jetzt grob hochrechnen:

100-98=2%=3557/2*100=178K

 

Wobei das laut dem technischen Datenblatt ja eigentlich keinen Sinn macht, weil die DC HC520 hat auch 600K Load/Unload Cycles:

https://documents.westerndigital.com/content/dam/doc-library/en_us/assets/public/western-digital/product/data-center-drives/ultrastar-dc-hc500-series/data-sheet-ultrastar-dc-hc520.pdf

 

1 hour ago, zero_neverload said:

ich schau mal in den Einstellungen 

 

Du musst den Punkt "Standard Datenträger Ruhezustandsverzögerung" auswählen.

 

Interessante Übersetzung @ich777 ^^ Schreib lieber "Festplatte ausschalten nach" oder "HDD ausschalten nach". Analog zu Windows.

 

1 hour ago, zero_neverload said:

Du bist doch gut aufgestellt was Linux angeht oder? Kannst du mir einen Rat geben bezugnehmend meines ZFS Pools den ich gerne Vollständig irgendwie in Uraid funktional Mounten möchte?

 

Sorry, hab ich echt keine Ahnung von. Ich bin Profi im Hineinfuchsen ^^

 

Vielleicht neuen Thread aufmachen. Vielleicht lockt das Schlagwort ZFS noch andere Profis an ;)

Edited by mgutt
Link to comment

Noch ein bisschen recherchiert zu ZFS und Unraid. Mit dem Kommando bekommt man scheinbar bestehende Pools importiert:

zpool import -f Poolname

 

Von hier:

https://forums.unraid.net/topic/57980-solved-zfs-import/?tab=comments#comment-568495

 

Wobei mir nicht klar ist woher der Pool dann weiß unter welchen Pfad er gemountet ist, aber evtl kannst du mir das dann ja sagen.

 

Kann sein, dass du dafür erst dieses Plugin installieren musst:

https://forums.unraid.net/topic/41333-zfs-plugin-for-unraid/page/5/

 

 

Link to comment
8 hours ago, mgutt said:

Interessante Übersetzung @ich777 ^^ Schreib lieber "Festplatte ausschalten nach" oder "HDD ausschalten nach". Analog zu Windows.

Die übersetzung war nicht das einfachste da wir uns drauf geeinigt hatten alles auf deutsch zu übersetzen, vom prinzip stimmt der wortlaut aber wir wollten bei datenträger bleiben.

Standard für Datenträgerabschaltung hört sich auch komisch an (standard müsste auch dabei bleiben ist der default wert)

Link to comment
2 hours ago, ich777 said:

standard müsste auch dabei bleiben ist der default wert

Das ist das Problem, wenn die englische Bezeichnung schon irreführend ist. Der "default" ist wenn überhaupt "never". Den "default" ändern ist gar nicht möglich, weil es ja nur einen Wert gibt.

 

Alles wurde übersetzt, also auch Apps oder Tools? Ich weiß schon warum ich die englische Version nutze ^^

Link to comment
1 hour ago, zero_neverload said:

Wie er mit den Fehlern umgeht weiss ich allerdings nicht.

Ich will ja nicht sagen, dass ich es gesagt habe ^^

 

Allerdings tippe ich mal auf eine fehlerhafte Datendisk, so wie hier:

https://forums.unraid.net/topic/83501-data-rebuild-with-errors/

 

Bitte poste deine Diagnose-ZIP.

 

Was du jetzt nicht machen darfst:

- neu starten 

- Daten auf die ersetzte Disk schreiben

- Partitäts-Check mit Korrektur ausführen 

 

Edited by mgutt
Link to comment
18 minutes ago, mgutt said:

Den "default" ändern ist gar nicht möglich, weil es ja nur einen Wert gibt.

Was?

Es ist eher gemeint ein Standard Wert der für alle Festplatten innerhalb von Unraid gleich ist du kannst das Timeout je Festplatte dann noch anpassen in den Einstellungen.

 

Wie bei allem im Leben gehen die Meinungen auseinander was zu Übersetzen ist und was nicht.

Link to comment

Also irgendwie bin ich mit der ganzen Performance noch nicht zufrieden. Ich glaube ich schmeisse mein USB 3.0 gehäuse in die Tonne.

 

Hier mal ein NAStest welcher die übertragungen testet:

NAS performance tester 1.7 http://www.808.dk/?nastester
Running warmup...
Running a 1000MB file write on Y: once... (mein ZFS auf dem USB3.0 Gehäuse/die Cache SSD ist intern verbaut)
-----------------------------
Average (W):     17,09 MB/sec
-----------------------------
Running a 1000MB file read on Y: once...
-----------------------------
Average (R):     31,41 MB/sec
-----------------------------
Running warmup...
Running a 1000MB file write on X: once... (Mein Pool Array intern verbaut)
-----------------------------
Average (W):     23,89 MB/sec
-----------------------------
Running a 1000MB file read on X: once... 
-----------------------------
Average (R):     18,58 MB/sec
-----------------------------
Running warmup...
Running a 1000MB file write on W: once... (mein Stripe SSD intern verbaut)
-----------------------------
Average (W):     54,74 MB/sec
-----------------------------
Running a 1000MB file read on W: once...
-----------------------------
Average (R):     90,99 MB/sec
-----------------------------
Running warmup...
Running a 1000MB file write on U: once... (meine Single Caheplatte SSD intern)
-----------------------------
Average (W):     52,42 MB/sec
-----------------------------
Running a 1000MB file read on U: once...
-----------------------------
Average (R):     86,27 MB/sec
-----------------------------
Running warmup...
Running a 1000MB file write on Z: once... (mein Qnap im Raid 5 mit 8 Platten)
-----------------------------
Average (W):    321,11 MB/sec
-----------------------------
Running a 1000MB file read on Z: once...
-----------------------------
Average (R):    288,45 MB/sec
-----------------------------
 

Ich glaube irgendwas läuft nicht rund....

Link to comment

Ein paar Gedanken:

 

1.) USB und eSATA nutzen serielle Protokolle. 4 HDDs darüber parallel laufen zu lassen und dann auch noch in einem ZFS RAID. Mehr Overhead und parallele Transfers gehen kaum. Fazit: das kann nicht gehen.

 

2.) Wie ist dein Pool nun verbunden? Mindestens eine Platte war ja per USB angebunden. Noch andere? Wie ist die Performance der Ports? Liegt dahinter vielleicht nur ein USB Hub Controller (geteilte Bandbreite)?

 

3.) Dein SSD Pool und Cache sind grausam lahm. Alle per SATA angebunden? Wie hast du gezielt auf die Cache SSD geschrieben, ein Share mit "Cache only"? Teste mal Disk Share, falls noch nicht geschehen. Ich tippe auf eine zu schwache CPU.

 

4.) Hat das System nur 4GB RAM oder so? Weil gerade bei Benchmarks läuft normalerweise alles in den RAM, weshalb es eigentlich schwer ist die Performance der Laufwerke mit gerade mal 1GB zu testen, aber bei dir geht offensichtlich alles direkt auf die Laufwerke.

 

5.) Dein QNAP hat 10G? Für ein RAID5 mit 8 Platten sind 300 MB/s auch sehr schwach. Oder ist das SMB Multichannel über drei 1G Ports oder so?

Link to comment
38 minutes ago, mgutt said:

Ein paar Gedanken:

 

1.) USB und eSATA nutzen serielle Protokolle. 4 HDDs darüber parallel laufen zu lassen und dann auch noch in einem ZFS RAID. Mehr Overhead und parallele Transfers gehen kaum. Fazit: das kann nicht gehen.

Ok klingt plausibel, also hau ich das externe gehäuse in die Tonne

38 minutes ago, mgutt said:

 

2.) Wie ist dein Pool nun verbunden? Mindestens eine Platte war ja per USB angebunden. Noch andere? Wie ist die Performance der Ports? Liegt dahinter vielleicht nur ein USB Hub Controller (geteilte Bandbreite)?

Nein nur die Parritätsplatte ist per USB angebunden, die anderen sind intern über den Sata Anschluss connectet

38 minutes ago, mgutt said:

 

3.) Dein SSD Pool und Cache sind grausam lahm. Alle per SATA angebunden? Wie hast du gezielt auf die Cache SSD geschrieben, ein Share mit "Cache only"? Teste mal Disk Share, falls noch nicht geschehen. Ich tippe auf eine zu schwache CPU.

 

Was genau meinst du mit Diskshare?

 

das hier:

 

root@Tower:~# hdparm -tT /dev/sdi

/dev/sdi:
 Timing cached reads:   10706 MB in  2.00 seconds = 5366.10 MB/sec
 Timing buffered disk reads: 422 MB in  3.00 seconds = 140.48 MB/sec
root@Tower:~# hdparm -tT /dev/sde

/dev/sde:
 Timing cached reads:   11304 MB in  1.99 seconds = 5669.73 MB/sec
 Timing buffered disk reads:  86 MB in  3.02 seconds =  28.45 MB/sec
root@Tower:~# hdparm -tT /dev/sdf

/dev/sdf:
 Timing cached reads:   11094 MB in  1.99 seconds = 5561.53 MB/sec
 Timing buffered disk reads: 350 MB in  3.01 seconds = 116.30 MB/sec
root@Tower:~# hdparm -tT /dev/sdk

/dev/sdk:
 Timing cached reads:   10312 MB in  1.99 seconds = 5168.97 MB/sec
 Timing buffered disk reads: 716 MB in  3.00 seconds = 238.40 MB/sec
root@Tower:~# hdparm -tT /dev/sdg

/dev/sdg:
 Timing cached reads:   10116 MB in  2.00 seconds = 5070.61 MB/sec
 Timing buffered disk reads: 378 MB in  3.01 seconds = 125.44 MB/sec
root@Tower:~# hdparm -tT /dev/sdh

/dev/sdh:
 Timing cached reads:   9844 MB in  2.00 seconds = 4932.90 MB/sec
 Timing buffered disk reads: 748 MB in  3.01 seconds = 248.80 MB/sec
root@Tower:~# hdparm -tT /dev/sdb

/dev/sdb:
 Timing cached reads:   10652 MB in  1.99 seconds = 5340.67 MB/sec
 Timing buffered disk reads:  88 MB in  3.01 seconds =  29.27 MB/sec
root@Tower:~# hdparm -tT /dev/sdc

/dev/sdc:
 Timing cached reads:   10376 MB in  1.99 seconds = 5201.57 MB/sec
 Timing buffered disk reads:  96 MB in  3.04 seconds =  31.60 MB/sec
root@Tower:~# hdparm -tT /dev/sdd

/dev/sdd:
 Timing cached reads:   8942 MB in  2.00 seconds = 4480.83 MB/sec
 Timing buffered disk reads:  88 MB in  3.01 seconds =  29.27 MB/sec
root@Tower:~# hdparm -tT /dev/sdj

/dev/sdj:
 Timing cached reads:   10106 MB in  2.00 seconds = 5065.40 MB/sec
 Timing buffered disk reads: 754 MB in  3.01 seconds = 250.91 MB/sec
root@Tower:~# 

38 minutes ago, mgutt said:

 

4.) Hat das System nur 4GB RAM oder so? Weil gerade bei Benchmarks läuft normalerweise alles in den RAM, weshalb es eigentlich schwer ist die Performance der Laufwerke mit gerade mal 1GB zu testen, aber bei dir geht offensichtlich alles direkt auf die Laufwerke.

Mein System hat 12GB ram

38 minutes ago, mgutt said:

 

5.) Dein QNAP hat 10G? Für ein RAID5 mit 8 Platten sind 300 MB/s auch sehr schwach. Oder ist das SMB Multichannel über drei 1G Ports oder so?

ist aktuell nur mit 1GBit angebunden

Link to comment
58 minutes ago, zero_neverload said:

Was genau meinst du mit Diskshare?

Bei Unraid kannst du entweder Ordner freigeben (User Share) oder Disks (Disk Share). Der Standard sind Ordner, also "User Shares". In den Optionen kann man aber auch direkt die Disks freigeben:

628842901_2020-11-0422_58_17.png.cac8ff78992e0919b3dcaa4312b5a4b7.png

 

Diese tauchen dann auch auf dem "Shares" Tab auf bzw sind dann über das Netzwerk erreichbar. Diese Methode wird nicht empfohlen, weil es zu Datenverlust kommen kann, wenn Nutzer ihre Dateien von einem User Share auf einen Disk Share verschieben (oder andersherum) und diese Disk Teil des User Shares ist. Daher ist das standardmäßig deaktiviert und ich würde es auch niemandem im Alltag empfehlen.

 

Allerdings spricht nichts gegen eine temporäre Aktivierung um die Disks zu benchmarken, da dies viel schneller geht als mit einem User Share.

 

Du musst dazu wissen, dass Dateien, die auf einen "User Share" übertragen werden, immer durch einen zusätzlichen Unraid Prozess laufen, der sich "SHFS" nennt. Dieser Prozess sorgt dafür, dass die Dateien auf der richtigen Disk landen. Andersherum sorgt der Prozess dafür, dass beim Herunterladen die Dateien von der richtigen Disk kommen bzw beim Zugriff über das Netzwerk siehst du ja alle Dateien in einem Ordner, auch wenn sie in Wirklichkeit auf mehreren Disks verteilt sind. Das alles ermöglicht dieser Prozess. Du kannst dir sicher vorstellen, dass das Rechenleistung kostet und diese fällt eben bei einem Disk-Share weg, da du direkt auf die Disk zugreifst.

 

Was sollst du nun tun. Aktiviere die Disk Shares und binde \\tower\disk1 als ein neues Netzlaufwerk auf deinem Client ein. Dieses testest du nun mit NAS Tester. Du solltest nun feststellen, dass der Schreibtest bei ~70MB/s liegt und der Lesetest bei ~100MB/s. Das kannst du dann auch noch mal mit deiner Cache Disk wiederholen. Der Pfad sollte dann sowas wie \\tower\\Cache_space sein. Wie der Disk-Pfad von einem SSD Pool heißt, weiß ich ehrlich gesagt gar nicht. Du solltest den Namen aber unter "Shares" (und dann zu Disk Shares runterscrollen) sehen bzw nach der Aktivierung der Disk-Shares werden sie auch alle in deiner Netzwerkumgebung auftauchen.

 

Wenn das der Fall ist, also die Performance deutlich besser ausfällt, dann steht fest, dass deine Server-CPU zu schwach ist um 1G auszulasten. Da lässt sich dann auch nicht mehr optimieren. Sollte die Performance dagegen gleich sein, dann stimmt irgendwas nicht mit der Verbindung. Also entweder im Netzwerk oder innerhalb des Servers.

 

58 minutes ago, zero_neverload said:

Mein System hat 12GB ram

Und wie viel ist davon frei? 20% des freien RAMs wird standardmäßig bei Uploads als Schreibcache genutzt. Da du 1GB große Testdateien hochgeladen hast, würden also >5GB ausreichen um dir jedes Benchmark zu verfälschen, da du nie live auf die Disks schreibst. Ich habe zB bewusst 50% eingestellt, damit ich bei ~50GB freiem RAM immer um die ~25GB mit voller Geschwindigkeit hochladen kann. Also selbst auf eine HDD könnte ich mit ~1175 MB/s hochladen (10G), was deutlich mehr ist als die HDD selbst kann.

58 minutes ago, zero_neverload said:

ist aktuell nur mit 1GBit angebunden

Das kann nicht sein, weil 117,5 MB/s sind das Maximum von 1G. Du hast aber 321 bzw 288 MB/s gemessen.

hdparm

Auch wenn ich das nicht meinte, so sind die Ergebnisse trotzdem interessant. Ich vermute mal sdf, sdc, sdd und sdj von denen du mit 28 bis 32 MB/s gelesen hast, sind die Platten in deinem 4-Bay Gehäuse. Dann würde ich mal sagen, dass du keine USB 3.0 Verbindung hast, sondern nur 2.0. Denn du hast ja mit hdparm nur auf jeweils eine Festplatte zugegriffen und das nur lesend und ohne RAID-Overhead. Und 35 MB/s ist das Maximum von USB 2.0, was du nie überschritten hast. Hast du wirklich einen USB 3.0 Port verwendet und ist es ein USB 3.0 Kabel?

 

Edited by mgutt
Link to comment
23 hours ago, mgutt said:

Bei Unraid kannst du entweder Ordner freigeben (User Share) oder Disks (Disk Share). Der Standard sind Ordner, also "User Shares". In den Optionen kann man aber auch direkt die Disks freigeben:

628842901_2020-11-0422_58_17.png.cac8ff78992e0919b3dcaa4312b5a4b7.png

 

Diese tauchen dann auch auf dem "Shares" Tab auf bzw sind dann über das Netzwerk erreichbar. Diese Methode wird nicht empfohlen, weil es zu Datenverlust kommen kann, wenn Nutzer ihre Dateien von einem User Share auf einen Disk Share verschieben (oder andersherum) und diese Disk Teil des User Shares ist. Daher ist das standardmäßig deaktiviert und ich würde es auch niemandem im Alltag empfehlen.

 

Allerdings spricht nichts gegen eine temporäre Aktivierung um die Disks zu benchmarken, da dies viel schneller geht als mit einem User Share.

 

Du musst dazu wissen, dass Dateien, die auf einen "User Share" übertragen werden, immer durch einen zusätzlichen Unraid Prozess laufen, der sich "SHFS" nennt. Dieser Prozess sorgt dafür, dass die Dateien auf der richtigen Disk landen. Andersherum sorgt der Prozess dafür, dass beim Herunterladen die Dateien von der richtigen Disk kommen bzw beim Zugriff über das Netzwerk siehst du ja alle Dateien in einem Ordner, auch wenn sie in Wirklichkeit auf mehreren Disks verteilt sind. Das alles ermöglicht dieser Prozess. Du kannst dir sicher vorstellen, dass das Rechenleistung kostet und diese fällt eben bei einem Disk-Share weg, da du direkt auf die Disk zugreifst.

 

Was sollst du nun tun. Aktiviere die Disk Shares und binde \\tower\disk1 als ein neues Netzlaufwerk auf deinem Client ein. Dieses testest du nun mit NAS Tester. Du solltest nun feststellen, dass der Schreibtest bei ~70MB/s liegt und der Lesetest bei ~100MB/s. Das kannst du dann auch noch mal mit deiner Cache Disk wiederholen. Der Pfad sollte dann sowas wie \\tower\\Cache_space sein. Wie der Disk-Pfad von einem SSD Pool heißt, weiß ich ehrlich gesagt gar nicht. Du solltest den Namen aber unter "Shares" (und dann zu Disk Shares runterscrollen) sehen bzw nach der Aktivierung der Disk-Shares werden sie auch alle in deiner Netzwerkumgebung auftauchen.

 

Wenn das der Fall ist, also die Performance deutlich besser ausfällt, dann steht fest, dass deine Server-CPU zu schwach ist um 1G auszulasten. Da lässt sich dann auch nicht mehr optimieren. Sollte die Performance dagegen gleich sein, dann stimmt irgendwas nicht mit der Verbindung. Also entweder im Netzwerk oder innerhalb des Servers.

Danke für die ausführliche Beschreibung. Werde das morgen mal testen.

23 hours ago, mgutt said:

 

Und wie viel ist davon frei? 20% des freien RAMs wird standardmäßig bei Uploads als Schreibcache genutzt. Da du 1GB große Testdateien hochgeladen hast, würden also >5GB ausreichen um dir jedes Benchmark zu verfälschen, da du nie live auf die Disks schreibst. Ich habe zB bewusst 50% eingestellt, damit ich bei ~50GB freiem RAM immer um die ~25GB mit voller Geschwindigkeit hochladen kann. Also selbst auf eine HDD könnte ich mit ~1175 MB/s hochladen (10G), was deutlich mehr ist als die HDD selbst kann.

Ok, hab ich vestanden

23 hours ago, mgutt said:

Das kann nicht sein, weil 117,5 MB/s sind das Maximum von 1G. Du hast aber 321 bzw 288 MB/s gemessen.

Was soll ich sagen:

image.png.fad568aa81dbab6f0005b4d99248d27e.png

 

bei mir wird intern der Adapter 2 Verwendet. Ist aber wie gesagt nur 1G

23 hours ago, mgutt said:

hdparm

Auch wenn ich das nicht meinte, so sind die Ergebnisse trotzdem interessant. Ich vermute mal sdf, sdc, sdd und sdj von denen du mit 28 bis 32 MB/s gelesen hast, sind die Platten in deinem 4-Bay Gehäuse. Dann würde ich mal sagen, dass du keine USB 3.0 Verbindung hast, sondern nur 2.0. Denn du hast ja mit hdparm nur auf jeweils eine Festplatte zugegriffen und das nur lesend und ohne RAID-Overhead. Und 35 MB/s ist das Maximum von USB 2.0, was du nie überschritten hast. Hast du wirklich einen USB 3.0 Port verwendet und ist es ein USB 3.0 Kabel?

 

Der Port ist ein Blauer USB 3.0 Port, das Kabel ist oroginal beim Gehäuse dabei gewesen und ist definitiv ein USB 3 Kabel. Das Gehäuse ist dementsprechend auch USB 3 fähig. Ob Unraid das irgenwie nicht richtig erkannt hat weiss ich nicht. Dafür reichen meine Grundkenntnisse leider nicht aus was Linux betrift.

 

Kann ich das irgendwie auslesen?

 

IOMMU group 0:[8086:3405] 00:00.0 Host bridge: Intel Corporation 5520/5500/X58 I/O Hub to ESI Port (rev 12)

IOMMU group 1:[8086:3408] 00:01.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 1 (rev 12)

IOMMU group 2:[8086:340a] 00:03.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 3 (rev 12)

IOMMU group 3:[8086:340e] 00:07.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 7 (rev 12)

IOMMU group 4:[8086:3410] 00:09.0 PCI bridge: Intel Corporation 7500/5520/5500/X58 I/O Hub PCI Express Root Port 9 (rev 12)

IOMMU group 5:[8086:342e] 00:14.0 PIC: Intel Corporation 7500/5520/5500/X58 I/O Hub System Management Registers (rev 12)

IOMMU group 6:[8086:3422] 00:14.1 PIC: Intel Corporation 7500/5520/5500/X58 I/O Hub GPIO and Scratch Pad Registers (rev 12)

IOMMU group 7:[8086:3423] 00:14.2 PIC: Intel Corporation 7500/5520/5500/X58 I/O Hub Control Status and RAS Registers (rev 12)

IOMMU group 8:[8086:3438] 00:14.3 PIC: Intel Corporation 7500/5520/5500/X58 I/O Hub Throttle Registers (rev 12)

IOMMU group 9:[8086:3a37] 00:1a.0 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #4

Bus 003 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

[8086:3a38] 00:1a.1 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #5

Bus 004 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 004 Device 002: ID 046d:c051 Logitech, Inc. G3 (MX518) Optical Mouse

[8086:3a39] 00:1a.2 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #6

Bus 005 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

[8086:3a3c] 00:1a.7 USB controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #2

Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

Bus 001 Device 002: ID 152d:0567 JMicron Technology Corp. / JMicron USA Technology Corp. JMS567 SATA 6Gb/s bridge

Bus 001 Device 003: ID 2109:2811 VIA Labs, Inc. Hub

Bus 001 Device 005: ID 17e9:4307 DisplayLink USB to ATA/ATAPI Bridge

Bus 001 Device 006: ID 0409:005a NEC Corp. HighSpeed Hub

Bus 001 Device 007: ID 03f0:0024 Hewlett-Packard KU-0316 Keyboard

Bus 001 Device 008: ID 1bcf:0820 Sunplus Innovation Technology Inc.

Bus 001 Device 009: ID 1a40:0101 Terminus Technology Inc. Hub

Bus 001 Device 010: ID 04b4:6506 Cypress Semiconductor Corp. USB2.0 Hub

Bus 001 Device 011: ID 0a4d:008e Evolution Electronics, Ltd MK-249C MIDI Keyboard

Bus 001 Device 012: ID 0bda:8153 Realtek Semiconductor Corp. RTL8153 Gigabit Ethernet Adapter

Bus 001 Device 013: ID 03f0:0c17 Hewlett-Packard LaserJet 1010

Bus 001 Device 014: ID 03f0:484a Hewlett-Packard

Bus 001 Device 015: ID 04b4:6506 Cypress Semiconductor Corp. USB to ATA/ATAPI Bridge

Bus 001 Device 016: ID 04b4:6572 Cypress Semiconductor Corp. USB2.0 Hub

Bus 001 Device 017: ID 0bda:482a Realtek Semiconductor Corp.

IOMMU group 10:[8086:3a3e] 00:1b.0 Audio device: Intel Corporation 82801JI (ICH10 Family) HD Audio Controller

IOMMU group 11:[8086:3a40] 00:1c.0 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 1

IOMMU group 12:[8086:3a44] 00:1c.2 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 3

IOMMU group 13:[8086:3a48] 00:1c.4 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 5

IOMMU group 14:[8086:3a4a] 00:1c.5 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Root Port 6

IOMMU group 15:[8086:3a34] 00:1d.0 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #1

Bus 006 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

[8086:3a35] 00:1d.1 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #2

Bus 007 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 007 Device 002: ID 0ccd:0028 TerraTec Electronic GmbH Aureon 5.1 MkII

[8086:3a36] 00:1d.2 USB controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #3

Bus 008 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 008 Device 002: ID 1997:2433 Mini Keyboard

[8086:3a3a] 00:1d.7 USB controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #1

Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

Bus 002 Device 002: ID 0781:55a3 SanDisk Corp. Ultra Luxe

Bus 002 Device 009: ID 1a40:0101 Terminus Technology Inc. Hub

Bus 002 Device 010: ID 28de:1142

Bus 002 Device 011: ID 045e:0719 Microsoft Corp. Xbox 360 Wireless Adapter

IOMMU group 16:[8086:244e] 00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev 90)

[1106:3044] 09:02.0 FireWire (IEEE 1394): VIA Technologies, Inc. VT6306/7/8 [Fire II(M)] IEEE 1394 OHCI Controller (rev c0)

IOMMU group 17:[8086:3a16] 00:1f.0 ISA bridge: Intel Corporation 82801JIR (ICH10R) LPC Interface Controller

[8086:3a20] 00:1f.2 IDE interface: Intel Corporation 82801JI (ICH10 Family) 4 port SATA IDE Controller #1

[4:0:0:0] disk ATA WDC WD20EARX-00P AB51 /dev/sdf 2.00TB

[4:0:1:0] disk ATA SanDisk SDSSDX12 R211 /dev/sdg 120GB

[5:0:0:0] disk ATA SanDisk SDSSDA-1 40RL /dev/sdh 1.00TB

[5:0:1:0] disk ATA WDC WD2003FYYS-0 0D02 /dev/sdi 2.00TB

[8086:3a30] 00:1f.3 SMBus: Intel Corporation 82801JI (ICH10 Family) SMBus Controller

[8086:3a26] 00:1f.5 IDE interface: Intel Corporation 82801JI (ICH10 Family) 2 port SATA IDE Controller #2

[6:0:0:0] disk ATA KINGSTON SV300S3 UA /dev/sdj 240GB

[7:0:0:0] disk ATA Corsair Force GS 5.02 /dev/sdk 180GB

IOMMU group 18:[1106:3432] 01:00.0 USB controller: VIA Technologies, Inc. VL80x xHCI USB 3.0 Controller (rev 03)

Bus 010 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub

Bus 009 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

IOMMU group 19:[10de:0fc0] 02:00.0 VGA compatible controller: NVIDIA Corporation GK107 [GeForce GT 640 OEM] (rev a1)

IOMMU group 20:[10de:0e1b] 02:00.1 Audio device: NVIDIA Corporation GK107 HDMI Audio Controller (rev a1)

IOMMU group 21:[10de:1c82] 04:00.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050 Ti] (rev a1)

IOMMU group 22:[10de:0fb9] 04:00.1 Audio device: NVIDIA Corporation GP107GL High Definition Audio Controller (rev a1)

IOMMU group 23:[11ab:4364] 07:00.0 Ethernet controller: Marvell Technology Group Ltd. 88E8056 PCI-E Gigabit Ethernet Controller (rev 12)

IOMMU group 24:[11ab:6121] 06:00.0 IDE interface: Marvell Technology Group Ltd. 88SE6111/6121 SATA II / PATA Controller (rev b2)

IOMMU group 25:[11ab:4364] 05:00.0 Ethernet controller: Marvell Technology Group Ltd. 88E8056 PCI-E Gigabit Ethernet Controller (rev 12)

IOMMU group 26:[8086:2c41] ff:00.0 Host bridge: Intel Corporation Xeon 5500/Core i7 QuickPath Architecture Generic Non-Core Registers (rev 04)

[8086:2c01] ff:00.1 Host bridge: Intel Corporation Xeon 5500/Core i7 QuickPath Architecture System Address Decoder (rev 04)

IOMMU group 27:[8086:2c10] ff:02.0 Host bridge: Intel Corporation Xeon 5500/Core i7 QPI Link 0 (rev 04)

[8086:2c11] ff:02.1 Host bridge: Intel Corporation Xeon 5500/Core i7 QPI Physical 0 (rev 04)

IOMMU group 28:[8086:2c18] ff:03.0 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller (rev 04)

[8086:2c19] ff:03.1 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Target Address Decoder (rev 04)

[8086:2c1c] ff:03.4 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Test Registers (rev 04)

IOMMU group 29:[8086:2c20] ff:04.0 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 0 Control Registers (rev 04)

[8086:2c21] ff:04.1 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 0 Address Registers (rev 04)

[8086:2c22] ff:04.2 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 0 Rank Registers (rev 04)

[8086:2c23] ff:04.3 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 0 Thermal Control Registers (rev 04)

IOMMU group 30:[8086:2c28] ff:05.0 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 1 Control Registers (rev 04)

[8086:2c29] ff:05.1 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 1 Address Registers (rev 04)

[8086:2c2a] ff:05.2 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 1 Rank Registers (rev 04)

[8086:2c2b] ff:05.3 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 1 Thermal Control Registers (rev 04)

IOMMU group 31:[8086:2c30] ff:06.0 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 2 Control Registers (rev 04)

[8086:2c31] ff:06.1 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 2 Address Registers (rev 04)

[8086:2c32] ff:06.2 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 2 Rank Registers (rev 04)

[8086:2c33] ff:06.3 Host bridge: Intel Corporation Xeon 5500/Core i7 Integrated Memory Controller Channel 2 Thermal Control Registers (rev 04)

 

 

CPU Thread Verknüpfungen

Pair 1:cpu 0 / cpu 4

Pair 2:cpu 1 / cpu 5

Pair 3:cpu 2 / cpu 6

Pair 4:cpu 3 / cpu 7

 

USB Geräte

Bus 001 Device 001:ID 1d6b:0002 Linux Foundation 2.0 root hub

Bus 001 Device 002:ID 152d:0567 JMicron Technology Corp. / JMicron USA Technology Corp. JMS567 SATA 6Gb/s bridge

Bus 001 Device 003:ID 2109:2811 VIA Labs, Inc. Hub

Bus 001 Device 005:ID 17e9:4307 DisplayLink USB to ATA/ATAPI Bridge

Bus 001 Device 006:ID 0409:005a NEC Corp. HighSpeed Hub

Bus 001 Device 007:ID 03f0:0024 Hewlett-Packard KU-0316 Keyboard

Bus 001 Device 008:ID 1bcf:0820 Sunplus Innovation Technology Inc.

Bus 001 Device 009:ID 1a40:0101 Terminus Technology Inc. Hub

Bus 001 Device 010:ID 04b4:6506 Cypress Semiconductor Corp. USB2.0 Hub

Bus 001 Device 011:ID 0a4d:008e Evolution Electronics, Ltd MK-249C MIDI Keyboard

Bus 001 Device 012:ID 0bda:8153 Realtek Semiconductor Corp. RTL8153 Gigabit Ethernet Adapter

Bus 001 Device 013:ID 03f0:0c17 Hewlett-Packard LaserJet 1010

Bus 001 Device 014:ID 03f0:484a Hewlett-Packard

Bus 001 Device 015:ID 04b4:6506 Cypress Semiconductor Corp. USB to ATA/ATAPI Bridge

Bus 001 Device 016:ID 04b4:6572 Cypress Semiconductor Corp. USB2.0 Hub

Bus 001 Device 017:ID 0bda:482a Realtek Semiconductor Corp.

Bus 002 Device 001:ID 1d6b:0002 Linux Foundation 2.0 root hub

Bus 002 Device 002:ID 0781:55a3 SanDisk Corp. Ultra Luxe

Bus 002 Device 009:ID 1a40:0101 Terminus Technology Inc. Hub

Bus 002 Device 010:ID 28de:1142

Bus 002 Device 011:ID 045e:0719 Microsoft Corp. Xbox 360 Wireless Adapter

Bus 003 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 004 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 004 Device 002:ID 046d:c051 Logitech, Inc. G3 (MX518) Optical Mouse

Bus 005 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 006 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 007 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 007 Device 002:ID 0ccd:0028 TerraTec Electronic GmbH Aureon 5.1 MkII

Bus 008 Device 001:ID 1d6b:0001 Linux Foundation 1.1 root hub

Bus 008 Device 002:ID 1997:2433 Mini Keyboard

Bus 009 Device 001:ID 1d6b:0002 Linux Foundation 2.0 root hub

Bus 010 Device 001:ID 1d6b:0003 Linux Foundation 3.0 root hub

 

SCSI Geräte

[0:0:0:0]disk HGST HUS 726T4TALA6L4 0125 /dev/sdb 4.00TB

[0:0:0:1]disk HGST HUS 726T4TALA6L4 0125 /dev/sdc 4.00TB

[0:0:0:2]disk WDC WD40 EFRX-68N32N0 0125 /dev/sdd 4.00TB

[0:0:0:3]disk TOSHIBA MG04ACA400NY 0125 /dev/sde 4.00TB

[1:0:0:0]disk SanDisk Ultra Luxe 1.00 /dev/sda 30.7GB

[4:0:0:0]disk ATA WDC WD20EARX-00P AB51 /dev/sdf 2.00TB

[4:0:1:0]disk ATA SanDisk SDSSDX12 R211 /dev/sdg 120GB

[5:0:0:0]disk ATA SanDisk SDSSDA-1 40RL /dev/sdh 1.00TB

[5:0:1:0]disk ATA WDC WD2003FYYS-0 0D02 /dev/sdi 2.00TB

[6:0:0:0]disk ATA KINGSTON SV300S3 UA /dev/sdj 240GB

[7:0:0:0]disk ATA Corsair Force GS 5.02 /dev/sdk 180GB

Link to comment
21 minutes ago, zero_neverload said:

Was soll ich sagen:

 

Und dein PC hat auch nur eine 1G Buchse? Das macht halt gar keinen Sinn, wenn du mit dem NAS Tester auf dem QNAP ~300MB/s messen kannst, aber nur 1G, also 940 Mbit/s bzw 117,5 MB/s möglich sind. Oder hat dein PC Multigigabit und das NAS ist mit mehreren LAN-Buchsen verbunden? Dann könnte SMB Multichannel aktiv sein. Das erhöht dann die Bandbreite entsprechend der Anzahl der LAN Ports. Aber eigentlich ist das auf einem QNAP NAS nicht standardmäßig aktiv. Wenn dein PC allerdings nur 1G hat, dann macht die Messung wirklich keinen Sinn. Dann stimmt irgendetwas nicht. Vielleicht testet du dann lieber mal mit mehreren Wiederholungen und/oder größeren Dateien.

 

26 minutes ago, zero_neverload said:

USB Geräte

Ich sehe den "Genesys Logic, Inc. 4-port hub" nicht mehr?! Den hatten wir auf der ersten Seite noch gesehen. Ich denke dann ist es einer von denen:

  1. Bus 001 Device 003:ID 2109:2811 VIA Labs, Inc. Hub
  2. Bus 002 Device 009:ID 1a40:0101 Terminus Technology Inc. Hub

Am besten steckst du es mal ab und schaust was dann in der Liste fehlt.

 

Wenn ich diesen Beitrag richtig verstehe, dann sind nur die Geräte mit USB 3.0 verbunden, die nach einem "Linux Foundation 3.0 root hub" aufgelistet werden. Du hast einen solchen Hub, aber danach folgen keine Geräte. Hast du evtl noch USB 3.0 Ports frei? Vielleicht onboard? 

 

Nutze dieses Kommando um es genau zu ermitteln:

sudo lsusb -v | grep -E ': ID |idVendor|idProduct|bcdUSB'

Such nach dem USB Namen von deinem 4-Bay Gehäuse und in der Zeile "bcdUSB" steht dann die aktive USB Version.

 

EDIT: Du sagtest, dass du ein Asus P6T Deluxe verwendest. Dieses Board hat doch gar keine USB 3.0 Anschlüsse?!

Link to comment
14 hours ago, mgutt said:

Und dein PC hat auch nur eine 1G Buchse? Das macht halt gar keinen Sinn, wenn du mit dem NAS Tester auf dem QNAP ~300MB/s messen kannst, aber nur 1G, also 940 Mbit/s bzw 117,5 MB/s möglich sind. Oder hat dein PC Multigigabit und das NAS ist mit mehreren LAN-Buchsen verbunden? Dann könnte SMB Multichannel aktiv sein. Das erhöht dann die Bandbreite entsprechend der Anzahl der LAN Ports. Aber eigentlich ist das auf einem QNAP NAS nicht standardmäßig aktiv. Wenn dein PC allerdings nur 1G hat, dann macht die Messung wirklich keinen Sinn. Dann stimmt irgendetwas nicht. Vielleicht testet du dann lieber mal mit mehreren Wiederholungen und/oder größeren Dateien.

An sich ist klar meine Datenübertragung auf mein 1GB Netz beschränkt. Dennoch kamen mir die werte zu wenig vor.

14 hours ago, mgutt said:

 

Ich sehe den "Genesys Logic, Inc. 4-port hub" nicht mehr?! Den hatten wir auf der ersten Seite noch gesehen. Ich denke dann ist es einer von denen:

  1. Bus 001 Device 003:ID 2109:2811 VIA Labs, Inc. Hub
  2. Bus 002 Device 009:ID 1a40:0101 Terminus Technology Inc. Hub

Am besten steckst du es mal ab und schaust was dann in der Liste fehlt.

 

Wenn ich diesen Beitrag richtig verstehe, dann sind nur die Geräte mit USB 3.0 verbunden, die nach einem "Linux Foundation 3.0 root hub" aufgelistet werden. Du hast einen solchen Hub, aber danach folgen keine Geräte. Hast du evtl noch USB 3.0 Ports frei? Vielleicht onboard? 

 

Nutze dieses Kommando um es genau zu ermitteln:


sudo lsusb -v | grep -E ': ID |idVendor|idProduct|bcdUSB'

Such nach dem USB Namen von deinem 4-Bay Gehäuse und in der Zeile "bcdUSB" steht dann die aktive USB Version.

 

EDIT: Du sagtest, dass du ein Asus P6T Deluxe verwendest. Dieses Board hat doch gar keine USB 3.0 Anschlüsse?!

Aufgrund meiner Probiererei hatte ich wohl das Externe Gehäuse am USB 2.0 Port. auf meiner USB3.0 Zusatzkarte ist mein Externes Gehäuse garnicht angelaufen, warum auch immer.

 

Ich habe mittlerweile umgebaut und belasse mein Array komplet intern, ebenso die 3 Caches. Entweder fliegt das ZFS komplett raus (war eh nur testweise aufgebaut) oder ich baue mir ein zweiten Unraid wo nur das ZFS drauf läuft. Ich bastel halt gern. Allerdings war dein Einwand zu Performance ein guter hinweis.

 

Jetzt hab ich aber nochmal eine Frage. Wenn ich jetzt eine Platte austauschen möchte gegen eine Große ohne meine Daten zu verlieren, was wäre dann die beste vorgehensweise?

 

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.