Jump to content

Mal ganz verrückt: 10 HDDs in 10 Unraid Pools, SnapRAID und Strom ziehen


mgutt

Recommended Posts

Als @DataCollector danach fragte was eigentlich passiert, wenn man Unraid ohne die Disks eines Pool startet, kam mir gleich noch eine Idee:

 

- jede HDD, die Filme enthält. über ein separates Netzteil mit Strom versorgen

- jede dieser HDDs einzeln als Pool hinzufügen

- bei jedem Pool einen Spindown konfigurieren

- das separate Netzteil über eine smarte Steckdose überwachen, die vollständig den Strom trennt, sobald alle HDDs im Spindown sind

 

Jetzt fehlt aber noch die Ausfallsicherheit:

- SnapRAID Container

- alle Pools mit den Filmen dem Container zuweisen

- ein Pool mit leerer HDD dem Container als Parity zuweisen

- "docker exec -it snapraid snapraid sync" ausführen um die Parität aufzubauen

 

Die Idee ist nun folgende:

Sobald Plex startet, wird die smarte Steckdose eingeschaltet und die HDDs fahren alle hoch. Startet man einen Film, gehen die restlichen HDDs nach x Minuten in den Spindown. Hat man fertig geschaut, geht auch die letzte HDD in den Spindown. Die smarte Steckdose schaltet nun alle HDDs ab. Solange Plex also nicht läuft, verbraucht keine HDD Strom. Bei zB 10 HDDs immerhin ~15W Ersparnis.

 

Was ich schon mal getestet habe ist SnapRAID und zwei NVMe als separate Pools. Das geht soweit:

 

Pools:

image.thumb.png.49a2d4a5c7ba02a1dec5b56520af1ab8.png

 

SnapRAID Container:

image.png.43110a26292b68ede82879186230ff4b.png

 

snapraid.conf

parity /mnt/p1p/snapraid.parity
content /mnt/p1p/snapraid.content
content /mnt/d1d/snapraid.content
data d1 /mnt/d1d/

 

snapraid-runner.conf

[snapraid]
executable = snapraid
config = snapraid.conf
deletethreshold = 40
touch = false

 

Testdatei erstellen und Parität aktualisieren:

root@Tower:~# echo "test2" > /mnt/d1d/test2.txt
root@Tower:~# docker exec -it snapraid snapraid sync
Self test...
Loading state from /mnt/p1p/snapraid.content...
Scanning...
Scanned d1 in 0 seconds
WARNING! UUID is unsupported for disks: 'd1'. Not using inodes to detect move operations.
Using 0 MiB of memory for the file-system.
Initializing...
Resizing...
Saving state to /mnt/p1p/snapraid.content...
Saving state to /mnt/d1d/snapraid.content...
Verifying...
Verified /mnt/p1p/snapraid.content in 0 seconds
Verified /mnt/d1d/snapraid.content in 0 seconds
Using 16 MiB of memory for 32 cached blocks.
Selecting...
Syncing...
100% completed, 1 MB accessed in 0:00    

     d1 63% | **************************************
 parity  0% | 
   raid 11% | ******
   hash  0% | 
  sched 23% | **************
   misc  0% | 
            |______________________________________________________________
                           wait time (total, less is better)

Everything OK
Saving state to /mnt/p1p/snapraid.content...
Saving state to /mnt/d1d/snapraid.content...
Verifying...
Verified /mnt/p1p/snapraid.content in 0 seconds
Verified /mnt/d1d/snapraid.content in 0 seconds
root@Tower:~# 

 

Leider kann man NVMe SSDs nicht einfach rausziehen. Ich muss das jetzt noch mal mit SATA SSDs probieren, die ich dann im laufenden Betrieb vom Strom trenne. Mal sehen was dann passiert. 

Link to comment

So, jetzt mit SATA SSDs. Auf der einen Array Disk liegt die SnapRAID Parity-Datei und d1d bis d4d sind die einzelnen Data Disks von SnapRAID:

 

image.thumb.png.ae92577550c1a7499a280a1d634ecc9b.png

 

Container:

image.thumb.png.4660437dceceb1dee9d76c4584175b77.png

 

Config (ich musste explizit einen Unterordner ausschließen, weil da ein Block-Device enthalten war, was von SnapRAID nicht gesichert werden kann):

parity /mnt/disk1/snapraid.parity
content /mnt/disk1/snapraid.content
content /mnt/d1d/snapraid.content
data d1 /mnt/d1d/
data d2 /mnt/d2d/
data d3 /mnt/d3d/
data d4 /mnt/d4d/
exclude /docker/overlay2/

 

Jetzt ziehen wir mal von allen dXd Disks den Strom und schauen was passiert 😅

Link to comment

Hallo @mgutt

11 minutes ago, mgutt said:

- SnapRAID Container

 

Unter den Ca Apps wird der mir nicht angezeigt.

Ich habe noch viel im Zusammenhang mit unraid zu lernen.

Wo finde ich den?

 

11 minutes ago, mgutt said:

Die Idee ist nun folgende:

Sobald Plex startet, wird die smarte Steckdose eingeschaltet und die HDDs fahren alle hoch. Startet man einen Film, gehen die restlichen HDDs nach x Minuten in den Spindown. Hat man fertig geschaut, geht auch die letzte HDD in den Spindown. Die smarte Steckdose schaltet nun alle HDDs ab. Solange Plex also nicht läuft, verbraucht keine HDD Strom. Bei zB 10 HDDs immerhin ~15W Ersparnis.

Klingt interessant. Bei Festplatten, die sich per Spindown zum Schlafen hingelegt haben könnte es klappen. Es wird aber auch vom (SATA) Kontroller abhängen. Der sollte zumindest HotPlug beherrschen um nicht von verschwundenen Devices überrascht zu werden.

Auch ist in der SATA Spezifikation (als ich vor Jahren mal eine im Netz auffindbare alte Version durchgestöbert hatte) nicht definiert, daß ein stromloses Device am Controller hängt. Damit bewegst Du Dich also in einer Grauzone, die selbst bei HotPlug fähigen Kontrollern unterschiedlich gehandhabt sein kann.

 

 

11 minutes ago, mgutt said:

Leider kann man NVMe SSDs nicht einfach rausziehen. Ich muss das jetzt noch mal mit SATA SSDs probieren, die ich dann im laufenden Betrieb vom Strom trenne. Mal sehen was dann passiert. 

Hier ein kleiner Hinweis: Ich würde zu SATA SSD greifen die einen Stromausfallschutz (Kondensator) drin haben, da bei denen sowas vorgesehen ist.

Im gegensatz zu Festplatten lassen sich SSD nicht wirklich so einfach gesichert schlafen legen. Der interne Kontroller nutzt Ruhezeiten für 'Wartungsarbeiten'.

Wenn er also mitten in irgendeiner Operation ist und der Strom wegfällt, kann das für den Datenbestand kritisch werden, wenn der Hersteller da nicht vorgesorgt hat.

Beispielsweise Crucials mx500 sind darauf ausgelegt:

https://www.crucial.com/products/ssd/crucial-mx500-ssd

"...Integrated Power Loss Immunity

Avoid data loss during power outages. This built-in feature of our NAND protects your data swiftly and efficiently, protecting your work if your system unexpectedly shuts down..."

 

Diverse Toshiba Enterprise Capacity sind auch auf Stromausfall im laufenden Betrieb ausgelegt (dabei denke ich weniger an die Daten auf den Scheiben einer Spindown Platte, sondern an die Verwaltungsdaten im bis zu 512MB großen Cache):

https://toshiba.semicon-storage.com/eu/storage/product/data-center-enterprise/cloud-scale-capacity/articles/mg09-series.html

"...Includes Toshiba Persistent Write Cache Technology for Data-Loss Protection in Sudden Power-Loss Events..."

 

Link to comment
3 minutes ago, DataCollector said:

Wo finde ich den?

Dieser Container wurde noch nicht in den Unraid Apps gepflegt. Du kannst aber jeden Container manuell installieren. Einfach Docker > Add Container und alles was du in meinem Screenshot siehst von Hand eintragen. Bei anderen Containern dann entsprechend die Dokumentation lesen welche Variablen und Pfade für den Betrieb notwendig sind. Hier noch ein Beispiel:

 

8 minutes ago, DataCollector said:

Der sollte zumindest HotPlug beherrschen um nicht von verschwundenen Devices überrascht zu werden.

Ah stimmt. Das habe ich ganz vergessen im BIOS zu aktivieren.

 

Wobei sich Unraid aktuell nicht stört, dass ich die abgesteckt habe. Die werden nach wie vor ohne Fehler im Dashboard angezeigt 🤨

 image.thumb.png.79a450e49724e3a1e46095362bfe0339.png

 

Allerdings gibt es diverse Meldungen im syslog

image.thumb.png.ea7ca72592d0c586c9b1627cf1bb2e4c.png 

 

11 minutes ago, DataCollector said:

Wenn er also mitten in irgendeiner Operation ist und der Strom wegfällt, kann das für den Datenbestand kritisch werden, wenn der Hersteller da nicht vorgesorgt hat.

Das würde die SnapRAID Parität absichern.

 

Ich muss jetzt erst mal HotPlug aktivieren, denn wieder anstecken hat nicht geholfen. Vor allem habe ich einen nicht so schönen Fehler von Docker:

root@Tower:~# docker exec -it snapraid snapraid sync
Error response from daemon: read /var/lib/docker/overlay2/e8494c34efef9861dd3c45f5c83465711110fc9ca8f509c6fe3c2e4c3a4532b0/lower: input/output error

 

  • Thanks 1
Link to comment
  • 1 year later...

Ich spiele nach wie vor mit dem SnapRAID Container herum. Die Tage hatte ich eine Fehlermeldung beim wöchentlichen Sync des SnapRAID Pools. Laut der Fehlermeldung gab es bei einem Scrub einen Fehler (unexpected file errors), nur leider sonst keine wirklichen Infos:

2023-12-17 03:00:00,862 [INFO ] ============================================================ 
2023-12-17 03:00:00,862 [INFO ] Run started 
2023-12-17 03:00:00,863 [INFO ] ============================================================ 
2023-12-17 03:00:00,863 [INFO ] Running touch... 
2023-12-17 03:00:03,705 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
2023-12-17 03:00:20,307 [INFO ] ************************************************************ 
2023-12-17 03:00:20,307 [INFO ] Running diff... 
2023-12-17 03:00:23,571 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
2023-12-17 03:00:25,315 [OUTERR] WARNING! Physical offsets not supported for disk 'd1', 'd2', 'd5'. Files order won't be optimal. 2023-12-17 03:00:25,852 [INFO ] ************************************************************ 
2023-12-17 03:00:25,859 [INFO ] Diff results: 0 added, 0 removed, 0 moved, 0 modified 
2023-12-17 03:00:25,859 [INFO ] No changes detected, no sync required 
2023-12-17 03:00:25,860 [INFO ] Running scrub... 
2023-12-17 03:00:28,751 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
2023-12-17 03:03:51,432 [OUTERR] WARNING! Unexpected file errors! 
2023-12-17 03:04:07,738 [ERROR ] Command 'snapraid scrub' returned non-zero exit status 1. 
2023-12-17 03:04:08,017 [INFO ] sending msg 
2023-12-17 03:04:08,022 [INFO ] Applying Custom Defaults 

 

Daraufhin habe ich mal maunell einen verbosen Scrub gestartet und tatsächlich hat er einen Fehler gefunden, nur wie man sieht hat sich die MKV-Datei gar nicht geändert?!

image.thumb.png.ba1f84fcaa66e897b58482313b07f4eb.png

 

Also wenn die MKV unverändert ist, warum behauptet der beim Scrub, dass es einen "Data error in file" gab?!

 

Hier jetzt das komplette Ergebnis des Scrub:

# docker exec -it Snapraid snapraid scrub --verbose
Self test...
Loading state from /config/snapraid.content...
    1071 files
       0 hardlinks
       0 symlinks
      24 empty dirs
WARNING! With 5 disks it's recommended to use two parity levels.
Using 1162 MiB of memory for the file-system.
Initializing...
Using 112 MiB of memory for 64 cached blocks.
Selecting...
Scrubbing...
Data error in file '/mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv' at position '21901', diff bits 64/128
100% completed, 2092911 MB accessed in 0:28    8%, 0:00 ETA           

     d1  0% | 
     d2  2% | *
     d3  0% | 
     d4  8% | *****
     d5  2% | *
 parity  0% | 
   raid 70% | ******************************************
   hash 15% | *********
  sched  0% | 
   misc  0% | 
            |______________________________________________________________
                           wait time (total, less is better)


 1243108 file errors
       0 io errors
       1 data errors
WARNING! Unexpected file errors!
DANGER! Unexpected data errors! The failing blocks are now marked as bad!
Use 'snapraid status' to list the bad blocks.
Use 'snapraid -e fix' to recover them.
Use 'snapraid -p bad scrub' to recheck after fixing.
Saving state to /config/snapraid.content...
Saving state to /mnt/horus1st/snapraid.content...
Saving state to /mnt/horus2nd/snapraid.content...
Saving state to /mnt/horus3rd/snapraid.content...
Saving state to /mnt/horus4th/snapraid.content...
Saving state to /mnt/horus5th/snapraid.content...
Saving state to /mnt/horus6th/snapraid.content...
    1071 files
       0 hardlinks
       0 symlinks
      24 empty dirs
Verifying...
Verified /config/snapraid.content in 0 seconds
Verified /mnt/horus5th/snapraid.content in 2 seconds
Verified /mnt/horus3rd/snapraid.content in 3 seconds
Verified /mnt/horus6th/snapraid.content in 3 seconds
Verified /mnt/horus1st/snapraid.content in 3 seconds
Verified /mnt/horus2nd/snapraid.content in 3 seconds
Verified /mnt/horus4th/snapraid.content in 3 seconds

 

Wie empfohlen mal einen "Status" ausgeben lassen:

# docker exec -it Snapraid snapraid status --verbose
Self test...
Loading state from /config/snapraid.content...
    1071 files
       0 hardlinks
       0 symlinks
      24 empty dirs
WARNING! With 5 disks it's recommended to use two parity levels.
Using 1162 MiB of memory for the file-system.
SnapRAID status report:

   Files Fragmented Excess  Wasted  Used    Free  Use Name
            Files  Fragments  GB      GB      GB
     195      27      31     0.0    3583    4359  45% d1
     262      31      35     0.0    4437    3505  55% d2
     197       1       2     0.0    3040    4901  38% d3
     225       0       0     0.0    3460    4481  43% d4
     192      18      18     0.0    3081    4860  38% d5
 --------------------------------------------------------------------------
    1071      77      86     0.2   17603   22108  44%


 83%|o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
 41%|o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                                     
    |o                                                  o                  
    |o                                                  o                  
  0%|o_____________________________*____________*______*o____*______*_____*
    74                    days ago of the last scrub/sync                 0

The oldest block was scrubbed 74 days ago, the median 74, the newest 0.

WARNING! The array is NOT fully synced.
You have a sync in progress at 47%.
The 85% of the array is not scrubbed.
No file has a zero sub-second timestamp.
No rehash is in progress or needed.
DANGER! In the array there are 1 errors!

They are from block 3388744 to 3388744, specifically at blocks: 3388744

To fix them use the command 'snapraid -e fix'.
The errors will disappear from the 'status' at the next 'scrub' command.

 

Was macht denn "-e fix", die Datei ändern? Das wäre ja falsch. 

 

EDIT: Ok ich habe in der Anleitung "check" gefunden:

Quote

check

Verify all the files and the parity data.

It works like "fix", but it only simulates a recovery and no change is written in the array.

 

Ergebnis:

# docker exec -it Snapraid snapraid check --filter-error --verbose
Self test...
Loading state from /config/snapraid.content...
    1071 files
       0 hardlinks
       0 symlinks
      24 empty dirs
WARNING! With 5 disks it's recommended to use two parity levels.
Searching disk d1...
Excluding content '/mnt/horus1st/snapraid.content'
Searching disk d2...
Excluding content '/mnt/horus2nd/snapraid.content'
Searching disk d3...
Excluding content '/mnt/horus3rd/snapraid.content'
Searching disk d4...
Excluding content '/mnt/horus4th/snapraid.content'
Searching disk d5...
Excluding content '/mnt/horus5th/snapraid.content'
Selecting...
        <error>
Using 1162 MiB of memory for the file-system.
Initializing...
Selecting...
Checking...
recoverable MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
correct Movie09/12\ Strong\ \(2018\)/12\ Strong\ \(2018\).mkv       
correct MovieUV/Um\ Klassen\ besser\ \(2012\)/Um\ Klassen\ besser\ \(2012\).mkv
correct MovieQR/Der\ Regenmacher\ \(1997\)/Der\ Regenmacher\ \(1997\).mkv
correct MovieWX/Was\ Frauen\ wollen\ \(2000\)/Was\ Frauen\ wollen\ \(2000\).mkv
100% completed, 216925 MB accessed in 0:02    

       1 errors
       0 unrecoverable errors
WARNING! There are errors!

 

Ok, also scheinbar wollte er die eine MKV wirklich "korrigieren", was wie gesagt falsch wäre. Mal sehen, ob eine der anderen genannten MKVs korrekt sind.

 

EDIT2:

Ok, alle MKV-Dateien sind unverändert. Also muss ja die Parität von SnapRAID kaputt sein. Nur warum und warum will SnapRAID die MKV verändern, wenn doch die Parität falsch ist 🤔

 

EDIT3:

Äh ja, ich habe den Fix ausgeführt.

# docker exec -it Snapraid snapraid fix --filter-error --verbose
Self test...
Loading state from /config/snapraid.content...
    1071 files
       0 hardlinks
       0 symlinks
      24 empty dirs
WARNING! With 5 disks it's recommended to use two parity levels.
Searching disk d1...
Excluding content '/mnt/horus1st/snapraid.content'
Searching disk d2...
Excluding content '/mnt/horus2nd/snapraid.content'
Searching disk d3...
Excluding content '/mnt/horus3rd/snapraid.content'
Searching disk d4...
Excluding content '/mnt/horus4th/snapraid.content'
Searching disk d5...
Excluding content '/mnt/horus5th/snapraid.content'
Selecting...
        <error>
Using 1162 MiB of memory for the file-system.
Initializing...
Selecting...
Fixing...
recovered MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
100% completed, 216925 MB accessed in 0:02    %, 0:00 ETA          

       1 errors
       1 recovered errors
       0 unrecoverable errors
Everything OK

 

Und nun wurde die MKV geändert:

# md5sum /mnt/horus*/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 
e62d45d0b12f60f3ec681a54f0c6d3c7  /mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv
# Original:
# md5sum /mnt/user/Movie/OP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 
92203fcd40fa6c0dfa9b984e333e95c7  /mnt/user/Movie/OP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv

 

Das ist ja gruselig. Woher soll man als Anwender denn wissen, dass der gerade die Datei kaputt macht?! Korrekt wäre jedenfalls gewesen die Parität zu korrigieren, warum auch immer diese falsch war 😨

 

Ich kopiere jetzt wieder die Original MKV zurück. Mal sehen was in Zukunft noch passiert. Klingt aber nicht gerade super das SnapRAID.

 

 

 

Link to comment

Übrigens hat rsync die geänderte Datei erst nicht erkannt. Ich muss explizit mit checksum arbeiten:

 

root@thoth:~# rsync --progress --archive --verbose /mnt/user/*/*/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv /mnt/horus2nd/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
sending incremental file list

sent 110 bytes  received 12 bytes  244.00 bytes/sec
total size is 15,872,430,968  speedup is 130,101,893.18
root@thoth:~# rsync --progress --checksum --archive --verbose /mnt/user/*/*/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv /mnt/horus2nd/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
sending incremental file list
Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv
 15,872,430,968 100%  221.56MB/s    0:01:08 (xfr#1, to-chk=0/1)

sent 15,876,306,241 bytes  received 35 bytes  91,506,088.05 bytes/sec
total size is 15,872,430,968  speedup is 1.00

 

 

Dh die MKV war gleich groß und hatte das selbe Dateidatum usw. SnapRAID hatte beim Fix wirklich nur ein paar Bytes in der MKV geändert. Also etwas, was sicher niemand so haben möchte.

 

Naja, jedenfalls stimmt die Hashsumme jetzt wieder:

 

# md5sum /mnt/horus*/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 92203fcd40fa6c0dfa9b984e333e95c7  /mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv

 

Link to comment

Hallo mgutt,

das ist wirklich eine verrückte Idee, aber beir mir zieht der gesammte Server mit 2 SSDs im Pool und 8 HDDs im Array  (5x 3,5 und 3x 2,5) im Spinddown ca. 15-18Watt. Soviel wirst du da nicht sparen, eher 5-10W.

 

Ich hoffe dass Unrais bald mehrere Arrays kann. Es gibt ja 5-fach USB-Gehäuse. Es wäre doch super, wenn man pro 5-fach USB Gehäuse ein Array erstellt und per Smartsteckdose zu oder abschaltet. Man könnte dann seinen Server Modular erweitern. Das wäre doch für Plex super. Wenig gespielte Medien könnten dann in dieses USB-Array-Archiv landen und viel gespielte Medien bleiben auf dem Unraid-Main-Array.

 

 

  • Like 1
Link to comment
1 hour ago, Artur01 said:

Ich hoffe dass Unrais bald mehrere Arrays kann.

 

😍 👍 dito!

 

1 hour ago, Artur01 said:

Es gibt ja 5-fach USB-Gehäuse. Es wäre doch super, wenn man pro 5-fach USB Gehäuse ein Array erstellt und per Smartsteckdose zu oder abschaltet.

 

Da sehe ich eher die üblichen probleme mit mehreren Festplatten über nur eine USB verbindung und das noch in einem im Array. Dann doch lieber ein exzrenes Raid Gehäuse, welches die Kommunikation der Festplatten mit dem Raidkontroller inern handhabt und somit über USB nur weniger Nutzdaten an den PC senden muß. Das entlastet die USB Verbindung, bzw. ermöglicht mehr Nutdaten in d´kurzer Zeit per USB zu transoportieren.

MultiArray sehe ich eher als Sinnvoll an um eben externe einzelfestplatten über einzelne Anbindungen zu bündeln. Wobei auch da USB wenig hilft, weil auf vielen Mainboards nur ein USB Kontroller verbaut ist und sich damit der Datenstrom aller USb angeschlossenen Festplatten dort wieder gegenseitig in die Quere kommen kann (je nach Aufbau des USB Hosts).

Ich sehe MultiArray eher bei externem SAS oder so als sinnvoll an, bei dem wirklich eine seeehr breite Datenverbindung (oder gar mehrere) nach außen existiert und sich die Festplatten ggf. nicht (so sehr) in die Quere kommen.

 

Für den Fall des MultiArray liegt hier schon ein Adaptec 78165 (8i-16e) HBA bereit.

Dazu habe ich auch schon ein ext. Gehäuse zusammengebastelt mit Platz für bis zu 8 Festplatten/SSDs. Ich muß nur noch die Stromversorgung dafür/darin realisieren.

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...