Eure Meinung zum zukünftigen Ausbau


Recommended Posts

6 hours ago, DataCollector said:

Wenn Du den SAS Kontroller ausbaust und die 24Bay Backplane mal auch vom Strom trennst, siehst Du, was Dein System ohne SAS bieten kann.

Beides zusammen könnte schon so 30W (oder auch mehr) ausmachen.

Eobei die Komponenten selber weniger brauchen, aber wenn die die C-States beeinflussen wird es eben mehr.

So, ich habe mal gemessen und es ist wie es zu erwarten war. Der Controller frist inkl Backplane zwischen 35 und 40 Watt.

Dennoch habe ich mich dafür entschieden das System wieder einzusetzen, da mir die ganzen fummlereien die ich mit meinen kleinen Servern hatte (USB Gehäusen, Sata Chassis und so weiter) alle mist war. 

Das Moto lautet, "ohne Heu kann das beste Pferd nicht furzen" und daher nehme ich den erhöten Stromverbauch erstmal in Kauf.

In dem 24 Bay laufen die Platten zuverlässig mit guten Zugriffszeiten. Jetzt muss ich mir nurnoch ein Paar einschübe für 2,5 Zoll SSDs holen , da meine nicht ausgereicht haben. Wenn da jemand eine Kaufempfehlung hat, bitte melden)
Ebenso werde ich mir dann die Tage mal die Grünen Lüfter holen und vielleicht noch die andere CPU. Das könnte nochmal ein paar Watt ausmachen, da die vom TDP um 35W abweichen.

 

Mein Nextcloud inkl. DB ist auch auf dem Server beherbergt und läuft im Idl um die 100Watt. 

Gerne hätte ich natürlich das die Kiste weniger verbraucht, aber ich mag jetzt nicht hunderte von Euro da rein stecken.

 

Seht ihr es als Sinnvoll an, in den Server NVMEs einzubauen? Auf meinen kleinen Kisten ist das schon Mega, da die halt abgehen wie Schmitz Katze.

In der eben eingereichteten Config habe ich erstmal zwei 1TB Platten im Raid 1 Laufen für die Appdata und als Cache. 

Die Frage ist wenn NVME dann über PCI Karte oder?

 

image.thumb.png.27a8b72259c387919099b73de460e4ef.png

Link to comment
1 hour ago, zero_neverload said:

 

@DataCollector Hast du da vielleicht eine Idee welche zu empfehlen sind?

 

Wie üblich: mit den Samsung 970 Evo Plus macht man eigentlich nichts falsch.

 

Da mir die mit maximal 2TB aber zu klein sind, habe ich zuletzt zu Adata Legend 960 (Max) gegriffen.

Auch gut finde ich Patriot Viper VP4300 Lite und Lexar NM790 gut, weil es sie auch in 4TB gibt und sie für meine Zwecke ziemlich Dauerschreibfest sind und eher wenig einbrechen, wenn viele Daten auf die SSDs einprasseln.

 

Es gab mal die Aussage, daß die Lexar Probleme unter Linux haben, aber da ich sie problemlos testen konnte dürfte das in der Vergangenheit angehören:

https://forums.unraid.net/topic/156160-gigabyte-b760m-ds3h-ddr4-verschiedene-messungen-werte/

 

1 hour ago, zero_neverload said:



Alternativ hatte ich überlegt im Stripe zwei oder drei kleine SSDs zu verbinden.

 

Je mehr Geräte, desto höher der Stromverbrauch (auch wenn SSDs im allgemeinen recht sparsam sind, bedarf es bei der Zusammenschaltung von SATA SSDs mehrere Ports, die man vielleicht besser für Festplatten verwenden möchte)

 

Link to comment
21 hours ago, zero_neverload said:

Seht ihr es als Sinnvoll an, in den Server NVMEs einzubauen? Auf meinen kleinen Kisten ist das schon Mega, da die halt abgehen wie Schmitz Katze.

In der eben eingereichteten Config habe ich erstmal zwei 1TB Platten im Raid 1 Laufen für die Appdata und als Cache. 

 

Gute SATA SSD reichen in einem NAS vollkommen aus.

Gute NVMe sind zwar flotter, aber ob der Unterschied zu SATA SSD für einen wichtig ist, hängt von den Anwendungen ab und wie man die SSD benutzt.

 

Beachte, daß ich von "gute" schreibe, da es bei beiden Kategorien SSDs gibt, die auch eher auf billig getrimmt sind und verschweigen, daß sie vielleicht beim Dauerbeschreiben sehr früh und tief in der Schreibrate (teils unter das Niveau einer guten CMR Festplatte) einbrechen.

Negativ für meine Zwecke aufgefallen sind da beispielsweise die Crucial P3, Kingston NV2. Sind beides sehr gute NVMe SSD für den normalen Desktopnutzer oder wenn man eben eher wenig in sein NAS schreibt. Aber da ich gerne auch großee Dateien und Datenmengen an einem Stück in meinen Cache schreibe sind die erreichten Schreibwerte bei sequentiellem Beschreiben dann doch zu sehr eingeknickt.

 

21 hours ago, zero_neverload said:

Die Frage ist wenn NVME dann über PCI Karte oder?

Die von Dir dargestellte Karte scheint beide M.2 Slots ohne einen PCIe Switch bereitzustellen. Das ist energetisch sparsam, da die Karte keinen eigenen Strom verbraucht (wenn man von den stabilisierenden Spulen und so absieht), aber sie kann dann die beiden M.2 Slots nut in einem PCIe Slot zugänglichmachen, welcher Bifurcation unterstützt.

Bitte prüfe bei dem Mainboard, welches Du einsetzen willst, ob es in verbindung mit der verwendeten CPU Bifuraction unterstützt. Sonst wirst Du Dich wundern, warum nur einer der M.2 Slots funktioniert.

 

Das Thema Bifurcation Adapter wurde auch mal hier mit angesprochen:

https://forums.unraid.net/topic/150588-nvme-dual-adapter/?do=findComment&comment=1348641

 

Hier hatte ich das sogar selbst mal verbaut:

https://forums.unraid.net/topic/124338-datacollectors-zweiter-unraid-server-tower/?do=findComment&comment=1142920

aber vor ca. 1-2 Wochen die 3x2 TB NVMe SSD (zfs im raid0 modus) entfernt und eine Adata Legend 960 max 4TB (xfs) eingebaut.

Die Adapterkarte habe ich aber drion gelassen und könnte somit in der Konstellation noch 2 weitere M.2 PCIe x4 Devices montieren (ASM1166 oder NVME SSD zum Beispiel).

Link to comment
2 hours ago, DataCollector said:

Negativ für meine Zwecke aufgefallen sind da beispielsweise die Crucial P3, Kingston NV2.

 

Das kann ich leider aus meinem zweiten Server bestätigen. (Mini PC Lenovo M75n AMD Ryzen 5 3500U 8GB-RAM) mit eben der Benannten 4TB Crutical P3 Plus)

 

 

2 hours ago, DataCollector said:

 

Aber da ich gerne auch großee Dateien und Datenmengen an einem Stück in meinen Cache schreibe sind die erreichten Schreibwerte bei sequentiellem Beschreiben dann doch zu sehr eingeknickt.

 

Das wäre unter anderem auch ein Grund für NVME gewesen, warum ich diese einbauen wollte.

 

 

2 hours ago, DataCollector said:

Bitte prüfe bei dem Mainboard, welches Du einsetzen willst, ob es in verbindung mit der verwendeten CPU Bifuraction unterstützt. Sonst wirst Du Dich wundern, warum nur einer der M.2 Slots funktioniert.

 

Das werde ich mal prüfen, ob das Supermicro X10DRi , Version 1.10 das unterstützt.

 


Hast du eine alternative Konfig um schnell Daten sicher im Server zu empfangen? (ZFS Raid mit 2x Cache vielleicht) Aktuell habe ich ein ZFS Raid 1 mit zwei Sandisk die ich noch rumfliegen hatte. (sind leider nicht die gleichen) 

 

image.thumb.png.653f835546b9c2617adc864ab56c29b4.png

 

Alternativ hatte ich tatsächlich zuerst an zwei 1,2 TB 2,5" SAS Platten im Stripe gedacht (die beide nur 6Watt ziehen, aber leider nicht schlafen gehen), aber ich wollte auch mal meinen Cache sauber haben und nicht immer im Risko leben, dass die gecachten Daten jederzeit abschmieren können.

 

Vielleicht gibt es da ja noch ne geheime ZFS Konstelation die ich noch nicht bedacht habe. Im Pool kann ich ja glaube ich eh nur ZFS im Verbund verwenden oder BTRFS. (was ich gerne vermeiden möchte)

 

 

Link to comment
2 hours ago, zero_neverload said:

Hast du eine alternative Konfig um schnell Daten sicher im Server zu empfangen? (ZFS Raid mit 2x Cache vielleicht) Aktuell habe ich ein ZFS Raid 1 mit zwei Sandisk die ich noch rumfliegen hatte. (sind leider nicht die gleichen) 

 

Sicher empfangen  bedeutet für mich, daß die Daten ohne Beschädigung im Server ankommen: Dafür ist in meinen Augen die Netzwerkkarte (mit) verantwortlich.

 

Sicher lagern: tja, wenn Du damit die Ausfallsicherheit des aufnehmenden Cache/Pools meinst bleibt eigentlich nur Raid1 oder höher.

Was Du in den Pool rein packst (SATA SSD, NVMe SSD oder vielleicht doch Festplatten) ist Deine Sache.

 

Ich bin an einigen Stellen bei mir von der Redundanz im Pool abgegangen.

Da ich in der Regel von den Daten, die mir am Herzen liegen auch Backups habe, ist der als Cache benutze Pool zwar ein "Single Point of Failure", aber das kann ich verschmerzen. Was da drin ladet ist auch noch wo anders oder schnell wiederbeschaffbar.

 

Nur dort wo wirklich Daten in meinen Abläufen temporär einmalig vorliegen und ggf. auch etwas länger liegen, dort verwende ich Redundanz in den Pools.

 

Solltest Du mit "schnell" 1GBLan oder 2,5GBLan meinen sind auch gute SATA SSD geeignet. Ich setze die in meinen Pools aber eher aus Preisgründen ein, da ich  mir 3x8TB zfs in 'NVMe' preislich nicht erlauben kann/will. Die Samsung 8TB QVO waren vor einiger Zeit noch überraschend günstig zu haben.

 

Wenn es flotter oder eben direkt NVMe sein soll kann ich mich bei NVMe nur wiederholen: Samsung 970 Evo Plus, ADAata Legend 960 (max) , Paritiot Viper 4300l und Lexar NM970 gefallen mir sehr gut (auch wenn die Lexar unter Last gerne recht warm wird).

Garantiert gibt es auch andere gute SSD (Samsung hat ja einen guten Ruf, wobei sich WD den bei diversen Flashspeichern und derem Umgang mit der Herstellergarantie gerade eher kaputt macht), aber ich habe eben nur einen begrenzten Pool an NVMe für mich getestet.

 

2 hours ago, zero_neverload said:

Alternativ hatte ich tatsächlich zuerst an zwei 1,2 TB 2,5" SAS Platten im Stripe gedacht

 

Je nachdem welche man nimmt sind bei 2,5inch SAS 10k oder gar 15kRPM zu haben. Aber das wird ggf. laut.

Wenn man das will: kann man die nehmen, ist aber eben dann doch auf einen SAS Kontroller angewiesen.

Alles zusammen wird dann eben einiges an elektrischer Leistung benötigen.

Da sind SSD (egal ob nun SATA oder NVMe) in meinen Augen bei Neuanschaffung zu bevorzugen.

 

2 hours ago, zero_neverload said:

aber ich wollte auch mal meinen Cache sauber haben und nicht immer im Risko leben, dass die gecachten Daten jederzeit abschmieren können.

 

Du möchtest also das Risiko eines Datenträgerausfalles (weil es den ggf. nur einmal gibt) damit abfangen, daß Du auf einen SAS Kontroller setzt, den es in Deinem System auch nur einmal gibt?

Bist Du bereit um an die Daten auf den vielleicht überlebenden SAS Disk dann mal eben 150 Euro gebraucht oder einige hundert Euro für einen neuen SAS Kontroller auszugeben (wenn Du bei dem Megaraid Raidsystem bleibst)?

Wenn Du bei einem SATA-SSD Cache ebenfalls auf Raid1 Redundanz setzt und die Datenträger sogar über unterschiedliche SATA Kontroller verteilt im System anbindest wird eine Datenrettung im Schadensfalle von SSD oder Kontroller einfacher.

 

2 hours ago, zero_neverload said:

Vielleicht gibt es da ja noch ne geheime ZFS Konstelation die ich noch nicht bedacht habe.

 

Ich sehe oder verstehe nicht, was Dich an einem zfs Pool mit Raid1 ähnlichem Verhalten mit SSDs stört.

Da stehe ich momentan auf dem Schlauch. Sorry!

 

2 hours ago, zero_neverload said:

Im Pool kann ich ja glaube ich eh nur ZFS im Verbund verwenden oder BTRFS.

 

korrekt, aber btrfs würde ich heutzutage meiden.

 

2 hours ago, zero_neverload said:

(was ich gerne vermeiden möchte)

meinst Du damit BTRFS oder den Verbund im allgemeinen?

Und wenn Du einen Verbund vermeiden willst, warum dann " zwei 1,2 TB 2,5" SAS Platten im Stripe"? Was ist daran besser?

Wie gesagt, ich habe anscheinend irgendwo den Faden verloren und verstehe nicht so ganz wo das Problem mit dem Cache/Pool ist.

Link to comment
2 hours ago, zero_neverload said:

hast nicht zufällig 2,5" Trays übrig zum Verkauf?

 

 

Bin nicht zu Hause. Muss ich Mal nachschauen. Ich hab auf jeden Fall einen Tray für "Im" Gehäuse. Die SC846 können 1-2 im Gehäuse unterbringen - 2x 2,5 bzw. 1x 3,5

 

Link to comment
3 hours ago, DataCollector said:

wenn Du damit die Ausfallsicherheit des aufnehmenden Cache/Pools meinst bleibt eigentlich nur Raid1

Wurde heute eines besseren Belehrt und habe mich von mienem Raid 1 ZFS Cache verabschiedet. System liess sich 10min nach meinem Post nicht mehr starten, nach nem geplanten Restart. Musste mein ZFS Raid aus dem System nehmen. (Haben SSDs ein Problem mit ZFS?)

Link to comment
3 hours ago, DataCollector said:

Je nachdem welche man nimmt sind bei 2,5inch SAS 10k oder gar 15kRPM zu haben. Aber das wird ggf. laut.

Wenn man das will: kann man die nehmen, ist aber eben dann doch auf einen SAS Kontroller angewiesen.

Alles zusammen wird dann eben einiges an elektrischer Leistung benötigen.

Thema Leistung hatten wir zuvor und Raidcontroller ist ja im Einsatz geblieben. Die Zwei Exos 10K 1,2TB welche ich noch habe, würden da nicht das Leistungslimit verdoppeln. (Nach meinen Messungen ca. 8 Watt für 2x2,5" 10K Platten mehr im Idle, da kein Sleep Modus der SAS) 

Warum kann ich eigentlich keinen XFS Raid Pool anlegen? Kann Unraid kein XFS Raid? (ich war der Meinung das ich das mal eingestellt hatte)

Link to comment
21 minutes ago, zero_neverload said:

Das habe ich jetzt so verstanden, das mann zwei SSDs in ein Tray bekommt? (denke da verstehe ich was falsch)

 

Falls Du die 24Bay in Front meinst:

alturismo meint (vermutlich) etwas anderes.

Das Gehäuse hat auch eine Möglichkeit nach hinten raus einen freien Platz zu nutzen, in dem man einen 1x 3,5 Träger einbauen kann oder einen Doppelträger, der 2x2,5 faßt.

 

Falls Du in einen der 3,5inch Bays vorne 2x2,5 unter bringen willst, gibt es einen netten (aber nicht billigen) "Trick 17"   oder besser gesagt: QNAP QDA-A2AR.

https://geizhals.de/1906112725

 

Damit kann man 2x 2,5inch SSD (müssen aber schmale/dünne Modelle rein) als ein Raid/BigDisk dem Anschluß unterschieben.

Un das lustige, das Ding hat die außenmaße einer 3,5ich festplatte und auch die SATA Verbinder sitzen an der richtigen Stelle.

Aber erstens benutzt dieses kleine Tool den JMS562, welcher die SATA Geschwindigkeit etwas einbremst und andererseits wäre das dann wieder "unraid" ein "Raid" unter zu schieben.

Edited by DataCollector
Typo
Link to comment
3 hours ago, DataCollector said:

Ich sehe oder verstehe nicht, was Dich an einem zfs Pool mit Raid1 ähnlichem Verhalten mit SSDs stört.

Da stehe ich momentan auf dem Schlauch. Sorry!

Mich hat jetzt nur gestört das ich zu blöd war mein ZFS heute zu retten. (die Zwei Platten hab ich erstmal nur aus dem Pool genommen, hab aber das ZFS nicht angerührt. Vielleicht kann mir einer mal sagen, wie ich die Daten hätte retten können)

Ich glaube ich mach dafür mal einen neuen Thread auf..

Link to comment
9 minutes ago, zero_neverload said:

Wurde heute eines besseren Belehrt und habe mich von mienem Raid 1 ZFS Cache verabschiedet. System liess sich 10min nach meinem Post nicht mehr starten, nach nem geplanten Restart. Musste mein ZFS Raid aus dem System nehmen.

Da ist dann etwas schief gelaufen. Das ist nicht die Regel

 

9 minutes ago, zero_neverload said:

(Haben SSDs ein Problem mit ZFS?)

Bei mir nicht.

Hast Du den Raidkontroller noch drin uns nutzt Du diese Datenträger daran?

 

Link to comment
11 minutes ago, zero_neverload said:

Warum kann ich eigentlich keinen XFS Raid Pool anlegen? Kann Unraid kein XFS Raid? (ich war der Meinung das ich das mal eingestellt hatte)

 

xfs selber beherrscht unter unraid in der GUI kein Verbinden von Laufwerken (oder ich habe es da noch nicht gefunden).

Soweit ich las soll xfs zwar das Verbinden von Speichergeräten unterstützen, aber ich habe das in der GUI noch nie so gesehen.

Ich schätze, vielleicht kann man das mit Terminalbefehlen machen...?

 

Edited by DataCollector
Typos
Link to comment
10 minutes ago, DataCollector said:

Hast Du den Raidkontroller noch drin uns nutzt Du diese Datenträger daran?

Ja klar, die beiden Platten stecken ganz normal im Tray. Ich komme leider nicht an die Logs, da die mit auf dem Cache gespeichert werden sollten......

Wie könnte ich die beiden Platten manuell temporär einbinden? Nur über einen neuen Pool oder geht das auch mit den ZFS Master mittels ZFS import? 

Link to comment
1 minute ago, zero_neverload said:

Ja klar, die beiden Platten stecken ganz normal im Tray. Ich komme leider nicht an die Logs, da die mit auf dem Cache gespeichert werden sollten......

 

1. Raidkontroller im Raid Modus unter unraid sind weiterhin nicht empfehlenswert. Bitte behalte im Hinterkopf, daß da (D)ein Grund für das zfs Versagen mit drin begründet sein könnte.

2. die Syslogs in urnaid können auf dem USb Stick gespeichert werden. Dann überleben sie auch eine Datenträgerabsturz (sofern es nicht der Bootstick ist) oder auch Neustart.

 

1 minute ago, zero_neverload said:

Wie könnte ich die beiden Platten manuell temporär einbinden? Nur über einen neuen Pool oder geht das auch mit den ZFS Master mittels ZFS import? 

 

Ich kann zu zfs Master nichts sagen.

Ich nutze nur die unraid GUI Funktionen und hatte das Problem bisher noch nie.

Ich glaube hier irgendwo mal geleen zu haben, daß man bestehnde Zfs Strukturen über einen Terminalbefehl einlesen kann. ich weiß aber nicht welcher das war. 'mount -zfs' oder irgendwas in der Richtung. Klang in dem Moment ganz simpel, als ich das hier im Forum las.

Link to comment
12 minutes ago, DataCollector said:

1. Raidkontroller im Raid Modus unter unraid sind weiterhin nicht empfehlenswert. Bitte behalte im Hinterkopf, daß da (D)ein Grund für das zfs Versagen mit drin begründet sein könnte.

Raidcontroller hat nur JBOD und kein Raid im Betrieb. 

12 minutes ago, DataCollector said:

2. die Syslogs in urnaid können auf dem USb Stick gespeichert werden. Dann überleben sie auch eine Datenträgerabsturz (sofern es nicht der Bootstick ist) oder auch Neustart.

Ja das werde ich mal nachscheuen wo ich den Pfad ändern kann.

 

System lief zum Zeitpunkt auf dem Raid Cache welchen ich über das Unraid eingestellt hatte (Pool mit zwei Platten im ZFS Raid 1)

 

Es ist zwar bei mir kein Drama, da ich gestern erst ein Backup vom System gemacht hatte (Appdata), aber mich würde schon gerne interessieren, wie man im Falle eines Plattenausfalls bei einem ZFS Raid 1 die Daten retten/einsehen/wiederherstllen kann. Ich hatte gehofft, dass es genauso komfortable wie im Array von statten geht. Dem ist/war aber nicht so.

Link to comment
16 minutes ago, zero_neverload said:

Raidcontroller hat nur JBOD und kein Raid im Betrieb. 

 

Ich habe mehrere der Megaraid 9361 in Betrieb. Die haben keinen echten HBA oder IT Mode.

Der JBOD ist leider nicht transparent wie ein echter HBA oder IT Mode. Sorry.

Ich weiß, Du willst es nicht hören: Der Megaraid ist dafür nicht zu empfehlen.

 

16 minutes ago, zero_neverload said:

Ja das werde ich mal nachscheuen wo ich den Pfad ändern kann.

 

Siehe Screenshot.

 

SyslogScreenshot 2024-03-17 023807.png

  • Like 1
Link to comment
39 minutes ago, DataCollector said:

Ich habe mehrere der Megaraid 9361 in Betrieb. Die haben keinen echten HBA oder IT Mode.

Der JBOD ist leider nicht transparent wie ein echter HBA oder IT Mode. Sorry.

Ich weiß, Du willst es nicht hören: Der Megaraid ist dafür nicht zu empfehlen.

Ok das übersteigt wiedermal meine Kompetenzen, weil ich da keinerlei Erfahrung habe.

Was genau kann denn dann passieren, bzw. was kann ich besser machen? (Controllertausch / Backplaintausch?)
Ich hatte mich ja mit dem erhöten Stromverbrauch abgefunden obwohl der Controller mir gefühlt 75% der Idl-Last frist. 

Link to comment
55 minutes ago, zero_neverload said:

Ok das übersteigt wiedermal meine Kompetenzen, weil ich da keinerlei Erfahrung habe.
Was genau kann denn dann passieren, bzw. was kann ich besser machen? (Controllertausch / Backplaintausch?)
Ich hatte mich ja mit dem erhöten Stromverbrauch abgefunden obwohl der Controller mir gefühlt 75% der Idl-Last frist. 

 

Wenn Du die SAS Backplane mit Expander behalten willst und das unter unraid betreiben möchtest, macht es Sinn einen HBA oder IT Mode SAS Kontroller zu beschaffen.

Der Megararid ein PCIE 3.0 x8  12GB SAS Kontroller.

Wenn Deine Backplane aber nur 6GB SAS ist, reicht ein einfacherer Kontroller.

 

Wenn ich der Beschreibung glauben darf, wäre das etwas passendes:

LSI SAS 9217-8i SATA/SAS 6Gb/s PCI-E 3.0 IT Mode
+ 2*SFF-8087 Cables SATA
https://www.ebay.de/itm/235442644303

Du wirst dann aber neue Kabel brauchen, weil der Megaraid die neueren SFF-8643 Anschlüsse hat.

 

 

Wenn Du die Kabel beibehalten willst oder wenn Deine Backplane 12GB SAS ist könnte sowas passen:

LSI Broadcom SAS 9300-8i 12G SAS/SATA HBA IT-Mode (oder bauähnlich)
https://www.ebay.de/itm/176271744807

https://www.ebay.de/itm/166643341248

https://www.ebay.de/itm/134460734355

Edited by DataCollector
Link to comment
14 minutes ago, DataCollector said:

 

Wenn Du die SAS Backplane mit Expander behalten willst und das unter unraid betreiben möchtest, macht es Sinn einen HBA oder IT Mode SAS Kontroller zu beschaffen.

Der Megararid ein PCIE 3.0 x8  12GB SAS Kontroller.

Wenn Deine Backplane aber nur 6GB SAS ist, reicht ein einfacherer Kontroller.

 

Ich glaube die Backplane kann 12Gb/s. Muss da nochmal ins Datenblatt schauen was @hawihoney hier gepostet hatte.

Hier gab es glaube ich noch den Hinweis, dass ein zweites Kabel mehr Power bringen wird. (vermutlich die zweiten 6Gb/s von den 2x 6Gb/s  =  12Gb/s Lines)

 

14 minutes ago, DataCollector said:

 

Wenn ich der Beschreibung glauben darf, wäre das etwas passendes:

LSI SAS 9217-8i SATA/SAS 6Gb/s PCI-E 3.0 IT Mode
+ 2*SFF-8087 Cables SATA
https://www.ebay.de/itm/235442644303

Du wirst dann aber neue Kabel brauchen, weil der Megaraid die neueren SFF-8643 Anschlüsse hat.

ok

14 minutes ago, DataCollector said:

 

Wenn Du die Kabel beibehalten willst oder wenn Deine Backplane 12GB SAS ist könnte sowas passen:

LSI Broadcom SAS 9300-8i 12G SAS/SATA HBA IT-Mode (oder bauähnlich)
https://www.ebay.de/itm/176271744807

https://www.ebay.de/itm/166643341248

https://www.ebay.de/itm/134460734355

Ja ich glaube das sieht passend aus. Gibt es im Bezug auf den Stromverbrauch eine Empfehlung? Oder macht sich das nichts groß?

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.