Vorstellung erster unRaid Server -4HE -noch kein finaler Stand erreicht


Recommended Posts

Hallo Allerseits.

 

Da ich ja schon einzelne Bilder zeigte und die Frage nach der Vorstellung kam, habe ich nun eine Bilderserie zusammengestellt, wie mein aktuelles System aufgebaut ist/wird. (Aber das ist nur ein bisheriger Zwischenstand!)

Sollte ich endlich das unten erwähnte W480 Board stabil zum laizúfen bekommen, werde ich alles zusammen bauen und die Kabel etwas sauberer verlegen.

 

Die Bilder sind nicht chronologisch sortiert. Ea kann also sein, daß ein Bild schon etwas zeigt, was in einem folgenden Bild nicht zu sehen ist. Diese Pics stammen aus dem Zeitraum Oktober 2021 bis Februar 2022.

 

Info: Ich stehe mit der Forumssoftware hier doch oft auf dem Kriegsfuß. Ich bitte mir zu vergeben, daß die Bilder direkt nacheinander kommen. Irgendwie schaffe ich es nicht ein Bild + Beschreibungstext und danach ein neues Bild mit weiterem Text einzubauen.

 

Deshalb hier vorab die Texte zu den Bildern:
# Frontansicht - Das 4HE Gehäuse von vorne fotografiert - sehr früh in der Ausbauphase.
# Obenansicht - Hier sieht man, wo ich zwischenzeitlich hin wollte. Das System lief, bis ich auf das W480 umbauen wollte. Verbaut ist dort ein Fujitsu Mainboard mit I3-8100 mit boxed Kühler. Der Boxed wurde später geten einen Towerkühler getauscht. Ich habe mir aber überlegt, mehr PC Technik in dem Unraid System zu konsolidieren, weshalb das Board + CPU gegen was leistungsfähigeres ausgetauscht werden sollen. Da stehe ich gerade, weil das aus USA gelieferte GIGABYTE W480 Vision W instabil läuft und ich es dann wohl doch erst einmal ausfürhlich testen und debuggen muß. (weiß jemand, wie Amazon US es handhabt, wenn man über Amazon DE dort bestellt hat und das Ding vielleicht kaputt ist? Gigabyte meint, ich müßte über den Händler einschicken. Nochmal zurück in die USA?)
# Seitenansucht - Ansicht von der Seite ins Gehäuse. Man kann schön den hinzugebauten 4HDD-Käfig neben dem Netzteil erkennnen. Wegen dem davor sitzenden 12cm Lüfter ist das wohl eine der kühlsten Stellen im Gehäuse. 🥶
# SAS-Verkabelung - der Backplane hinter den Frontslots
# SAS-Verkabelung am Gehäuse entlang zum Adaptec/Microsemi HBA - Hier sieht man auch die beiden Haltebleche für 2,5" SSD/HDD. An eines habe ich den unten erwähnten 4fach SSD Haltewinkel geschraubt.
# ATX-PSU-Eingebaut-von-Aussen - Rückansicht des Gehäuse
# ATX-PSU-Halteblech (Alu) von außen vorgebaut. Das Halteblech wurde von mir geplant um ein ATX Netzteil auch gedreht einbauen zu können. Deshalb sind der Ausschnitt und die Löcher passend vorhanden. Erst wollte ich das Blech ins Gehäuse einbauen, doch die ca. 4mm mehr Platz im Gehäuse (bei außen liegendem Blech), sind für die Kabelführung besser. Ein paar extra Langlöcher im Blech um da vielleicht später noch irgendwas anschrauben zu können wurden von mir auch vorgesehen.
# ATX-Stromverkabelung-Backplanes - Sehr kompliziert war die Stromversorgung der Backplanes.  Im Lieferumfangs des Corsair sind nicht genug 4pol. Molexsteckverbinder und die, welche im Lieferumfang sind, sind mit unpasenden Kabelabständen. Ich habe auch solche Kabel nachbestellt (mehr als 1 Monat Lieferzeit damals), aber die haben auch ungeeignete Kabellängen. Zusätzlich fröhnt das Netzteil dem unsäglichen Drang viele PCIe Grafikkartenanschlüsse zu haben, aber für meine Zwecke zu wenige Device-Anschlüsse. Dank des modularen Kabelbaumes und einiger Recherche, konnte ich pasende Molex Steckverbinder (auch Netzteilseitig) auftreiben und mir mit hohen Kabelquerschnitten mehrere Kabel selber passend anfertigen.    Man habe ich geschwitzt 😅😅😅😅😅, als ich das erste mal Strom auf das Netzteil gegeben habe. 3 mal vorher alles durchgemessen aber es hätte ja doch irgendetwas falsch sein können. 💥
# ATX-Stromverkabelung-Backplanes - Die Kabel laufen durch einen stabilen Kunststoffkanal, welcher auch ein paar Verteiler enthält um auch die internen 6 Festplatten zu versorgen. Daraug steht dann später der 4HDD Käfig.
# ATX-Stromverkabelung-Backplanes - An der Backplane mußte ich leider mit Verteilerklemmen arbeiten. Die üblichen Verdächtigen (Wago221) sind dafür dort viel zu groß. Aber VDi hat passende Klemmen.
# SSD-Winkel-nackt - Um 4 SATA SSD irgendwo zu platzieren, habe ich mir einen Winkel gebastelt (okay, konstruiert, dann als Alublech herstellen lassen und selber zum Winkel gebogen). Die SSD haben ein bisschen Platz dazwischen, damit die Luft des 12cm Lüfters da durch ziehen kann.
# SSD-Winkel-angebaut - Der SSD Winkel an die Seitenwand geschraubt, mit (erst einmal) 3 SSD versehen. Das 4HE Gehäuse hat an der Stelle 2 Haltebleche um eigentlich je nur eine 2,5" SSD/HDD dort senkrecht anzubringen. Aber dank Nietmuttern und Flachkopfschrauben kann man da auch den Aluwinkel anbringen und auch bei Bedarf mit einer einzigen Schraube wieder ablösen.
# SSD-Winkel-verkabelt - Mit passend kurzen Kabeln sieht das auch nicht mal zu schlimm aus.

 

So, fertig mit dem Text.
Hier die Bilder:

 

01-Frontansucht-Planungsstatus.JPG

02-Obenansicht-Fujitsu.JPG

03-Seitenansucht-Fujitsu.JPG

H1-SAS-Verkabelung-Backplanes.jpg

H2-SAS-Verkabelung-Backplanes.jpg

P1-ATX-PSU-Eingebaut-Aussen.JPG

P2-ATX-PSU-Eingebaut-Aussen.JPG

P2-ATX-Stromverkabelung-Backplanes.jpg

P3-ATX-Stromverkabelung-Backplanes.jpg

P5-ATX-Stromverkabelung-Backplanes.jpg

S1-SSD-Winkel-nackt.JPG

S2-SSD-Winkel-angebaut.JPG

S3-SSD-Winkel-verkabelt.JPG

Edited by DataCollector
kleine Korrektur
  • Like 3
Link to comment

Hallo @i-B4se

9 minutes ago, i-B4se said:

Aber ich finde hier ist ein ordentliches Servernetzteil angebracht.

Danach hatte ich auch mal hier gefragt, weil ich selber nichts passendes/sinnvolles gefunden hatte.

Ich habe mich aber aus einigen Gründen dagegen entschieden:

1. Servernetzteile sind recht lang (evtl. sogar Redundant) benötigen meist zusätzliche PSU Backplane. Wie man hier sieht geht es jetzt schon eng zu. Den Platz wollte ich nicht opfern

2. Selber eine PSU Backplane bauen wollte ich nicht, da viele Netzteile nur 12V und GND bieten und ich dann zusätzlichen Platz+Aufwand für mindestens 5V hätte betreiben müssen. Das wurde in der Planung dann doch schon sehr umfangreich.

3. Servernetzteile sind meist sehr leistungsstark/hoch dimensioniert. Da mein unraidsystem meine Windows Server (mit weitaus mehr Festplatten hinter je einem 1200W ATX Netzteil) stromsparender ersetzen sollen, hatte ich ATX angestrebt (weil kleinere Formate mit so hoher Leistung kaum guenstig zu finden waren).

4. Die Corsair RM***x Serie 2021 (namentlich das RM550x) soll ja auch bei niedriger Last sehr effizient sein.

 

9 minutes ago, i-B4se said:

Die Consumer-Netzteile sind für so viele Festplatten einfach nicht gemacht.

In meinen Windowsmaschinen hatte ich mit Absicht Superflower SingleRail Netzteile (Leadex II) verwendet, weil ich keine Leisung fuer VGA, dafür aber fast alles für MainBoard und Festplatten (bis zu 75 Stück) brauchte. Das funktioniert bis heute sehr gut und stabil.

Ich gehe mal davon aus, daß das 850 Corsair somit mit 30 Festplatten keine Probleme hat.

Mit 25 Festplatten, 4SATA SSD, 1 NVMe SSD und dem I3-8100 unter einiger Belastung misst eine AVM DECT210 knapp max um die 350Watt Spitze (incl. gerade stattfindenem Spinup auf allen 25 Platten gleichzeitig).

Idle+Spindown liege ich ohne Optimierungsversuche bei knapp um die 80W.

Also der bisher hier gelistete Aufbau kommt damit gut klar.

Laut Gigabyte soll ich aber mal ein anderes netzteil wegen meinem Problem mit dem W480 Vison W ausprobieren.

Aber aus Platzgründen werde ich da dennoch kein dickeres/Servernetzteil einbauen.

Wenn, dann wird es wieder ein ATX in möglichst gleicher Baugröße, aber dann mehr Maximalleistung.

 

9 minutes ago, i-B4se said:

Auch wenn es ordentlich gemacht aussieht! Meine Meinung.

Danke schön. Aber ich finde den Aufbau noch etwas unordentlich.

Doch das wird erst aufgeräumt, wenn ich das W480 Problem gelöst habe. Vorher macht es für mich keinen Sinn, die Kabelverlegung aufzuräumen.

Auch habe ich noch Vibrationsprobleme bei den beiden Festplatten oberhalb der Lüfter. Da muß ich noch eine Versteifung hinbauen. Bisher behelfe ich mir mit einem VGA-Cardholder, der direkt von unten dagegen drückt.

 

Naja, Ist eben noch einiges zu tun. Aber es lief schon mal ordentlich. :)

Link to comment
30 minutes ago, i-B4se said:

Die Consumer-Netzteile sind für so viele Festplatten einfach nicht gemacht

12V sind 12V. Was soll da anders sein? Wegen der Schwankungen? Dann würde ein Consumer-Netzteil ja sofort den Geist aufgeben, wenn man mit einem Spiel die Grafikkarte befeuert.

Link to comment

Bei sowas fang ich das sabbern an 🤤

 

Consumer Netzteile reichen dafür vollkommen aus und sind ohne Mod auch schon schön leise. xD Redundant vlt dann nicht, aber da wären wir in nem Enterprise-Bereich wo Server mit zwei oder mehr Netzteilen mit HotSwap-Funktion daher kommen. Turbolader will man im normalen Home-Bereich nicht umbedingt haben. (Keller ausgenommen).

Die Corsair RM *** 2021 Netzteile sind super, haben genügend Anschlüsse sind sparsam bei Niedriglast und Feuern bei Bedarf ordentlich durch. Würde ich nur Servernetzteile verbauen könnte ich in meinem Büro keine 10 Minuten verbringen xD

Ich meine ich hab Kollegen die verbauen billig China-Böller als Netzteile, da würde ich sowas schreiben xD

 

Ich finde den Aufbau des Server gelungen, nur den Stock Kühler der CPU würde ich tauschen und in den hinteren bereichen wo zwei Lüfter reinpassen die kleinen von Noctua. Die 1x 10GB Karte gegen eine zwei-Port 10GB Karte tauschen (Intel 10-Gigabit X540-AT2) und ich wäre happy. 🙂

Drei Punkte, sonst finde ich das super.

 

Meine Server und deren Kabelverhau poste ich lieber nicht. xD

Edited by RiDDiX
Link to comment
50 minutes ago, RiDDiX said:

Die Corsair RM *** 2021 Netzteile sind super, haben genügend Anschlüsse

Naja. Wie ich schrieb ist das bei dem Modell schon sehr knapp.

Gerade wenn man viele Festplatten befeuern will, wie ich, sind auch diese Corsair gerade so ausreichend, wenn man kreativ bastelt/basteln läßt.

Ich könnte wirklich noch so 2-4 mehr Device Stromversorgungsanschlüsse brauchen.

Dafür brauche ich keinen der reinen 12V/GND PCIe Anschlüße. Davon sind viel zu viele dran.

MainBoard 24 + CPU 8Pol + massenhaft Device Anschlüsse und alles im Single Raildesign.

Das war der Vorteil meiner früheren Super Flower Ledex II. Aber da die nicht mehr hergestellt werden und ich wohl ein paar der letzten in Germany aufgekauft habe wollt eich hier etwas haben, bei dem ich auch in naher Zukunft noch ersatz bekomme ohne die ganze Verkabelung wieder neu machen zu müssen. Das ist ja der Vorteil bei Modular: Wenn das Netzteil wirklich abraucht oder falsch dimensioniert ist, braucht man nur das zu tauschen.

 

50 minutes ago, RiDDiX said:

sind sparsam bei Niedriglast und Feuern bei Bedarf ordentlich durch.

Das hoffe ich ja auch. deswegen bin ich ja sehr irritiert übe den ratschlag von Gogabyte zu meinem W480, ich solle das Netzteil tauschen.

Eigentlich sollte ein RM850x 2021 genug stablile Leistung bringen um das W480 Vison W mit einem W1290p und 64GB Ram alleine zu befeuern.

Die HDDs und SSDs hatte ich ja testweise alle schon abgeklemmt.

Aber vielleicht hat gerade mein Corsair ja eine schlag weg.

 

50 minutes ago, RiDDiX said:

Würde ich nur Servernetzteile verbauen könnte ich in meinem Büro keine 10 Minuten verbringen xD

Das System kommt (genau, wie die bisherigen Windows-NAS-systeme) permanent in den unbewohnten Keller.

 

50 minutes ago, RiDDiX said:

Ich finde den Aufbau des Server gelungen, nur den Stock Kühler der CPU würde ich tauschen

Hatte ich ja.

Auf den I3-8100 und auch auch dem Xeon W1290p sitzen aktuell je ein Xilence XC044 M504D. Durch den Toweraufbau werden sie schon bei den Gehäuselüftern gut angeblasen und wenn wirklich mehr notwendig ist, können die mit je 2 eigenen Lüftern noch nachsteuern. Und die Dinger sind bis 180W Verlustleistung vorgesehen. Damit haben beide CPU ein kleines bisschen Reserve.

 

50 minutes ago, RiDDiX said:

und in den hinteren bereichen wo zwei Lüfter reinpassen die kleinen von Noctua.

Da die 12cm 38mm Gehäuselüfter massig Luft bewegen können, wenn ich sie lasse, drücken die schon genug Luft raus. Hinten wollte ich eigentlivh keine zusätzlichen Lüfter mehr einsetzen. Selbst dem Netzteil wird bei geschlossenem Gehäuse nicht warm genug, als daß es seinen eigenen Lüfter zwischendurch anwirft.

 

50 minutes ago, RiDDiX said:

Die 1x 10GB Karte gegen eine zwei-Port 10GB Karte tauschen (Intel 10-Gigabit X540-AT2) und ich wäre happy. 🙂

Der Slot auf dem Fujitsu D3644-B macht nur PCIe 3.0 x4.

 2*10GBit/s in dem Slot würden nicht mehr die volle Geschwindigkeit bringen.

Bei dem W480 sähe das anders aus, aber ...naja das schrieb ich ja schon...

 

Link to comment
2 hours ago, RiDDiX said:

Consumer Netzteile reichen dafür vollkommen aus

Vollkommen ist ein dehnbarer begriff

@DataCollector hat das wirklich sauber verarbeitet. Da gibt es einfach nichts zu beanstanden.

 

Ich sehe aber erstmal ein Gehäuse mit 30 Einschüben (+ evtl. noch SSD etc. im Gehäuse) und gehe mal im schlimmsten Fall von ca. 30 W Anlaufstrom aus.

Dann reden wir hier einfach mal von 720 Watt + Chipsatz + CPU + RAM die in diesem Moment voll ausgelastet werden.

Servernetzteile haben stellenweise kleinere Toleranzbereiche und arbeiten etwas "stabiler"

Aber wie es schon geschrieben habe, ist das meine Meinung und will damit keinen falls die Arbeit kritisieren.

 

3 hours ago, mgutt said:

12V sind 12V. Was soll da anders sein? Wegen der Schwankungen? Dann würde ein Consumer-Netzteil ja sofort den Geist aufgeben, wenn man mit einem Spiel die Grafikkarte befeuert.

Eine 3090 zieht ca. 550W und das durch offizielle Kabel. 

Link to comment

Hallo @i-B4se

1 hour ago, i-B4se said:

Ich sehe aber erstmal ein Gehäuse mit 30 Einschüben (+ evtl. noch SSD etc. im Gehäuse) und gehe mal im schlimmsten Fall von ca. 30 W Anlaufstrom aus.

Ich war von rund 20 Watt pro Festplatte ausgegangen und war dann eben bei 30*20W +SSD +Mainboard+CPU+RAM+SAS Kontroller.

Deshalb das 850W Netzteil.

Wie sich zeigt, bin ich mit 25 Festplatten +4 SATA SSD +1NVMe SSD +CPU +Mainboard aktuell in Spitze unter 400Watt im Spinup aller Festplatten gleichzeitig (mehrfach mit AVM DECT210 ausprobiert).

Es ist also bisher ausreichend Luft nach oben.

 

1 hour ago, i-B4se said:

Aber wie es schon geschrieben habe, ist das meine Meinung und will damit keinen falls die Arbeit kritisieren.

Sollte sich zeigen, daß dieses RM850x unterdimensioniert ist, kann ich immer noch auf das Corsair RMx Series RM1000x 2021 1000W ATX 2.53 CP-9020201-EU umbauen. Da die Kabel ja identisch sind ist der Austausch nur eine Sache des Geldes und einiger Liefer-/Wartezeit.

 

1 hour ago, i-B4se said:

Eine 3090 zieht ca. 550W und das durch offizielle Kabel. 

Wenn mich Grafikkarten im System interessiert hätten, wäre das wirklich sehr unpassend von mir dimensioniert worden. Aber Grafikkarten brauche ich nicht drin. Die iGPU reicht bestimmt erst einmal für meine unraid/VM Nutzung. Wenn überhaupt, dann müßte ich eher noch so 40-50 Watt hinzurechnen für mein NVMe-PCIeSwitch-Array, welches da noch rein soll, sofern ich entweder das W480 ordentlich stabil bekomme (bevorzugt) oder ich bei dem Fujitsu einen mechanisch passenden Bifurcation-8x8x-Adapter finde (das wäre das von mir weniger bevorzugte Endergebnis).

 

Edited by DataCollector
Korrekturen
  • Like 1
Link to comment
On 2/21/2022 at 4:29 PM, i-B4se said:

Dann reden wir hier einfach mal von 720 Watt + Chipsatz + CPU + RAM die in diesem Moment voll ausgelastet werden.

Letzteres machen vielleicht 50W aus und damit ist es immer noch nicht im Überlastbereich des Netzteils welcher bei über 1000 Watt liegt:

https://www.tweakpc.de/hardware/tests/netzteile/corsair_rm850x_white/s08.php

 

Meist haben Netzteile 15 bis 30% Toleranz bis zur Überbelastung. Heißt nicht, dass man das dauerhaft ausreizen sollte, doch wer startet schon jeden Tag einen solchen Server neu. Denn die 30W fallen nur beim Kaltstart an. Normal aus dem Leerlauf ist es die Hälfte.

Link to comment
On 2/21/2022 at 9:34 PM, DataCollector said:

Bin gerade beruflich und gesundheitlich etwas abgelenkt.

Ich wollte nur mal einen neuen Zwischenstand geben.

Problem war ja

neu geliefertes Gigabyte W480 Vision W + neuer Xeon W1290p + neue 2 Stück Kingstrom 32GB ECC Ram KSM29ED8/32ME = instabil.

Nach nun einigen Tests und Flüchen habe ich nun seit heute Mittag es gesachafft das nackte Board +CPU soweit stabil in betrieb zu bekommen, dass ich nun Tests laufen lasse.

 

Aktueller Stand: Es könnte an einem der RAM Module zu liegen.

 

Im Nachhinein habe ich nachgesehen: Ich habe ja 2 Module und auch mal mit nur einem Modul getestet, aber anscheinend war dabei immer das eine mutmaßlich problematische Modul beteiligt.

Ich habe das mutmaßlich problematische Modul nun gekennzeichnet und entfernt.

 

Damit konnte ich erst einmal keine neue Instabilitäten mehr beobachtet.

Dafür treibt mich nun das Board in den Wahsinn, was das simple Booten von Testsoftware angeht.

Testweise Win11 Installation von USBStick auf eine NVMe im PCIex16 Slot mit BIOS Optimal Settings: kein problem.

Testweise booten eines Ventoy sticks mit diversere Testsoftware (memtext86, memtest86+, etc...) : erfolglos.

Umstellen des BIOS/UEFI auf CSM und neuer Bootversuch mit dem ventoy Stick: erfolglos.

Testweise booten mit dem oben erwähnetn USB Win11 Installationssticks um in den Memtest zu kommen: erfolglos.

Testweise Booten eines Win10 USB Installationssticks um in Win10 Memtest zu kommen: problemlos. Der läuft nun im extended Modus (mit mx 15 Durchläufen) seit ca. 13 Uhr. bisher hat er kein Problem gemeldet.

Wenn der ein paar mal ohne Fehlermeldung durch ist, werde ich mal versuchen den unraid Stick zu nehmen. Da ist beim Bootmenü ja auch eine memtest Auswahl bei.

 

Ich bleibe dran!

Ich sehe zumindest schon einmal Licht und werde wohl nach weiteren Versuchen wegen dem RAM Riegel einen Geährleistungsfall aufzumachen.

P.S.: Ich hatte eigentlich vermutet, daß ein problematischer ECC Speicherriegel in einem ECC fähigen Board mit einem ECC fähigen Prozessor entsprechende Fehlermeldungen schon beim booten ausgibt. Aber dadurch, dass ich meist schwarzen Bildschirm hatte und auch die Debug LED(s) an unterschiedlichen Stellen hängen blieb, hat mich das doch sehr verwundert/abgelenkt.

Link to comment
4 hours ago, MartinG said:

Auf dem unraid Stick ist auch ein memtest drauf.

Schrieb ich ja. Doch ärgerlicherweise sträubt sich das Mainboard mir das unraid-Bootauswahlmenü zu zeigen. Es bootet solange mit schwrazem Bildschirm den unraidstick durch, bis irgendwann die späteren Textmeldungen auftauchen und dann läuft auch schon unraid.

Das ist aber auch der unraidstick, welcher für das vorherig eingesetzte fujitsu D3644 mit seiner CPU IGPU Intel grafik vorbereitet war.

Ich werde in ein paar Stunden mal mit einem neu erstellten unraid Stick ausprobieren, ob ich damit das Bootmenü zu sehen bekomme und den dort integrierten memtest starten kann.

Den Memtest86+ mit seiner eigenen ISO (frisch von der Webseite geladen und auf USB Stick mit dem Tool übertragen) bekomme ich auf dem Mainboard nicht gestartet. Per Default ist das Mainboard auf UEFi eingestellt, aber da läuft der Stick es nach Boot-Datenträgerauswahl in einen Reset und startet nach 3 Sekunden neu. Wenn ich CSM im Mainboard einschaltet bootet der memtest86+ Stick gar nicht mehr und der Screen bleibt schwarz.

Ich habe selten ein so störrisches Mainboard erlebt. Aber ich sollte dazu sagen, ich habe meist eher mit älterer Hardware zu tun und da bevorzug ich doch eher BIOS/CSM und Legacy.

UEFI und Secureboot habe ich noch nie so ganz verstanden.

 

Link to comment
  • 2 weeks later...

Statusupdate

Nachdem sich nun nach Wochen des Suchens und Tagen der RAM Speichertests (mit Ventoy USB bootet Passmark Memtest86-7.5.iso) ein Speicherriegel als Übeltäter herausgestellt hat, habe ich das System nun weiter umgebaut.

Fujitsu D3644-B, Intel Core I3-8100, 4x 16GB (=64GB) DDR4 ECC Ram (ich glaube Samsung), Xilence XC044 Performance C Serie M504D raus

Gigabyte W480 Vision W, Intel Xeon W1290p, 3x 32GB (=96GB) DDR4 ECC Ram KSM29ED8/32ME, Xilence XC044 Performance C Serie M504D rein.

NVMe Samsung 970 Evo plus 2TB, 4x Crucial MX500 SSD und die 25 Festplatten sind drin geblieben, wurden aber etwas anders angeordnet.

Nun Precleare ich alle Disks noch einmal und befülle dann so, wie es für mich wohl am sinnvollsten sein wird.

 

Hier mal ein Bild von vorhin (Zwischenstand!) (aber noch ohne montierten PCI-Slot Lüfter, einige Disks und Diskhalterungen fehlen und die PCie Switch Parte mit 4 weiteren NVMe SSD ist auch noch nicht drin. Ob ich eine 10GBLan Karte (Mellanox-ConnectX-3-CX311A oder ASUS-XG-C100C einsetze oder vielleicht doch bei der OnBoard 2,5GBit LAN Anbindung bleibe, muß ich noch überlegen).

 

 

IMG20220313153138#.jpg

  • Like 1
Link to comment
4 hours ago, DataCollector said:

Nun Precleare ich alle Disks noch einmal und befülle dann so, wie es für mich wohl am sinnvollsten sein wird.

*seufz*  Bei einer Disk im 4erCage vor dem Netzteil (nicht auf diesem Bild eingebaut) in unter 1 Stunde über 500 UDMA CRC Fehler.

Ich muß mir da die Verkabelung wohl noch einmal anschauen, ausbesssern oder verändern.

Naja, besser jetzt im Test, als später, wenn das System in Wirkbetrieb geht.

 

Link to comment
18 hours ago, DataCollector said:

*seufz*  Bei einer Disk im 4erCage vor dem Netzteil (nicht auf diesem Bild eingebaut) in unter 1 Stunde über 500 UDMA CRC Fehler.

Ich muß mir da die Verkabelung wohl noch einmal anschauen, ausbesssern oder verändern.

Naja, besser jetzt im Test, als später, wenn das System in Wirkbetrieb geht.

 

2mal Verkabelung zu dem Cage umgebaut, jetzt laufen 4 Platten im Cage seit über 3 Stunden ohne neue UDMA CRC Fehler.

Entweder sind die alten Kabel (obwohl erst 1/2 Jahr alt) schon hinüber (unwahrscheinlich)

oder sie sind so schlecht geschirmt, daß die gemeinsame Verlegung der 4 Kabel direkt in einem Strang wohl doch zu grenzwertig war (weniger unwahrscheinlich)

oder die Biegungen der Kabel (weil sie mit rund 50cm etwas mehr Länge hatten als zwingend erforderlich) waren zu krass (das war es vermutlich).

Naja, jetzt läuft es besser. Habe 2 der Kabel aus dem Strang entfernt und gegen 30cm lange Kabel getauscht. Damit ist es zwar etwas knapp/kurz, aber die Festplatten intern bedürfen beim Wechsel sowieso etwas mehr Sorgfalt.

Schade, dass es mir nicht möglich ist, 40cm lange und flexible SATA-3 Kabel zu finden, welch auf der einen Seite gerade SATA Buchsen mit Verriegelung und auf der anderen Seite 90 Grad nach oben gewinkelte SATA Buchsen mit Verriegelung haben.

30cm sind zu finden, aber zu kurz, 50cm sind zu finden, aber zu lang.

Naja, man kann nicht alles haben udn muß dann eben kreativ werden.

Hab bei Amazon was interessantes gefunden:

SATA Winkeladapter nach oben hin

https://www.amazon.de/gp/product/B07P5N714P

Wenn die nicht zu sehr Dämpfen/reflektieren, kann ich damit direkt and er Festplatet Kabel im 90Grad WInkel nach oben weg führen (was bei meiner über Kopf EInbauweise) die Kabel also sehr eng nach unten weg bringt und dort kann ich dann vielleicht mit 90Grad zur Seite Kabeln zu den SATA BoardAnschlüßen gehen. Damit erspare ich mir die eine oder andere Kurve der Kabelführung und 30 cm könnten besser passen. mal sehen.

Link to comment
  • DataCollector changed the title to Vorstellung erster unRaid Server -4HE -noch kein finaler Stand erreicht

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.