Jump to content

DataCollector

Members
  • Posts

    3,967
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Diese Dateien klingen nach dem H2testw von Heise (Windowssoftware) und gehören dann nicht zu unraid. Wenn das testtool H2testw die anlegt, kann man die nach dem test einfach löschen.
  2. Mein unraid ist gerade ausser Betrieb, deswegen aus dem Gedächtnis, weil es mir mal in einer gestreßten Nacht aufgefallen war: Beim Anlegen eines neuen SMB Share hatte ich nicht alle Einstelloptionen angeboten bekommen. Erst wenn es einmal angelegt (mit Apply/Anwenden) wurde und ich danach zum Editieren in den Share neu eingestiegen bin, hatte ich alle der gewohnten Einstellungen. Könnte es das sein?
  3. Es ist einfach ein anderes Aufgabenfeld. Expander sind interessant, wenn man mehr Devices ansprechen will, als man Anschlußports hat. Ich betreibe bei 2 meiner Windowssysteme an einem Kontroller je 2 bzw. 3 Expander und kann somit über 50 bzw. 70 'kleinere' Festplatten damit sehr performant nutzen. Nachteil ist eben der hohe Stromverbrauch. Im Unraidsystem gehe ich einen anderen Weg und habe ohne Expander weniger sehr große festplatten angeschloßen. Das resultiert in einem signifikant niedrigeren Stromverbrauch bei geringerer Geschwindigkeit beim lesen und schreiben auf die Platten im Array. Ist einfach ein anderes Modell mit anderer Zielsetzung (und Expandertechnik kostet auch meist mehr Geld).
  4. Sorry, ich bin ab und zu viel zu ausführlich, aber sonst fehlen irgendwelche Daten. Du hattest den Link gepostet: https://www.aicipc.com/en/productdetail/84 Dort lese ich: "12Gb/s SAS expander chip on backplane" Wenn kein Expander vorhanden ist, dann kann es klappen. Ich war von der Aussage des ursprünglches Links ausgegangen. Ja, das sollte erkennbar/zu sehen sein.
  5. Nur zur verdeutlichung für @MasterOfPuppets111: Das Mißverständniss mag dadurch entstehen, daß der Originalschreiber "SAS-/SATA-Backplane" schrieb. Dies sind eben passive Backplanes/Rückenplatten, denen es egal ist, welches Signal da transportiert wird, weil sie eben keine dahingehend auswertende Logik/Chips enthalten. Das sind nicht mehr als dumme Wechselrahmen die den Steckkontakt vom Eingang zum Device/Festplatte/SSD durchreichen. Sie werden eben auch Backplane genannt, weil diese Rahmen eben eine wechselbare Rückenplatte haben. Nicht selten sitz auf der Rückenlatte eine rudimentäre Schaltung um eine Aktivitäts und Power LED anzusteuern. Aber das war es auch schon. Bei diesen passiven Backplanes hat man in der Regel die gleiche Anzahl an Eingängen und Ausgängen. 4 Eingänge fuer den Kontroller = 4 Ausgänge/Festplatten/SSD. SAS-Expander hingegen nehmen ein/mehrere logische SAS-Signale entgegen und verarbeiten diese auch. Wenn man denen ein SATA Signal auf ansteuerender Seite vorwirft können die in der Regel nichts damit anfangen. Diese SAS-Schaltunge im Kontroller/Expanderchip braucht aber in der Regel einiges an Strom und nicht selten haben Expander auch deswegen extra Kühlkörper auf den Chips. Expander (wie der Name andeutet) expandieren wenige Eingänge (4, 8, 12, 16) in der Regel weiter, so daß man mehr Festplatten steuern kann. Natürlich kann es dabei zu einem Engpaß/Flaschenhals kommen. Ein Expamder der mit 4*6GBit/s SAS angesprochen wird, kann in Summe also gleichzeitig auch nur 24GBit/s transportieren. Aber da Festplatten ihre SATA3(6GBit/s) sowieso real nie von ihren Drehscheiben ausfüllen, kann ein guter Expander weitaus mehr als 4 Festplatten gleichzeitig abfragen und deren Nutzdaten transportieren. Wenn jede Festplatte beispielsweise wirklich nur 3GByte/s (ca. 300MByte/s) liefert, kann ein guter Expander somit die Nutzdaten von 8 Festplatten gleichzeitig transportieren. Und da Festplatten noch kleine Wartezeiten/Seektimes haben, kann der Expander in den Zeiten schon wieder anstehende Daten weitere Festplatten transportieren. Sollte es zu Überschneidungen kommen haben Expander und Festplatten in der Regel ja noch Cachebausteine, welche da ein bisschen puffern. Deswegen findet man in Servergehäusen für beispielsweise 25 Stück 2,5" Laufwerke (SFF Bauform) keine 25 Anschlüße für Kontroller. Meist haben die dort verbauten Backplanes 8, 12 oder 16 Kontrolleranschlüße. Weil es zu kompliziert werden würde habe ich mal SAS-Fallback und SAS-Multikontrollerenviroments weggelassen.
  6. Hallo @MasterOfPuppets111 Die Aussage des Schreibers ist korrekt, wenn man bedenkt, daß er "passive" Backplanes/Wechselrahmen meint (den Rahmen ist es egal ob man eien SAS oder SATA festplatte rein steckt). Bei SAS-Expandern (aktive Technik) geht das nicht. Es gibt Wechselrahmen (auch mit einer Backplane/Rückenplatte) drin, die keine Expanderfunktion haben (ich nenne die mal passiv). Dort kann man (je nachdem ob mechanische SAS (mehr als 22 polige Kontaktleisten) oder SATA (22polige) Kontaktleisten eingebaut sind) eben SATA oder auch SAS Festplatten (mit eben mehr als 22poligen Kontaktleisten) einschieben. Die von Dir erwähnten Reverse Breakout Kabel sind für solche Wechselrahmen mit passiven Backplanes, weil dort eben keine SAS Logik/Chips verbaut sind, sondern (abgesehen von der LED Steuerung) nur die Kontakte durchverbuunden sind. Sobald aber ein SAS Expander auf einer Backplane verbaut ist (ich nenn das mal eine aktive SAS Backplane) , spricht der auf der Kontrollerseite in der Regel auch nur mit SAS Signalen. Er kann zwar auf der Deviceseite in aller Regel SAS oder SATA Festplatten/SSD ansprechen, aber er kann nur von einem SAS Kontroller angesprochen werden. Diese Expander werden mit wenigen Datenanschlüßen angeschlossen (meist das vielfache von 4) und können dennoch gleichzeitig mehrere Devices/Festplatten/SSD ansprechen (üblich sind 6, 8, 12, 16, 24, 25 Festplatten/SSD). Vergleiche es mit einem Ethernet Switch oder Router: Ein Port für Uplink/Backbone/WAN und alle restlichen Ports für die Verbindung zu anderen PC/Switchen/und so weiter... Theoretischer Sonderfall: Backplanes, die SATA Multiplier beinhalten. Dort ist zwar aktive Technik verbaut, die von einem Kontrollerport angesprochen wird, aber dennoch bis zu 5 Devices/Festplatten/SSD Ansprechen kann. Diese technik ist aber reinrassig auf SATA beschränkt. Und Multiplier stehen im Ruf mit unraid nicht wirklich gut zu funktionieren, wenn man eben mehrere Devices an einem Multiplierer gleichzeitig ansprechen will. Solche fertigen Wechselrahmen sind aber so unüblich, daß mir seit Jahren/Jahrzehnten keine mehr unter gekommen sind. Als Steckkarten gibt es sowas aber aktuell noch.
  7. Nein, das wird nichts, da dein Motherboard vermutlich kein SAS spricht.
  8. Hallo @i-B4se Ich war von rund 20 Watt pro Festplatte ausgegangen und war dann eben bei 30*20W +SSD +Mainboard+CPU+RAM+SAS Kontroller. Deshalb das 850W Netzteil. Wie sich zeigt, bin ich mit 25 Festplatten +4 SATA SSD +1NVMe SSD +CPU +Mainboard aktuell in Spitze unter 400Watt im Spinup aller Festplatten gleichzeitig (mehrfach mit AVM DECT210 ausprobiert). Es ist also bisher ausreichend Luft nach oben. Sollte sich zeigen, daß dieses RM850x unterdimensioniert ist, kann ich immer noch auf das Corsair RMx Series RM1000x 2021 1000W ATX 2.53 CP-9020201-EU umbauen. Da die Kabel ja identisch sind ist der Austausch nur eine Sache des Geldes und einiger Liefer-/Wartezeit. Wenn mich Grafikkarten im System interessiert hätten, wäre das wirklich sehr unpassend von mir dimensioniert worden. Aber Grafikkarten brauche ich nicht drin. Die iGPU reicht bestimmt erst einmal für meine unraid/VM Nutzung. Wenn überhaupt, dann müßte ich eher noch so 40-50 Watt hinzurechnen für mein NVMe-PCIeSwitch-Array, welches da noch rein soll, sofern ich entweder das W480 ordentlich stabil bekomme (bevorzugt) oder ich bei dem Fujitsu einen mechanisch passenden Bifurcation-8x8x-Adapter finde (das wäre das von mir weniger bevorzugte Endergebnis).
  9. Nicht nur eine Backplane (passiv) sondern eine Backplane mit SAS-Expander (aktiv). Rechne dafür mal geschätzt 5-15 Watt extra. Wolltest Du auch einen SAS-Kontroller einsetzen (nochmal 5-20Watt)? In der Regel funktionieren SAS-Expander nur mit SAS-Kontrollern.
  10. Naja. Wie ich schrieb ist das bei dem Modell schon sehr knapp. Gerade wenn man viele Festplatten befeuern will, wie ich, sind auch diese Corsair gerade so ausreichend, wenn man kreativ bastelt/basteln läßt. Ich könnte wirklich noch so 2-4 mehr Device Stromversorgungsanschlüsse brauchen. Dafür brauche ich keinen der reinen 12V/GND PCIe Anschlüße. Davon sind viel zu viele dran. MainBoard 24 + CPU 8Pol + massenhaft Device Anschlüsse und alles im Single Raildesign. Das war der Vorteil meiner früheren Super Flower Ledex II. Aber da die nicht mehr hergestellt werden und ich wohl ein paar der letzten in Germany aufgekauft habe wollt eich hier etwas haben, bei dem ich auch in naher Zukunft noch ersatz bekomme ohne die ganze Verkabelung wieder neu machen zu müssen. Das ist ja der Vorteil bei Modular: Wenn das Netzteil wirklich abraucht oder falsch dimensioniert ist, braucht man nur das zu tauschen. Das hoffe ich ja auch. deswegen bin ich ja sehr irritiert übe den ratschlag von Gogabyte zu meinem W480, ich solle das Netzteil tauschen. Eigentlich sollte ein RM850x 2021 genug stablile Leistung bringen um das W480 Vison W mit einem W1290p und 64GB Ram alleine zu befeuern. Die HDDs und SSDs hatte ich ja testweise alle schon abgeklemmt. Aber vielleicht hat gerade mein Corsair ja eine schlag weg. Das System kommt (genau, wie die bisherigen Windows-NAS-systeme) permanent in den unbewohnten Keller. Hatte ich ja. Auf den I3-8100 und auch auch dem Xeon W1290p sitzen aktuell je ein Xilence XC044 M504D. Durch den Toweraufbau werden sie schon bei den Gehäuselüftern gut angeblasen und wenn wirklich mehr notwendig ist, können die mit je 2 eigenen Lüftern noch nachsteuern. Und die Dinger sind bis 180W Verlustleistung vorgesehen. Damit haben beide CPU ein kleines bisschen Reserve. Da die 12cm 38mm Gehäuselüfter massig Luft bewegen können, wenn ich sie lasse, drücken die schon genug Luft raus. Hinten wollte ich eigentlivh keine zusätzlichen Lüfter mehr einsetzen. Selbst dem Netzteil wird bei geschlossenem Gehäuse nicht warm genug, als daß es seinen eigenen Lüfter zwischendurch anwirft. Der Slot auf dem Fujitsu D3644-B macht nur PCIe 3.0 x4. 2*10GBit/s in dem Slot würden nicht mehr die volle Geschwindigkeit bringen. Bei dem W480 sähe das anders aus, aber ...naja das schrieb ich ja schon...
  11. Hallo @i-B4se Danach hatte ich auch mal hier gefragt, weil ich selber nichts passendes/sinnvolles gefunden hatte. Ich habe mich aber aus einigen Gründen dagegen entschieden: 1. Servernetzteile sind recht lang (evtl. sogar Redundant) benötigen meist zusätzliche PSU Backplane. Wie man hier sieht geht es jetzt schon eng zu. Den Platz wollte ich nicht opfern 2. Selber eine PSU Backplane bauen wollte ich nicht, da viele Netzteile nur 12V und GND bieten und ich dann zusätzlichen Platz+Aufwand für mindestens 5V hätte betreiben müssen. Das wurde in der Planung dann doch schon sehr umfangreich. 3. Servernetzteile sind meist sehr leistungsstark/hoch dimensioniert. Da mein unraidsystem meine Windows Server (mit weitaus mehr Festplatten hinter je einem 1200W ATX Netzteil) stromsparender ersetzen sollen, hatte ich ATX angestrebt (weil kleinere Formate mit so hoher Leistung kaum guenstig zu finden waren). 4. Die Corsair RM***x Serie 2021 (namentlich das RM550x) soll ja auch bei niedriger Last sehr effizient sein. In meinen Windowsmaschinen hatte ich mit Absicht Superflower SingleRail Netzteile (Leadex II) verwendet, weil ich keine Leisung fuer VGA, dafür aber fast alles für MainBoard und Festplatten (bis zu 75 Stück) brauchte. Das funktioniert bis heute sehr gut und stabil. Ich gehe mal davon aus, daß das 850 Corsair somit mit 30 Festplatten keine Probleme hat. Mit 25 Festplatten, 4SATA SSD, 1 NVMe SSD und dem I3-8100 unter einiger Belastung misst eine AVM DECT210 knapp max um die 350Watt Spitze (incl. gerade stattfindenem Spinup auf allen 25 Platten gleichzeitig). Idle+Spindown liege ich ohne Optimierungsversuche bei knapp um die 80W. Also der bisher hier gelistete Aufbau kommt damit gut klar. Laut Gigabyte soll ich aber mal ein anderes netzteil wegen meinem Problem mit dem W480 Vison W ausprobieren. Aber aus Platzgründen werde ich da dennoch kein dickeres/Servernetzteil einbauen. Wenn, dann wird es wieder ein ATX in möglichst gleicher Baugröße, aber dann mehr Maximalleistung. Danke schön. Aber ich finde den Aufbau noch etwas unordentlich. Doch das wird erst aufgeräumt, wenn ich das W480 Problem gelöst habe. Vorher macht es für mich keinen Sinn, die Kabelverlegung aufzuräumen. Auch habe ich noch Vibrationsprobleme bei den beiden Festplatten oberhalb der Lüfter. Da muß ich noch eine Versteifung hinbauen. Bisher behelfe ich mir mit einem VGA-Cardholder, der direkt von unten dagegen drückt. Naja, Ist eben noch einiges zu tun. Aber es lief schon mal ordentlich.
  12. Hallo @MasterOfPuppets111 Ich habe Erfahrungen mit einem Fantec SRC-4240X07 und Deine Wahl sieht mir sehr ähnlich aus (nur eben halb so hoch). Wenn Du es wirklich kaufen willst, kauf mit Rueckgaberecht und schau es Dir nach Lieferung genau an, ob Du es wirklich behalten willst. Nur so als Idee: Warum nicht einfach einen oder 2 stabile Gerätefachböden nehmen und Dort Wechselrahmen oder Haltewinkel drauf schrauben? @mgutt hat bei seinem 10Zoll Serverschränkchen sehr kreativ gezeigt, in welche Richtung das gehen kann. Wenn Du sehr hohe Lese- und Schreibgeschwindigkeiten auf ein Array erreichen willst, ist unraid vielleicht nicht das Richtige. Hohe Schreibgeschwindigkeiten beruhen auf vorgeschaltetem SSD Cache und hohe Lesegeschwindigkeit ist nicht, weil vom Array immer nur von einer Festplatte/Drraydatenträger gelesen wird. Du wirst also bei Operationen am Array maximal die Gschwindigkeit eines Arraydatenträgers erreichen. Wenn das reicht, ist es okay. Wenn Du mehr willst, wird es mit Festplatten schwierig. Vergleich: Mein unraid liest und schreibt von/auf das Array maximal mit ca. 240MByte/s. Meine Hardwareraid unter Windows (Megaraid Raid6 mit 11 Festplatten) liest und schreibt mit maximal 1120MByte/s. Dafür schluckt mein unraid idle weniger als 1/3 der elektrischen Energie.
  13. Den Bildern nach zu urteilen hat @mgutt mehr als einen bekommen. Vielleicht, wenn Du ihn gaaaanz lieb fragst? 😁
  14. Hallo Allerseits. Da ich ja schon einzelne Bilder zeigte und die Frage nach der Vorstellung kam, habe ich nun eine Bilderserie zusammengestellt, wie mein aktuelles System aufgebaut ist/wird. (Aber das ist nur ein bisheriger Zwischenstand!) Sollte ich endlich das unten erwähnte W480 Board stabil zum laizúfen bekommen, werde ich alles zusammen bauen und die Kabel etwas sauberer verlegen. Die Bilder sind nicht chronologisch sortiert. Ea kann also sein, daß ein Bild schon etwas zeigt, was in einem folgenden Bild nicht zu sehen ist. Diese Pics stammen aus dem Zeitraum Oktober 2021 bis Februar 2022. Info: Ich stehe mit der Forumssoftware hier doch oft auf dem Kriegsfuß. Ich bitte mir zu vergeben, daß die Bilder direkt nacheinander kommen. Irgendwie schaffe ich es nicht ein Bild + Beschreibungstext und danach ein neues Bild mit weiterem Text einzubauen. Deshalb hier vorab die Texte zu den Bildern: # Frontansicht - Das 4HE Gehäuse von vorne fotografiert - sehr früh in der Ausbauphase. # Obenansicht - Hier sieht man, wo ich zwischenzeitlich hin wollte. Das System lief, bis ich auf das W480 umbauen wollte. Verbaut ist dort ein Fujitsu Mainboard mit I3-8100 mit boxed Kühler. Der Boxed wurde später geten einen Towerkühler getauscht. Ich habe mir aber überlegt, mehr PC Technik in dem Unraid System zu konsolidieren, weshalb das Board + CPU gegen was leistungsfähigeres ausgetauscht werden sollen. Da stehe ich gerade, weil das aus USA gelieferte GIGABYTE W480 Vision W instabil läuft und ich es dann wohl doch erst einmal ausfürhlich testen und debuggen muß. (weiß jemand, wie Amazon US es handhabt, wenn man über Amazon DE dort bestellt hat und das Ding vielleicht kaputt ist? Gigabyte meint, ich müßte über den Händler einschicken. Nochmal zurück in die USA?) # Seitenansucht - Ansicht von der Seite ins Gehäuse. Man kann schön den hinzugebauten 4HDD-Käfig neben dem Netzteil erkennnen. Wegen dem davor sitzenden 12cm Lüfter ist das wohl eine der kühlsten Stellen im Gehäuse. 🥶 # SAS-Verkabelung - der Backplane hinter den Frontslots # SAS-Verkabelung am Gehäuse entlang zum Adaptec/Microsemi HBA - Hier sieht man auch die beiden Haltebleche für 2,5" SSD/HDD. An eines habe ich den unten erwähnten 4fach SSD Haltewinkel geschraubt. # ATX-PSU-Eingebaut-von-Aussen - Rückansicht des Gehäuse # ATX-PSU-Halteblech (Alu) von außen vorgebaut. Das Halteblech wurde von mir geplant um ein ATX Netzteil auch gedreht einbauen zu können. Deshalb sind der Ausschnitt und die Löcher passend vorhanden. Erst wollte ich das Blech ins Gehäuse einbauen, doch die ca. 4mm mehr Platz im Gehäuse (bei außen liegendem Blech), sind für die Kabelführung besser. Ein paar extra Langlöcher im Blech um da vielleicht später noch irgendwas anschrauben zu können wurden von mir auch vorgesehen. # ATX-Stromverkabelung-Backplanes - Sehr kompliziert war die Stromversorgung der Backplanes. Im Lieferumfangs des Corsair sind nicht genug 4pol. Molexsteckverbinder und die, welche im Lieferumfang sind, sind mit unpasenden Kabelabständen. Ich habe auch solche Kabel nachbestellt (mehr als 1 Monat Lieferzeit damals), aber die haben auch ungeeignete Kabellängen. Zusätzlich fröhnt das Netzteil dem unsäglichen Drang viele PCIe Grafikkartenanschlüsse zu haben, aber für meine Zwecke zu wenige Device-Anschlüsse. Dank des modularen Kabelbaumes und einiger Recherche, konnte ich pasende Molex Steckverbinder (auch Netzteilseitig) auftreiben und mir mit hohen Kabelquerschnitten mehrere Kabel selber passend anfertigen. Man habe ich geschwitzt 😅😅😅😅😅, als ich das erste mal Strom auf das Netzteil gegeben habe. 3 mal vorher alles durchgemessen aber es hätte ja doch irgendetwas falsch sein können. 💥 # ATX-Stromverkabelung-Backplanes - Die Kabel laufen durch einen stabilen Kunststoffkanal, welcher auch ein paar Verteiler enthält um auch die internen 6 Festplatten zu versorgen. Daraug steht dann später der 4HDD Käfig. # ATX-Stromverkabelung-Backplanes - An der Backplane mußte ich leider mit Verteilerklemmen arbeiten. Die üblichen Verdächtigen (Wago221) sind dafür dort viel zu groß. Aber VDi hat passende Klemmen. # SSD-Winkel-nackt - Um 4 SATA SSD irgendwo zu platzieren, habe ich mir einen Winkel gebastelt (okay, konstruiert, dann als Alublech herstellen lassen und selber zum Winkel gebogen). Die SSD haben ein bisschen Platz dazwischen, damit die Luft des 12cm Lüfters da durch ziehen kann. # SSD-Winkel-angebaut - Der SSD Winkel an die Seitenwand geschraubt, mit (erst einmal) 3 SSD versehen. Das 4HE Gehäuse hat an der Stelle 2 Haltebleche um eigentlich je nur eine 2,5" SSD/HDD dort senkrecht anzubringen. Aber dank Nietmuttern und Flachkopfschrauben kann man da auch den Aluwinkel anbringen und auch bei Bedarf mit einer einzigen Schraube wieder ablösen. # SSD-Winkel-verkabelt - Mit passend kurzen Kabeln sieht das auch nicht mal zu schlimm aus. So, fertig mit dem Text. Hier die Bilder:
  15. Günstig ja, aber soweit ich sehe hat die keinen DRAM. Würdest Du die wirklich für unraid empfehlen?
  16. Hallo @hawihoney Das ist bei mir auch die bevorzugte/priesgünstige Bezugsmöglichkeit. Auf unriad in ich aber gerade zur Hochzeit von chia gestoßen und zu der Zeit war weder neu noch gebraucht so einfach ein 24HDD 4HE zu bekommen. Ich war glücklich, das Gooxy dann für rund 400 Euro zu bekommen. Und ich muß sagen die Verarbeitung empfinde ich subjektiv besser als die Inter-Tech 24 4HE. Und in den Intertech hätte ich internnicht so aufrüsten können. War also ein Verzweifelungskauf mit überraschend gutem Ergebnis. In der Zeit hätte ich wohl auch bis 600 Euro ausgegeben, aber in der regel waren die InterTech neu früher bei 450 bis 500 Euro und irgendwo da wollte ich bleiben um nach den ersten Experimenten mit unraid dann mal zu versuchen meinen gesamtes bisherigen Datenbestand in ein unraidsystem zu quetschen um Strom zu sparen. Yep. Aber eben teuer, auch gebraucht. Ja, das sind die 36er die ich auch mehrfach interessiert angeschaut habe. Als ich die vor ein paar Jahren zuerst gesehenhatte, glaube ich die als Gebrauchtware für ca. 1400 Euro gesehen zu haben. Da war es für mich billiger 2Stück 4HE zusammen zu schrauben. Neu beginnen die in Germany irgendwo oberhalb von 2000 Euro. Das ist mir zuviel. Da ich das Unraidsystem aufgebaut habe um eben Strom gegenüber meiner bisherigen 24/7 Windowslösung mit Hardwareraidkontrollern einzusparen, wollte ich aktive SAS Elemente (abgesehen vom HBA) vermeiden. Ich habe auch bei meinem Backup (weil da kleinere Platten drin sind) 3 SAS Expander an einem 16i Kontroller drin. Tolle und sehr pflegeleichte Technik. Aber eben zusätzlicher Stromverbrauch, den ich durch unraid (und HDD Spindown) reduzieren will. Sollte ich unraid in dem aktuell angestrebten Endausbau endlich hinbekommen (mit 10C/20T CPU) sollte die Rechenpower sogar ausreichen um einen zweiten PC bei mir abschalten zu können. Dann wäre das unraidsystem bei mir sogar noch besser/betriebskostensparemd/stromkostensparend. Aber wie erwähnt - aktuell habe ich da ein nerviges Propblem mit dem Mainboard und weiß so langsam nicht mehr weiter. Das ist Festplatten Hochlastzustand (Parityerzeugung) bei ca. 22Grad Celcius Raumtemperatur (nur durch die PC Technik um 'ungeheizten' Kellerraum). Das ist alles im normal zulässigen Bereich. Im Normalzustand (Festplatten Spindown und nur die CPU I3-8100 schuftet auf der SSD) sind die Temperaturen sehr viel niedriger. Alles okay. Die Toshiba MG09 Series (und ich glaube die Vorgänger auch) sind bis 60 Grad spezifiziert (Screenshot unten). Für die MG07 habe ich aber aktuell das Datenblatt nicht gefunden. Die von Dir dargestellte Betriebssituation ist aber nicht wirklich viel Last auf den ganzen Festplatten.
  17. Hallo @hawihoney Überraschenderweise ja. Ohne Lüfterdrosselung sogar weitaus besser (aber auch lauter) als befürchtet. Ursprünglich waren die 3 Trennwandlüfter sehr laut. Ich habe anhand der Festplattentemperaturen unter maximaler Belastung diese Lüfter dann mit dem Noctuaregler immer weiter gedrosselt, bis die wärmste Festplatte max. 50Grad erreicht hat. Ich hatte in dem nachgebauten 4er Käfig und den beiden oben auf der Trennwand aufgesetzten Festplatten die höchste Temperatur befürchtet. Doch das ist nicht der Fall. Alle 6 internen Festplatten vermelden bisher in der Regel die niedrigsten Temperaturen. Die dort sichtbare Mainboard+CPU (Fujitsu+I3-8100) Kombination ist aber auch noch nicht das gewünschte Ausbauende. Doch mein W480 mit dem W1290p laufen aktuell nicht stabil. Möglicherweise muß mir Gigabyte da praktisch wegen der Instabilität helfen (Supportfall). Erst wenn ich einen Endausbau erreicht habe, werde ich die Lüftersteuerung am NoctuaRegler vielleicht wieder etwas nach oben anpassen müssen. Das Gehäuse ist eben voll und noch nicht alle Kabel in den Endpositionen. Das neuere Mainboard hat die Anschlüsse eben wo anders. Auch muß ich wohl unterhalb der beiden auf der Trennwand aufgesetzten Festplatten noch einen Steg einbauen, da sie durch die Lüfter zur Vibration neigen. Zur Zeit Stütze ich die zusätzlich mit einem Grafikkartenhhalter, aber das ist kein Endzustand. Deshalb achte ich sehr auf die Temperaturen. Das passt bisher alles. (Siehe Screenshot unten) Alle eingesetzten Festplatten sind NAS fähig. Die Segates sind bis Betriebstemperatur 60Grad zulässig, die Toshiba bis 'Ambient temperatur' (Umgebungstemp) 55 Grad Celsius spezifiziert. Da bleibe ich in der Praxis unter bisheriger Maximalbeanspruchung drunter. Im Paritybuild und auch vorherigen Schreibvorgängen waren diese Temperaturen in Spitze nie erreicht worden. Siehe Screenshot mitten im Paritybuild unten. Und erheblich teurer. Ich habe auch schon lange mit dem Supermicro 36HDD Gehäuse geliebäugelt, aber ab ca. 1400 Euro (in deutschland nur mit altem Interieur) sind mir zu teuer. Vor allem sind da dann wieder aktive Expander und viele kleine Lüfter drin. Wie ich auch schon an meinen bisherigen Inter-Tech 4HE gelernt habe bringen 3 Stück 12 cm FAN (bis 38mm Tiefe) mehr Luftdurchsatz, als 4Stück 8cm, die ursprünglich rein gehörten. Die Inter-tech 4HE musste ich dahingehend nachrüsten. Und im Gooxy Gehäuse hier sind eben die 38mm dicken 12cm Dinger drin, die heftig Lärm und Luft schaffen. Deshalb auch meine Noctua Drosselung, da ich mit dem Fujitsu Mainboard nicht genug runter regeln konnte.
  18. Hallo @mgutt Mein Setup ausführlich vorzustellen, hatte ich vor, wenn die Kiste den gewünschten Endstatus erreicht hat. Dann mit Foto und Text die Entstehung schildern. Leider ist das durch aktuelle Probleme mit dem neuen Gigabyte W480 Vision W Mainboard +W1290p+2xKingston ECC (instabil und freezes schon im BIOS/UEFI) zeitlich in größere Ferne gerückt. Gigabyte schlägt vor ein anderes Netzteil zu testen. Dabei geht das Corsair RM850x (2021 Ed.) laut AVM Steckdose im Maximum (alle 25 Festplatten Spinup) auf 348W (mit dem Fujitsu + I3-8100). Somit sollte es auch für das W480 genug Reserven haben. Und im späteren Testverlauf waren die Festplatten dann sowieso abgeklemmt. Nun rächt es sich, daß ich das Mainboard nur noch über Amazon US (Import über Amazon DE) beschaffen konnte. Sollte das Mainboard wirklich einen Defekt haben sieht es mit dem Support schlecht aus. Soweit ich den Gigabyte Supporter korrekt verstanden habe müßte ich über den Verkäufer einsenden. Das wäre dann Amazon US. 😔
  19. Hallo @hawihoney Ich dachte Du wolltest intern anschließen. 2TB USB "Stick" ist auch etwas viel verlangt. Meines Wissens gibt es bisher nur maximal 1TB USB Sticks: https://geizhals.de/?cat=sm_usb&xf=309_1048576 Da ist es wohl einfacher und billiger eine SSD per Adapter an USB anzuschließen. NVMe SSD gibt es in sehr stromdurstig, da wäre schon USB3.0 mit seinen 0,9A bei 500 mA überfordert. Aber es gibt auch sparsame SSD. Und SATA SSD mit 2TB gibt es sehr viele und sehr viele davon kommen mit 5V bei max. 900mA (=USB3.0) aus. Die Adapter (USB3.0 auf SATA schlucken auch nicht viel). Will sagen: Da ist USB only möglich. Aktuell kenne ich nicht einmal einen 2TB USB Stick. Kleiner Hinweis: ich glaube mich zu erinnern, daß @mgutt mal andeutete, daß zumindest im Array USB nicht unbedingt immer stabil ist. Solltest Du den 2TB Speicher an USb permanent nutzen wollen, wäre das vielleicht zu erforschen.
  20. Hallo @hawihoney Ich vermute mal, das ist einer dieser neuen 20Pin Anschlüsse Das kann man zumindest auf USB3.0 oder auch USB2.0 Adaptieren Damit kommst Du schonmal an Standard 19 Pin (max. USB3.0) https://www.ebay.de/itm/175064600871 https://www.ebay.de/itm/184512551887 https://www.ebay.de/itm/402992960934 Und für 19Pin USB3.0 gibt es ja viele Header auf USB-A zu kaufen. https://www.ebay.de/itm/402992960934 https://www.ebay.de/itm/164748915354 Einen direkten Adapter habe ich auf Anhieb nicht gefunden, word es in den Weiten des Internet aber bestimmt auch schon geben.
  21. Hallo @Revan335 Ich hatte mit em Hardwareaufbau begonnen als wegen Chia und Corona die Versorgungslage schwierig war und konnte noch ein 4HE 24HDD Gehäuse (Anscheinend Marke Gooxy) günstig ergattern. Siehe Bilder unten. Bild 1-3 Da hatte ich erstmal mit ein paar alten HDD grob aufgebaut, was/wie ich zusammenpuzzeln wollte. Bild 1 Front Bild 2 Ansicht von hinten oben Bild 3 Ansicht von oben Seite Bild 4 Komplett aufgebaut mit 25 Festplatten, 4Sata SSD und 1 NVMe SSD in der Core I3 Konstellation bis ich es dieses Wochenende umbauen wollte und nun das Ding nicht läuft. Aber ich arbeite dran. Leider ist es in den letzten Jahren unüblich geworden bei ATX Netzteilen 4pol Molex Stromversorgungen in großer Menge zu ermöglichen. Auch sind die Kabel natürlich dann meist seriell in Reihe, so daß bei eng beieinander liegenden Stromanschlüßen viel unnötiges Kabelmaterial im Weg liegt. Die Netzteilverkabelung für die Laufwerkskäfige und Laufwerke habe ich selber erstellt (mit Absicht mit meist weitaus größeren Querschnitten als normal üblich) und musste die im Laufe der Konstruktion auch noch mehrfach abändern. Bild 1-3 deuten einen ersten Versuch Sept. 2021 an). Nachdem ich mir klar geworden war, daß ich an einer Seitenwand innen 4 Laufwerke übereinander platziere (schwarzer Käfig) hatte ich für die Verkabelung nur noch darunter Platz. Deshalb habe ich dort einen abgesägten Brüstungskanal (Farbe weiß) (Anfangs war es noch ein normaler Verkabelungskanal grau) hin gepflanzt. In den ersten Bildern ist noch die eher umfangreiche Verkabelung zu sehen, die habe ich später stark vereinfacht. Handarbeit. Man habe ich trotz 3fachem Durchmessen beim ersten Einschalten geschwitzt! Ein Verdrahtungsfehler und irgendetwas hätte in Rauch aufgehen können. Sorry. Ab und zu rutsche ich hier noch in eine Schreibweise in der ich Sonderzeichen umgehe. Mein aktuelles Windows System mit Platz für 51 Festplatten ist noch mein aktueller Hauptserver (2Stück 4HE Gehäuse mit Scharnier zusammengeschraubt). Der Backupserver ist ebenfalls windowsbasiert und bekommt die kleineren ausrangierten Festplatten und packt 75 Festplatten (3 Stück 4HE Gehaeuse mit Scharnieren zusammengeschraubt). Dieses unraid-System ist noch ein "Work in Progress", welches dann den Hauptserver ersetzen soll. Solange ich mit dem unraid System noch nicht fertig bin werde ich den Hauptserver nicht offline nehmen. Hier die Bilder:
  22. Hallo @Revan335 Ich habe fast keine Erfahrungen mit Linux und deshalb würde ich mir damit eine weitere und für mich (zur Zeit) unübersichtliche zusätzliche Baustelle ins System holen. Ich bin eben noch Windows gewohnt. Später vielleicht. Aber dann muß ich meinen gesamten Ablauf und Tools umstellen. Aktuell hat mein unraid eine Hardwareumrüstung nicht überlebt. System frieft schon ein, bevor unraid startet und auch schon im BIOS. Ich befürchte mein Hardwarewechsel ist schief gegangen. Naja. mal sehen, was der Gigabyte Support schreibt. 3xx TB an Dateien würde ich schon als Data Collection bezeichnen So war das System vor meinem Hardwareumbau dieses Wochenende aktiv: Corsair RM850x Fujitsu D3644-B Extended_Lifecycle Intel I3-8100 Samsung 64GB Ram DDR4 ECC (4 Module) Xilence XC044 M504D 25x Disks 18TB + 16TB Seagate und Toshiba 4x SATA SSD MX500 2TB Crucial 1x NVMe SSD 970 Evo Plus 2TB Samsung Noctua NA-FC1 4x Lüfter 12cm (3x38mm 1x25mm) ASM 1064 PCIe 3.0 x1 4 Port SATA ADAPTEC 72405 24i SAS Kontroller im HBA Mode KALEA INFORMATIQUE Karte M2 E/A Key 2 Port SATA JMB582 Nach dem Umbau dieses Wochenende auf GIGABYTE W480 Vision W, W-1290p, 2x 32GB Kingston Server Premier ECC DDR4-2933 DIMM CL21 Single KSM29ED8/32ME in DDR4_A2 and _B2 startet das System entweder gar nicht (schwerzer Bildschirm an HDMI mit Debug LED 60 oder 69) oder wenn ich schon ins BIOS/UEFI Setuo gehe friert die Kiste nach einigen Sekunden ein, selbst wenn ich alle Zusatzkontroller und Platten und NVme abziehe. Das sind Sammlungen von Dateien seit ca. 1998. Nein. Ich habe erst seit Dezember ueberhaupt einen 4k Bildschirm, den ich bisher noch nicht einmal angeschlossen habe.
  23. Ich habe mir mal so einen Rahmen (nicht genau den) gebraucht gekauft, Leider ist er zu verbogen angekommen und wurde von mir ohne geneuare Inspektion dann entsorgt. Bezogen auf dieses Angebot: Es sind Chips auf der Backplane, aber abgesehen von der Steuerung von LEDs und anderen grundlegenden Logiken/Verwaltungen ist da meines Wissens nichts aktives drauf. Die SAS Connectoren werden einfach zu den SSD Anschlüßen durchgereicht, der Strom kommt von den Powerconnectoren (und wird eben über die LED Logik geleitet). Es ist kein Expander auf der Backplane verbaut. Der 8er Rahmen sollte eigentlich 2 Stück dieser Platine enthalten: https://www.2nd-source.de/komponenten/boards/a3c40086493/fujitsu-4x-sff-sas-backplane-board-t1320-m1-a3c40086493/10253 https://it-parts24.de/extension-box-8x-2-5-sff-hdd-backplane-a3c40086493-primergy-tx300-rx350-s7-s8-tx2540-m1 https://www.topserverparts.com/Fujitsu-SAS-Backplane-4x25-TX150-S6-TX200-TX300-A3C40086493 Schau Dir die Bilder an. Viel Strom verbrauchnde Elektronik sehe ich nicht. Die Elkos werden vermutlich zur Spannungsstabilisierung im Stromversorgungskreis sitzen. Sollte Dir der STromverbrauch der LEDsteuerung schon zuviel sein wäre der Adapter wirklich nichts für Deinen Anwndungszweck. Andererseits kann es im Fehlerfalle recht interessant sein, wenn man die Aktivität einer SSD auch anhand einer LED abschätzen kann. Ich kann Dir da nichts garantieren, da ich den Rahmen selber nicht habe/einsetze. Wie man an dem Bild in der zweiten Abbildung erahnen kann, scheinen die abzuflexenden Haltewinkel wohl optional zu sein, Vielleicht lassen die sich sogar abschrauben. Das wäre ja noch praktischer und der Dremel kann in seinem Täschchen bleiben Stellt sich nur die Frage nach den HDD Rahmen, die man dann noch finden müßte. SAS Reverse Breakout Kabel sind zwar nicht oft zu finden, aber es ibt sie auch. War auch nur so als Idee gedacht.
  24. Ich kann nicht für Dein Board sprechen. Die Erfahrung von diversen meiner Mainboards: Wenn Du PCIe NVMe in den M.2 steckst erkennt das Board das automtaisch und verwendet auch NVMe ohne die SATA Ports negativ zu beeinflussen.
×
×
  • Create New...