Hardwareberatung auf Basis 19 Zoll


Digikus

Recommended Posts

Hallo Zusammen,

 

mein Name ist Chris und ich lese nun schon fleißig einige Zeit möglichst viele Beiträge rund um Unraid und der dazugehörigen effizienten Hardware. Es ist ein tolles Forum, ich schätze die Hilfsbereitschaft und den Umgang miteinander. 

 

Dies ist gefühlt der 400. Thread für Hardware eines Homeservers, dennoch möchte ich gerne Eure Meinung hören.

Ich werde den ersten Beitrag auch gerne mit Updates und Bildern füttern für die Nachwelt ;-)

 

Für meinem Keller habe ich mir kürzlich einen 19 Zoll Serverschrank mit 12 HE, mit einer Tiefe von 450mm angeschafft (Digitus DN-19 12-U).

Aufgrund der maximalen Auslastung der Fritzbox, sollte das NAS (noch QNAP) in den Keller, dazu ein 24-port Switch mit 4 SFP+ Ports und 8 POE+ Ports (in einem oder zwei Geräten ist egal, Hauptsache sparsam). 

Für ein Switch habe ich mich noch nicht entscheiden können, derzeit tendiere ich zum MikroTik 328-24P-4S+RM Cloud Router Switch oder Aruba IOn 1930 24G 4SFP+ Switch mit separtem POE+ Injektor (Brauche nur 5 POE+ Ports).

Anregungen nehme ich gerne entgegen..

 

Je mehr ich mich über das NAS und den möglichen Funktionen informiert habe, desto mehr kam das Begehren eines "richtigen" NAS / Homeservers. QNAP 453D oder Synology DS920+ sollte es schon mindestens sein.

Über diese Recherche bin ich auf Unraid gestoßen und habe mich letztlich dazu entschieden einen eigenen Homeserver im 19 Zoll Format aufzubauen, da er offensichtlich ähnlich sparsam im Ruhemodus sein kann, nach oben aber Leistung bringt und einfach Upzugraden ist (zukunftssicher).

 

Meine aktuelle Konfiguration besteht aus:

Gehäuse: Yakkaroo 19" Server Gehäuse 3HE / 3U - IPC-C338 - (Passt gerade so mit 20mm Distanzstück an der Befestigungsschiene)

Mainboard: GIGABYTE C246M-WU4

PSU: Corsair SF450 Platinum

CPU: XEON E-2246G

RAM: 2xKingston KSM32ED8/32ME // 64 GB ECC

NVMe: Kingston A2000 1 TB

          WD Black SN750 1 TB

Cages: ICY DOCK FlexCage MB975SP-B R1 mit Arctic F8 Silence Lüfter

           ICY DOCK flexyDOCK MB830SP-B-

 

Noch Offen:

10G (QNAP) Ethernet-Karte

 

 

Hier die Ersten Bilder, CPU, SN750 und ein RAM Riegel sind noch unterwegs ;-)

 

PXL_20210430_122054534_MP.thumb.jpg.f44ad83c9016044c2a61e0cb3af98a79.jpg

PXL_20210430_122119871_MP.thumb.jpg.e87b6830de02ee278416a678458abd32.jpg

 

Was will ich damit machen:

- Fotospeicher wie Google Fotos, schnell, inkl. Teilen 

- Nextcloud / Owncloud

- Persönlicher Dokumentenspeicher mit Sicherheit ähnlich RAID1 (inkl. USB Backups), Snapshots möglich?

- Mumble Server

- Steam Gameserver (Freundeskreis möchte CS:GO Server zu mir verlagern)

- JDownloader (über VPN gerootet)

- Zugriff auf Dateiserver aus dem HTTP, ähnlich der MYQNAPCLOUD-Funktion

- Plex

- Win10 VM 

 

Future Feature:

- Würde gerne VM Gaming testen, Knackpunkt hierbei: Stromverbrauch 

 

Die Grundanforderung ist also nicht besonders Hoch. Datenspeicher für alle persönlichen Dokumente und Fotospeicher hauptsächlich plus eine oder 2 VM's.

Ich möchte für meine Dokumenten wechselnde USB-Platten anschließen, gerne über Script als Backup 2 verschiedene HDD's als "Hotswap" per USB 3.0 einbinden, damit ich automatisiert meine Cold-Backups fahren kann. 

 

Beste Grüße

Chris

 

 

 

 

Edited by Digikus
Link to comment

Leider kompliziert, aufgrund der geringen Tiefe.

Bin gespannt ob das MB reingeht.

zum Innenaufbau Deines Yakkaroo kann ich nix sonst sagen....

Plattentrays sind wichtig? Sonst gibt es auch andere Käfige in der Bucht für 4-5 HDDs in 3x5.25....Hotswap kann unraid mMn eh nicht.

 

Das RAM: https://geizhals.de/kingston-valueram-dimm-32gb-kvr26n19d8-32-a2202156.html ist laut Kingston Konfigurator kompatibel: https://www.kingston.com/germany/us/memory/search?model=101362&devicetype=7&mfr=GIG&line=C246M-WU4&totalcapacity=32 gb und verfügbar.

 

Welche QNAP ist das...10GBE-T (RJ45) oder SFP+ ? Ich würde SFP+ nehmen....evtl. eher eine Mellanox ConnectX-3 aus der Bucht...mit 3m DAC ca. 50EUR: https://www.ebay.de/itm/MCX311A-XCAT-CX311A-MELLANOX-CONNECT-3-10GBE-SINGLE-PORT-SERVER-ADAPTER/133410677198?var=432829335444

Läuft hier einwandfrei mit einem MT Switch.

 

Bei Switches würde ich auch MT empfehlen, obwohl der Aruba, passiv mit 4 SFP+ verlockend ist.

Leider weiss man da nicht, ob der Cloud Zwang mal kommt. Die Aruba sind bestimmt pingeliger als die MT bei der Codierung der Transceiver.

Ein CRS326 mit 2xSFP+ und dazu ein CRS305 oder CRS309 sind auch eine gute Wahl.

+1 für den separaten Injektor...in x8 gibt es den sogar passiv gekühlt. https://geizhals.de/inline-desktop-gigabit-poe-injektor-32308h-a1859949.html

 

Was nutzt Du als Router? da wäre auch ein MT möglich, ich nutze den: https://geizhals.de/mikrotik-routerboard-rb4011-router-rb4011igs-rm-a1923183.html

 

NVME Cache nur 1x...Du denkst an den nicht vorhandenen Sicherheitspuffer (bei 2x eein raid1 mit BTRFS)?

 

 

 

Link to comment

Danke für Deine Anregungen!

 

Quote

Leider kompliziert, aufgrund der geringen Tiefe.

Bin gespannt ob das MB reingeht.

zum Innenaufbau Deines Yakkaroo kann ich nix sonst sagen....

 

Nur die Einbautiefe des Gehäuses in den Serverschranks ist knapp, aber mit den umgeschrauben Griffen und noch 20mm Abstandshaltern zur 19 Zoll Schiene passt alles sehr genau rein inkl. Platz für Strom-, Netzwerkkabel.

Das Gehäuse selbst unterstützt bis ATX, so ist ein mATX MB eine gute Wahl.

Wegen der noch zusätzlichen Einbaurahmen rechts (muss ausgedremelt werden) muss ich nur schauen, ob ich 2x5.25 oder 3x5,25 Slots für den 2. Käfig benutzen kann.

 

Quote

Plattentrays sind wichtig? Sonst gibt es auch andere Käfige in der Bucht für 4-5 HDDs in 3x5.25....Hotswap kann unraid mMn eh nicht.

Ich dachte mir "zukunftssicher" bauen, Am Gehäuse am Anfang alles richtig machen und nicht sparen, danach nur noch Komponenten nach Bedarf tauschen. Gerade wegen dem Dremeln am Gehäuse..

Erkennt Unraid denn keine neue Platte im System im Betrieb? 

Wenn nicht, kommt bestimmt irgendwann mit einem SW-Update oder HW-Upgrade nachgeliefert. Liegt das am MB oder Unraid, dass es nicht geht aktuell?

Ist halt super praktisch und sieht sehr professionell aus.

 

Quote

Leider ist der ohne ECC, würde ich schon gerne nutzen, wenn Board und CPU das schon unterstützen.

 

Quote

Welche QNAP ist das...10GBE-T (RJ45) oder SFP+ ? Ich würde SFP+ nehmen....evtl. eher eine Mellanox ConnectX-3 aus der Bucht...mit 3m DAC ca. 50EUR: https://www.ebay.de/itm/MCX311A-XCAT-CX311A-MELLANOX-CONNECT-3-10GBE-SINGLE-PORT-SERVER-ADAPTER/133410677198?var=432829335444

Läuft hier einwandfrei mit einem MT Switch.

Ich habe mich da noch nicht so richtig festgelegt, hatte von den Beiträgen von mgutt gelesen, dass die QNAP-Karte eine der wenigen ist, die problemlos mit WOL funktioniert.

Bin gegenüber anderen günstigen funktionierenden Karten jedoch offen.

 

Quote

Bei Switches würde ich auch MT empfehlen, obwohl der Aruba, passiv mit 4 SFP+ verlockend ist.

Leider weiss man da nicht, ob der Cloud Zwang mal kommt. Die Aruba sind bestimmt pingeliger als die MT bei der Codierung der Transceiver.

Ein CRS326 mit 2xSFP+ und dazu ein CRS305 oder CRS309 sind auch eine gute Wahl.

+1 für den separaten Injektor...in x8 gibt es den sogar passiv gekühlt. https://geizhals.de/inline-desktop-gigabit-poe-injektor-32308h-a1859949.html

Ja beim Aruba fand ich das Passivsystem mit den 4 SFP+ auch spitze. Wobei dadurch das Switch nicht zwangsläufig sparsamer sein muss.

Vielleicht muss ich in Zweifel zwei verschiedene bestellen und den Verbrauch messen..

Was heißt denn Cloud Zwang?

 

2 SFP+ sind mir für die Zukunft zu wenig, Ich brauche einen für PC, einen für den Server und einen später fürs 2.OG mit Homeoffice und Multimedia.

 

Der passive 8-Port Injektor liest sich prima, sogar mit Montagewinkeln für 19 Zoll - Den schaue ich mir nochmal genauer an, Danke!

 

Quote

Was nutzt Du als Router? da wäre auch ein MT möglich, ich nutze den: https://geizhals.de/mikrotik-routerboard-rb4011-router-rb4011igs-rm-a1923183.html

Router ist bei mir die Fritzbox, das wird auch erst einmal so bleiben. Bis jetzt kann sie all meine Aufgaben erledigen, so dass ich den Mehrwert noch nicht sehe, nur den zusätzlichen Stromverbrauch. Mit integrierten Modem, quasi eine 19 Zoll Fritzbox, würde ich es ernsthaft überlegen, so kommt die Fritte jetzt erst einmal auf einen Einlegeboden oder bleibt vorerst in der Wohnung für optimales WLAN.

 

Quote

NVME Cache nur 1x...Du denkst an den nicht vorhandenen Sicherheitspuffer (bei 2x eein raid1 mit BTRFS)?

Danke für den Hinweis, Du hast recht, der Cache ist mit einer NVMe nicht gesichert.

Ich fange mit einem Cache an und schaue mir das System in Ruhe in Punkto Energieverbrauch, Geschwindigkeit etc. an und werde danach ggfs. einen zweiten nachrüsten.

 

 

 

Link to comment
2 hours ago, Digikus said:

Erkennt Unraid denn keine neue Platte im System im Betrieb? 

Wenn nicht, kommt bestimmt irgendwann mit einem SW-Update oder HW-Upgrade nachgeliefert. Liegt das am MB oder Unraid, dass es nicht geht aktuell?

Ist halt super praktisch und sieht sehr professionell aus.

Hot Swap hängt an der Backplane, dem Controller und dem OS.

Wobei Hotswap eben nicht nur rein/raus/erkennen ist, wie bei USB.....das Array bekommt das mit und der Controller wird eben bei einem gewollten HDD Tausch keinen Fehler auswerfen, wobei eben in der Regel ein Hot-Spare da ist. Sowas hat der OnBoard Controller, ein HBA und auch unRaid als OS nicht.

In einem "echten" ZFS Array oder Hardware-Raid geht sowas....

 

Quote

Leider ist der ohne ECC, würde ich schon gerne nutzen, wenn Board und CPU das schon unterstützen.

Oh, mea cilpa...da war ich zu voreilig....gut, dass Du aufgepasst hast.

Nimm das hier: KSM32ED8/32ME Edit: der Link im Kingston Konfigurator lässt sich nicht speichern...musst Du selbst umschalten auf "Server Premier" https://www.kingston.com/germany/de/memory/search?model=101362&devicetype=7&mfr=GIG&line=C246M-WU4&totalcapacity=32 gb&totalcapacity_2=32 gb ... auch kaufbar: https://geizhals.de/kingston-server-premier-dimm-32gb-ksm32ed8-32me-a2351239.html

 

Quote

Ich habe mich da noch nicht so richtig festgelegt, hatte von den Beiträgen von mgutt gelesen, dass die QNAP-Karte eine der wenigen ist, die problemlos mit WOL funktioniert.

Bin gegenüber anderen günstigen funktionierenden Karten jedoch offen.

Das "Problem" ist, dass ein 10GBE-T Transceiver im Switch dann teuer ist und sehr, sehr warm wird, weil die Chipsätze dafür aktuell noch viel Strom brauchen.

WOL kann man auch mit dem 1Gbps OnBoard Adapter nutzen...kostet halt den Port am Switch.

Hier gab es gerade irgendwo auch ein paar Beiträge dazu.

Ich denke eine 10G Intel Karte kann in der Regel auch WoL....ich würde aber nach einer SFP+ gucken...müsste in den Specs szehen.

 

Quote

Ja beim Aruba fand ich das Passivsystem mit den 4 SFP+ auch spitze. Wobei dadurch das Switch nicht zwangsläufig sparsamer sein muss.

Vielleicht muss ich in Zweifel zwei verschiedene bestellen und den Verbrauch messen...

Auch 4 SFP+ sind schnell weg.

Du kannst auch einen mit QSP+ Port nehmen und da ein 40G -> 4x10G breakout Kabel nehmen ;-)

 

Quote

Was heißt denn Cloud Zwang?

Aruba bietet das Mangement über eine eigene Cloud an.

Da gibt es zB aktuell Firmware-Updates etwas früher usw....Ubiquiti macht sowas auch.

 

Zwang bedeutet, dass das lokale Management Interface nicht mehr geht, zB ab einer bestimmtenb Firmware und Du die Cloud nehmen *musst*.

Aktuell ist dem noch nicht so (gab es aber schon einige Diskussionen im Luxx-Forum).

 

Quote

2 SFP+ sind mir für die Zukunft zu wenig, Ich brauche einen für PC, einen für den Server und einen später fürs 2.OG mit Homeoffice und Multimedia.

siehe oben -> QSFP+ :-)

Oder eben, wie gesagt, einen Mikrotik CRS309 dazu.

 

Quote

Router ist bei mir die Fritzbox, das wird auch erst einmal so bleiben. Bis jetzt kann sie all meine Aufgaben erledigen, so dass ich den Mehrwert noch nicht sehe, nur den zusätzlichen Stromverbrauch. Mit integrierten Modem, quasi eine 19 Zoll Fritzbox, würde ich es ernsthaft überlegen, so kommt die Fritte jetzt erst einmal auf einen Einlegeboden oder bleibt vorerst in der Wohnung für optimales WLAN.

....für Glasfaser Anschluss zB kommt das kostenlose Modem mit RJ45

Da hat man mehr Optionen. Wer zB VLANs braucht kann das mit der Fritte nicht umsetzen.

Edited by Ford Prefect
Link to comment
Quote

Hot Swap hängt an der Backplane, dem Controller und dem OS.

Wobei Hotswap eben nicht nur rein/raus/erkennen ist, wie bei USB.....das Array bekommt das mit und der Controller wird eben bei einem gewollten HDD Tausch keinen Fehler auswerfen, wobei eben in der Regel ein Hot-Spare da ist. Sowas hat der OnBoard Controller, ein HBA und auch unRaid als OS nicht.

In einem "echten" ZFS Array oder Hardware-Raid geht sowas....

 

Verstehe.. Dann schaue ich mir mal den Platz an, wenn das MB da ist und gehe evtl. doch zurück auf einen normalen Käfig. Der Icy braucht schon gut Platz in der Tiefe.

 

Quote

Oh, mea cilpa...da war ich zu voreilig....gut, dass Du aufgepasst hast.

Nimm das hier: KSM32ED8/32ME Edit: der Link im Kingston Konfigurator lässt sich nicht speichern...musst Du selbst umschalten auf "Server Premier" https://www.kingston.com/germany/de/memory/search?model=101362&devicetype=7&mfr=GIG&line=C246M-WU4&totalcapacity=32 gb&totalcapacity_2=32 gb ... auch kaufbar: https://geizhals.de/kingston-server-premier-dimm-32gb-ksm32ed8-32me-a2351239.html

Top! Danke! Den habe ich selbst so nicht gefunden. Dieser hier ist zumindest halbwegs bezahlbar in diesen Zeiten..

 

Quote

Das "Problem" ist, dass ein 10GBE-T Transceiver im Switch dann teuer ist und sehr, sehr warm wird, weil die Chipsätze dafür aktuell noch viel Strom brauchen.

WOL kann man auch mit dem 1Gbps OnBoard Adapter nutzen...kostet halt den Port am Switch.

Hier gab es gerade irgendwo auch ein paar Beiträge dazu.

Ich denke eine 10G Intel Karte kann in der Regel auch WoL....ich würde aber nach einer SFP+ gucken...müsste in den Specs szehen.

 

Auch 4 SFP+ sind schnell weg.

Du kannst auch einen mit QSP+ Port nehmen und da ein 40G -> 4x10G breakout Kabel nehmen ;-)

Danke für den Hinweis! Ich habe nichts gegen ein direktes Anbinden an SFP+ und klingt logisch, dass es so energieeffizienter ist.

 

Du meinst, dass ich dann zusätzlich den 1Gb Port vom MB anschließe und für WOL benutze? Funktioniert das so einfach? Ich müsste dann 2 IP-Adressen haben, das heißt eine zum anpingen und aufwecken und die andere für Datentransfer? Klingt kompliziert zum einrichten. Stark wäre ein einziger 10Gb-Anschluss, der "einfach funktioniert"..

 

Hat da jemand vielleicht schon Erfahrung mit einer günstigen funktionierenden SFP+ PCIE-Karte mit WOL?

 

 

Quote

Aruba bietet das Mangement über eine eigene Cloud an.

Da gibt es zB aktuell Firmware-Updates etwas früher usw....Ubiquiti macht sowas auch.

 

Zwang bedeutet, dass das lokale Management Interface nicht mehr geht, zB ab einer bestimmtenb Firmware und Du die Cloud nehmen *musst*.

Aktuell ist dem noch nicht so (gab es aber schon einige Diskussionen im Luxx-Forum).

Okay, danke. Das lese ich mir mal an. Zur Zeit ist Aruba noch mein Sympathieträger, da passiv. So eine Cloud-Einschränkung wäre tatsächlich ein Grund es nicht zu kaufen.

Ich berichte ;-)

 

Quote

....für Glasfaser Anschluss zB kommt das kostenlose Modem mit RJ45

Da hat man mehr Optionen. Wer zB VLANs braucht kann das mit der Fritte nicht umsetzen.

Ich wünschte, ich hätte die nächsten Jahre Chancen auf Glasfaser, das wird in meiner Wohngegend mit lauter 1-Familienhäusern wohl nicht so schnell passieren. Nicht einmal Kabel kommt zu uns in die Straße.

VLAN-Nutzung wäre so etwas, wie zum Beispiel ein eigenes zweites lokales Netzwerk, nur für das geschäftliche oder nur für Medienserver zu schaffen, richtig?

Vielleicht kommt das mal bei mir, derzeit sehe ich den Bedarf noch nicht.

 

Link to comment
2 hours ago, Digikus said:

Verstehe.. Dann schaue ich mir mal den Platz an, wenn das MB da ist und gehe evtl. doch zurück auf einen normalen Käfig. Der Icy braucht schon gut Platz in der Tiefe.

...diese gibt es zu Hauf in der Bucht...mal mit, mal ohne Lüfter schon dabei: https://www.ebay.de/itm/233938931265?_trkparms=aid%3D1110006%26algo%3DHOMESPLICE.SIM%26ao%3D1%26asc%3D20201210111314%26meid%3D577946b9851d48b0b0894f5eee2c78ea%26pid%3D101195%26rk%3D1%26rkt%3D12%26mehot%3Dco%26sd%3D333454397226%26itm%3D233938931265%26pmt%3D1%26noa%3D0%26pg%3D2047675%26algv%3DSimplAMLv9PairwiseUnbiasedWeb%26brand%3DUnbranded&_trksid=p2047675.c101195.m1851

 

2 hours ago, Digikus said:

Danke für den Hinweis! Ich habe nichts gegen ein direktes Anbinden an SFP+ und klingt logisch, dass es so energieeffizienter ist.

Ist es grundsätzlich, auch wenn es über einen Switch geht.

 

2 hours ago, Digikus said:

 

Du meinst, dass ich dann zusätzlich den 1Gb Port vom MB anschließe und für WOL benutze? Funktioniert das so einfach? Ich müsste dann 2 IP-Adressen haben, das heißt eine zum anpingen und aufwecken und die andere für Datentransfer? Klingt kompliziert zum einrichten. Stark wäre ein einziger 10Gb-Anschluss, der "einfach funktioniert"..

 

Hat da jemand vielleicht schon Erfahrung mit einer günstigen funktionierenden SFP+ PCIE-Karte mit WOL?

ja, genau...wobei das WoL ja auf Basis der MAC passiert und nicht der IP.

Aber ja, eine IP extra wirst Du ja noch haben ;-)...dann kannst Du diesen "Link" in der Fritte, bei der Ansicht der Geräte im Heimnetz verwenden um das WoL / "Computer aufwecken"  zu starten.

Es kann so sein, dass die 10G Karte dann nicht gleich wieder startet, nach dem aufwecken, aber das kann man dann mit den Sleep-Plugin und den "ifconfig ethX up" Befehl "heilen".

 

Das WoL bei 10G ist schwierig ... selbst wenn es im Handbuch steht, muss es nicht immer so sein.

 

2 hours ago, Digikus said:

VLAN-Nutzung wäre so etwas, wie zum Beispiel ein eigenes zweites lokales Netzwerk, nur für das geschäftliche oder nur für Medienserver zu schaffen, richtig?

Vielleicht kommt das mal bei mir, derzeit sehe ich den Bedarf noch nicht.

Ja, so ähnlich. Das V in (V)LAN steht dafür, dass Du das auf einer physischen Infrastruktur (Kabel, Switches, Router) hinbekommst, also kein separater Switch für Heim- und Geschäft und keine doppelten Wanddosen bzw separate Verkabelung (solange die Bandbreite ausreicht).

"Teuer" wird es dann, wenn zwei Geräte aus unterschiedlichen VLANs / IP-Segmenten miteinander kommunizieren müssen. Weil das nicht mehr der Switch erledigt, sondern das muss der Router tun.

Eine Fritte kann keine VLANs, aber vor allem nicht die Firewall dafür einstellen.

Oft ist es so, dass Geräte in einem VLAN zwar ins I-Net dürfen, aber nicht in ein anderes (Heim-)Netz...gleichzeitig aber andere Geräte aus dem Heimnetz in dieses Netz müssen/wollen.

Beispiel: Smart-Home Geräte oder Geräte, die von Aussen einen Wartungszugang haben (Heizung, PV-Wechselrichter, Wallbox, ...) ... da will man nicht, dass "Schwupps" der Heizungstechniker im Heimnetz ist und mal die Daten vom NAS abgreift oder einen Ransomware-Virus hinterlässt. ;-)

Link to comment

Danke für die vielen Infos, ich plane zumindest schon einmal den Platz für einen Router im Rack mit ein.

Ich sehe schon, sobald der Server läuft, kommen dann noch ein paar Themen auf mich zu mit einigen Fragezeichen 😅

 

Mein Zwischenstand:

Mainboard da und passt mit dem ICY DOCK, dann lasse ich es drin.

 

Servergehäuse wird gegen ein Yakkaroo 3HE / 3U - IPC-G338 ausgetauscht. Dort kann ich auf der rechten Seite die Abdeckung abnehmen und noch 3 Wechselrahmen einbauen. Damit wären es 8 externe Direktzugriffe auf Laufwerke.

 

Arbeitsspeicher KSM32ED8/32ME müsste heute kommen.

 

CPU bei diesen Preisen aktuell.. habe erst einmal die XEON E-2246G geordert und hoffe auf ein gutes Angebot in Zukunft für die E-2278G.

 

M2 habe ich im Angebot günstig die Kingston A-2000 1GB bekommen und eingebaut.

Zweite kommt irgendwann mit einem guten Angebot, am liebsten die WD Black SN750, ist schon in meinem Rechner und habe sehr positive Erfahrungen.

 

Eine Samsung 860 Pro 512GB für Win10 und VM's habe ich vorgesehen

 

Grundsätzliche Frage:

Welche Festplatten für's Datengrab sind denn empfohlen und günstig?

Lese immer wieder etwas über Festplatten ausbauen aus anderen WD-Produkten etc.

Gibts da einen Tipp, auf welche man besonders gut schauen sollte?

Größe sollte so 8-12 TB sein.

 

Den Startbeitrag werde ich aktualisieren und am WE mache ich Fotos bis dahin.

 

MfG

Chris

 

Link to comment

Das neue Servergehäuse habe ich wieder zurück geschickt. Habe für das bestehende noch 25 Euro Nachlass bekommen und mir nun zurecht geflext und gebohrt..

Bilder habe ich in den 1. Post gelegt und diesen geupdatet

 

Durch ein gutes Angebot für die M2 WD SN750 frage ich mich:

Lieber nur die SN750 oder im Raid 1 mit der Kingston A2000 betreiben?

Gibt es dazu Erfahrungswerte / Ratschläge?

 

Das Backup für meine persönlichen Dokumente ist mir besonders wichtig.

Kann ich denn zwei verschiedene USB 3.0 HDD's alternierend anschließen im "Hotswap" und mit diesen ein regelmäßiges Backup in Unraid fahren?

Also Plug'n Play? Wäre klasse so automatisiert meine Cold Backups zu bekommen.

Hat das jemand mal probiert, am laufen oder weiß ob das funktioniert??

 

Beste Grüße

Chris

Link to comment

Du kannst für Unassigned Devices Scripte hinterlegen. Die werden dann mit anstöpseln ausgeführt. So mach ich es mit meinen "nicht-so-wichtig-backups". Immer wenn ich gerade Mal dran denke wird die Platte angesteckt und @mgutt's rsync Script gestartet.

Ich grübel im Moment noch an einer Möglichkeit eine "dauerhaft" angesteckte USB Platte im 2-Wochen-Turnus auszutauschen und das per Cronjob laufen zu lassen. Also als täglich um 18h Backup starten auf usb-platte1 bzw. Platte2. Und genau da hakt es bei mir noch. Oder kann ich zwei verschiedenen Platten denselben mountpoint zuweisen (natürlich nicht gleichzeitig)?

Link to comment

Dann hast Du ziemlich genau das gleiche im Sinn wie ich.

Kann uns da eventuell @mgutt weiterhelfen?

 

Nebenbei erlaubt mir noch eine dumme Frage:

Die HDD Cages sind standardmäßig mit einem Lüfter ausgestattet, der die Luft in das Gehäuse hinein zieht.

Sollte ich die Lüfter besser umdrehen?

Edited by Digikus
Link to comment
10 hours ago, Digikus said:

Die HDD Cages sind standardmäßig mit einem Lüfter ausgestattet, der die Luft in das Gehäuse hinein zieht.

Sollte ich die Lüfter besser umdrehen?

Nein, die kühle Luft kommt von Aussen, geht über die Disks und dann in den Raum über dem MB dahinter, von wo es dann wieder mit den kleineren Lüftern nach draussen geht.

Andersrum bekämen die HDDs ja vorgewärmte Luft. MB, Controller, NVMe, CPU können mit höheren Temps besser umgehen, als die HDDs. daher ist das so gewollt und richtig.

Edit2: in Deinem Bild, oben sieht man hinten am Austritt keine Lüfter verbaut...da müssen noch 1-2 (80er) rein, spätestens wenn da mehr Disks laufen.

 

Nochwas:

Wenn Du bei Hot-Swap Bays nicht alle Slots belegt hast, kann es sein, dass der Luftstrom dort drüber geht und die mit HDDs belegten Slots weniger Luft ziehen.

Um das zu verhindern, gibt es (bei den "guten" Gehäusen) Blind-Trays, welche die leeren SLots abdichten.

Die preiswerten Gehäuse-Hersteller haben sowas meist nicht im Programm, zB mein Intertech 4U-4324...ich habe mir HDD-Dummies aus Schaumstoff (gibts online, inkl. Zuschnitt) machen lassen und diese in die leeren trays eingelegt....wirkt wunder ;-)

 

Edit: Material der Soft-Dummies: PUR RG50, 2.5x10.0x14.5cm, gemäss diesem fred im Luxx: https://www.hardwareluxx.de/community/threads/norco-rpc-4224-aka-inter-tech-ipc-4u-4324l.889631/page-9#post-20103840

Edited by Ford Prefect
Link to comment
10 minutes ago, mgutt said:

Hinterleg doch einfach zwei Scripte und wenn die Platte fehlt, macht es eben kein Backup.

Hab ich tatsächlich auch provisorisch (wobei bekanntlich nichts so lange hält wie ein Provisorium ;-) ) so gemacht, dachte nur es gäbe vielleicht auch eine "elegante" Lösung. Wahrscheinlich könnte man auch eine "If" Schleife einbauen, aber so tief bin ich noch nicht in die Script-Materie eingestiegen.

Link to comment
On 5/1/2021 at 10:53 AM, Ford Prefect said:

Nein, die kühle Luft kommt von Aussen, geht über die Disks und dann in den Raum über dem MB dahinter, von wo es dann wieder mit den kleineren Lüftern nach draussen geht.

Andersrum bekämen die HDDs ja vorgewärmte Luft. MB, Controller, NVMe, CPU können mit höheren Temps besser umgehen, als die HDDs. daher ist das so gewollt und richtig.

Edit2: in Deinem Bild, oben sieht man hinten am Austritt keine Lüfter verbaut...da müssen noch 1-2 (80er) rein, spätestens wenn da mehr Disks laufen.

 

Nochwas:

Wenn Du bei Hot-Swap Bays nicht alle Slots belegt hast, kann es sein, dass der Luftstrom dort drüber geht und die mit HDDs belegten Slots weniger Luft ziehen.

Um das zu verhindern, gibt es (bei den "guten" Gehäusen) Blind-Trays, welche die leeren SLots abdichten.

Die preiswerten Gehäuse-Hersteller haben sowas meist nicht im Programm, zB mein Intertech 4U-4324...ich habe mir HDD-Dummies aus Schaumstoff (gibts online, inkl. Zuschnitt) machen lassen und diese in die leeren trays eingelegt....wirkt wunder ;-)

 

Edit: Material der Soft-Dummies: PUR RG50, 2.5x10.0x14.5cm, gemäss diesem fred im Luxx: https://www.hardwareluxx.de/community/threads/norco-rpc-4224-aka-inter-tech-ipc-4u-4324l.889631/page-9#post-20103840

Danke für Deinen Support 👍

Für den Luftauslass hinten habe ich mir einen 60er (Leider passt da nur ein 60er) PWM Lüfter bestellt, war gar nicht so einfach einen sparsamen zu finden..

 

Jetzt bin dazu geneigt zu den angedachten CPU-Kühler auf einen Passivkühler zu ändern, das müsste doch klappen, da doch so ein gerichteter Luftstrom von vorne nach hinten über den Kühlkörper stattfindet und es gäbe keine Luftverwirbelung mehr.

Von Deinem Link aus einem anderen Thread (https://geizhals.de/?cat=cpucooler&xf=16454_80~6942_passiv~817_1150%2F1151%2F1155%2F1156%2F1200) würde ich auf den Dynatron K129 gehen, aus Vollkupfer müsste er die Wärme sehr gut von der CPU bekommen.

Wenn das MB dann unbedingt einen CPU-kühler will, könnte ich den 80er Lüfter vom Hotswap-Modul gegen einen PWM tauschen und an den Anschluss vom MB gehen.

Meinst Du der Versuch lohnt sich?

 

Eine kleine Sorge macht mir der Abstand des Lüfters vom Rechten Hotswap zum RAM. Der Lüfterliegt etwa 1 cm über dem RAM. ich hoffe dass der Luftstrom ausreicht und der RAM nicht zu warm wird.

 

Der Tipp mit den HDD-Dummies klingt einleuchtend, die werde ich mir auch zulegen. 😃

 

Was ich nun noch am Wochenende angepasst habe:

Die SSD für die VM's habe ich nun unterhalb des Netzteiles fest verbaut. Luftstrom dürfte dort in geringem Umfang stattfinden, genug Luft zum atmen hat sie auch.

Den freigewordenen Slot im Hotswap möchte ich nun mit einem USB3 Pinhead auf SATA-Daten belegen für meine Cold Backups. Der Strom kommt vom Netzteil. Das müsste doch dann im Plug'n Play funktionieren, 2 alternierende Platten mit dem Script von mgutt?

 

 

 

 

 

 

Link to comment
  • 1 month later...

Zwischenstand:

Mittlerweile läuft bei mir erfolgreich meine Nextcloud, diverse Shares, sogar ein Gameserver.

VM folgt als nächstes und hoffentlich gibt es irgendwann mal wieder eine akzeptable und effiziente Grafikkarte a la GTX 1660S zu kaufen..

 

Nun komme ich zum Stromverbrauch, der kommt mir noch etwas hoch vor.

 

Die Hardware:

Mainboard: GIGABYTE C246M-WU4

PSU: Corsair SF450 Platinum

CPU: XEON E-2278G

CPU-Kühler: ARCTIC Alpine 12 CO

RAM: 2xKingston KSM32ED8/32ME // 64 GB ECC

NVMe: Kingston A2000 1 TB

          WD Black SN750 1 TB

Cages: ICY DOCK FlexCage MB975SP-B R1 mit Arctic F8 PWM Lüfter 80mm

           ICY DOCK flexyDOCK MB830SP-B- mit Arctic F8 Silence Lüfter 80mm

Gehäuselüfter: 1x Nanum SE-F6010 60mm

USB-Stick: Transcend JetFlash 600

Disks: 2x WD RED PLUS 14 TB CMR

          1x 8 TB WD WHITE CMR

          1x 8 TB Seagate Barracuda SMR

 

Im Bios habe ich CEC, ERP und alle C-States aktiviert, sonst habe ich (noch) keine Änderungen vorgenommen.

In Unraid über Powertop -autotune laufen lassen und ins go-file geschrieben.

 

States sehen m.E. auch gut aus:

powertop1.thumb.jpg.f96e65fd180bf4d1d8f6a2370fe7142f.jpg

 

Mein Messgerät ist ein DECT200 misst, wenn alle Docker gestoppt sind und alle Festplatten im Spin-Down sind, 17-18W.

 

@mgutt, hardwaretechnisch habe ich mich weitgehend an Deine Empfehlungen gehalten und ich denke Du bist gerade beim Stromsparen sehr erfahren.

Sind 17-18W im reinen Idle bei meiner Hardware denn realistisch oder kann ich noch über diverse Einstellungen im Bios den Stromverbrauch optimieren?

 

Ich brauche an Anschlüssen am MB eigentlich nur die beiden internen USB 2 Header und später für die VM's wahrscheinlich den Audio-Controller?

 

Ich danke Dir für Deine Rückmeldung 

 

 

 

 

Link to comment

Ich tippe mal stark auf diese Cages, also dass die einen entsprechenden Eigenverbrauch haben. Klemm mal einen leeren Cage komplett ab während du misst.

 

Über Einstellungen optimierst du sonst nichts mehr. Da muss was Strom verbrauchen. ~3W gehen übrigens zu Lasten des Netzteils.

Link to comment
1 hour ago, mgutt said:

Ich tippe mal stark auf diese Cages, also dass die einen entsprechenden Eigenverbrauch haben. Klemm mal einen leeren Cage komplett ab während du misst.

 

Über Einstellungen optimierst du sonst nichts mehr. Da muss was Strom verbrauchen. ~3W gehen übrigens zu Lasten des Netzteils.

 

Okay, danke für Deine Einschätzung. Das werde ich spätestens am Wochenende testen. Das eine Cages hat "nur" eine Lüftersteuerung mit den Stellungen AUTO-LO-HI, da probiere ich mal rum. Das andere hat sogar nur ein manuelles Poti vorne. ansonsten hat jede Disk eine eigne LED und eigenen Port für Strom und Data vom MB.

Falls dem aber wirklich so ist, dass daher der höhere Verbrauch kommt, müsste ich mir eine andere "Hot-Plug" Lösung für die zwei Schächte überlegen.

In diesem Zuge könnte ich auch schauen ob ein ATX Netzteil durch die Platzersparnis passt, dann könnte ich auch dort nochmal Hand anlegen..

 

Nur um nochmal Klarheit zu bekommen:

Im Bios brauche ich nichts weiter suchen zum Deaktivieren wie USB-Ports, Controller, LAN-Ports, "Turbo" Einstellungen oder was es alles so geben könnte? CEC, ERP und C-States enabled genügen aus Deiner Erfahrung?

 

Ich möchte bei Gelegenheit noch eine 10GBit und eine GPU Karte nachrüsten, da fürchte ich mich ein wenig vor dem Stromverbrauch bei den jetzigen Werten.

 

 

 

 

Edited by Digikus
Link to comment
1 hour ago, Digikus said:

Im Bios brauche ich nichts weiter suchen

Nein. Du bist bereits auf C8. USB Ports usw wurden bereits deaktiviert.

 

Audio in der Regel auch. Nur manchmal bringt es was Audio im BIOS zu deaktivieren. Aber auch nur noch 0,5 bis 1W. Daran liegt es also nicht.

 

Denk dran. C8 wirst du mit GPU oder 10G Karte verlieren. Da kommt dann noch einiges dazu. Alleine durch die GPU.

 

1 hour ago, Digikus said:

Das eine Cages hat "nur" eine Lüftersteuerung

Ich ging bisher auch nicht davon aus, dass die Käfige sonderlich was ziehen könnten, aber du darfst das jetzt für uns herausfinden 😁

Link to comment
On 6/15/2021 at 10:52 AM, Digikus said:

RAM: 2xKingston KSM32ED8/32ME // 64 GB ECC

 

Kannst du mal bitte nur mit einem Modul booten? Nicht wegen dem Stromverbrauch, sondern andere, die auch das Board haben, können mit nur einem Modul nicht booten und ich frage mich nun ob das evtl eine Einschränkung vom Board sein könnte. Obwohl mein Board mit nur 1x Samsung 32GB M391A4G43MB1-CTD problemlos gebootet hat.

Link to comment
2 hours ago, mgutt said:

Kannst du mal bitte nur mit einem Modul booten? Nicht wegen dem Stromverbrauch, sondern andere, die auch das Board haben, können mit nur einem Modul nicht booten und ich frage mich nun ob das evtl eine Einschränkung vom Board sein könnte. Obwohl mein Board mit nur 1x Samsung 32GB M391A4G43MB1-CTD problemlos gebootet hat.

 

Kann ich gerne machen, werde spätestens am Wochenende dazu kommen den Server wieder aus dem Keller zu holen um diverse Messungen und Tests zu machen.

 

Haben alle für den Fall der 1x 32GB ECC RAM's schon das BIOS update durchgeführt? Das war ja mein Problem aus diesem Thread, da wurden auf Version 1 kein 32GB ECC RAM erkannt: 

 

 

 

 

Link to comment
On 6/16/2021 at 11:47 AM, mgutt said:

Kannst du mal bitte nur mit einem Modul booten? Nicht wegen dem Stromverbrauch, sondern andere, die auch das Board haben, können mit nur einem Modul nicht booten und ich frage mich nun ob das evtl eine Einschränkung vom Board sein könnte. Obwohl mein Board mit nur 1x Samsung 32GB M391A4G43MB1-CTD problemlos gebootet hat.

 

Ich habe gestern Abend noch etwas Zeit gefunden und konnte etwas testen.

Der Server startet wie erwartet auch mit nur einem Riegel 32GB RAM ohne Probleme.

Also tippe ich in den anderen Fällen auch erst einmal auf das notwendige BIOS Update des MB mit Hilfe eines kleinen RAM.

 

 

Zum Stromverbrauch bin ich auch ein kleines Stück weitergekommen.

Habe nochmal 2 Lüfter getauscht und habe jetzt 16,5 Watt im Idle.

 

Wenn ich mir das zusammenrechne kommt das wahrscheinlich am Ende sogar hin.

- Der Xeon mit seinen 8 Kernen verbraucht sicher einen Tick mehr, als die Modelle mit 4 oder 6 Kernen

- Dazu das Netzteil mit seinen 3 Watt mehr-Verlust,

- Zwei 80mm Lüfter mit jeweils 1 Watt im Dauerbetrieb,

- Zwei 60mm Gehäuselüfter mit jeweils 1 Watt im Dauerbetrieb,

- Die zweite NVMe im Raid 0 Verbund zieht sicher auch nochmal 1 Watt,

 

So komme ich ja schon auf 6 Watt plus dem XEON mit seiner möglichen Mehrleistung

 

Den kleineren Käfig habe ich im Betrieb mal abgestöpselt, das waren so ca. 1,5-2 Watt weniger, wovon der Lüfter 1 W ausmacht und 0,5-0,7 müsste die HDD im Standby haben.

Jetzt läuft erst einmal die Wiederherstellung einer Disk da noch eine notgedrungen drin war (Ohne HDD schaltet der Lüfter ab und es lässt sich nichts messen).

Den größeren Cage mit den 5 LED's habe ich daher noch nicht testen können. Tippe da aber auch nur auf maximal 1-2 Watt Mehrverbrauch durch die LED's mit Elektronik und Lüftersteuerung. Vielleicht kann ich mich da nochmal rantrauen, wenn ich rausbekomme, wie ich das mit den HDDs machen kann, ohne dass sie dann deaktiviert werden und bei Reaktivierung ein neuer Parity Check notwendig wird.

 

Wie würdest Du das einschätzen @mgutt, lohnt sich das weitertesten oder sollte ich den Verbrauch so hinnehmen?

Würde ich den Deckel dauerhaft abnehmen, könnte ich mir die zwei Gehäuselüfter wohl sparen und noch sparsamere 80mm Lüfter für die HHD's verwenden. 

Vielleicht spreche ich noch einen Freund an, ob er mir nicht ein Lochblech als Ersatz biegen kann, dann wäre noch immer alles "geschlossen" und ich könnte mir dennoch die Gehäuselüfter sparen..

 

Wünsche einen angenehmen Start in die neue Woche!

 

PXL_20210620_205710205_MP.thumb.jpg.94f81952029688af24bb5d8e493a0d9d.jpg

 

 

 

Link to comment
11 minutes ago, Digikus said:

sollte ich den Verbrauch so hinnehmen?

Bei Unraid bietet es sich ja eigentlich an PWM geregelte Lüfter für die HDDs zu verwenden. Also je nach Last der HDDs, dann eine entsprechend angepasste Lüfterkurve, die dann auch den Verbrauch reduziert. Aber da du die Hot-Swap-Gehäuse haben wolltest, musst du denke ich einfach damit leben. Komfort schlägt hier einfach mal ausnahmsweise den Verbrauch 😉

 

Selbst wenn du die jetzt zB direkt auf dem Board anklemmst zB mit einem 3-fach Adapter an dem CPU oder Gehäuse Fan Anschluss, kann es durch das enge Gehäuse selbst bei Stillstand der HDDs ja schon recht warm werden. Daher lass sie lieber auf Dauerlauf.

 

Was du meine ich noch gar nicht eingerechnet hast, ist der CPU Lüfter. Und ob das RAID wirklich nur 1W zieht, weiß ich ehrlich gesagt selbst nicht. Das wollte ich unbedingt mal testen. Jedenfalls bist du ja ohne das Zubehör ja eh schon bei 10W. Wenn die CPU davon 1W ausmacht, bist du bei 9W. Sind es eher 2W wegen der zusätzlichen Kerne, sogar 8W. Und tiefer kommst du eh nicht.

 

17 minutes ago, Digikus said:

Vielleicht kann ich mich da nochmal rantrauen, wenn ich rausbekomme, wie ich das mit den HDDs machen kann, ohne dass sie dann deaktiviert werden und bei Reaktivierung ein neuer Parity Check notwendig wird.

Evtl wäre es einfacher mit einem Ubuntu Stick zu booten und dann zu messen. Ohne Installation läuft Ubuntu dann ja auch im RAM und die Platten kannst du abklemmen wie du magst.

 

Interessant wäre ja jetzt wirklich welche Lüfterhersteller eigentlich besonders sparsam sind.

Link to comment
25 minutes ago, mgutt said:

Bei Unraid bietet es sich ja eigentlich an PWM geregelte Lüfter für die HDDs zu verwenden. Also je nach Last der HDDs, dann eine entsprechend angepasste Lüfterkurve, die dann auch den Verbrauch reduziert. Aber da du die Hot-Swap-Gehäuse haben wolltest, musst du denke ich einfach damit leben. Komfort schlägt hier einfach mal ausnahmsweise den Verbrauch 😉

 

Selbst wenn du die jetzt zB direkt auf dem Board anklemmst zB mit einem 3-fach Adapter an dem CPU oder Gehäuse Fan Anschluss, kann es durch das enge Gehäuse selbst bei Stillstand der HDDs ja schon recht warm werden. Daher lass sie lieber auf Dauerlauf.

 

Was du meine ich noch gar nicht eingerechnet hast, ist der CPU Lüfter. Und ob das RAID wirklich nur 1W zieht, weiß ich ehrlich gesagt selbst nicht. Das wollte ich unbedingt mal testen. Jedenfalls bist du ja ohne das Zubehör ja eh schon bei 10W. Wenn die CPU davon 1W ausmacht, bist du bei 9W. Sind es eher 2W wegen der zusätzlichen Kerne, sogar 8W. Und tiefer kommst du eh nicht.

 

Evtl wäre es einfacher mit einem Ubuntu Stick zu booten und dann zu messen. Ohne Installation läuft Ubuntu dann ja auch im RAM und die Platten kannst du abklemmen wie du magst.

 

Interessant wäre ja jetzt wirklich welche Lüfterhersteller eigentlich besonders sparsam sind.

 

Ja ich denke deine Zusammenrechnung kommt hin. Dann versuche ich die zwei Gehäuselüfter noch zu eliminieren und somit auf etwa 15 Watt zu kommen. Damit wäre ich schon sehr happy mit der Konfiguration.

 

Ich würde das mit dem Raid testen auch übernehmen, kann ich einfach die Zweite NVMe rausnehmen aus dem Cache und damit das Raid auflösen, oder ist der Cache mit den Dockern etc. dann ebenfalls hinüber? Ein echtes Raid teilt ja die Datein auf..

 

Und aus reiner Neugier:

Wie passt man den die Lüfterkurve entsprechend der HDDs oder auch überhaupt an in Unraid?

Oder macht man das über das BIOS?

 

Das mit dem Ubuntu-Stick zum testen ist nochmal ein guter Hinweis, so zerschieße ich mir mein Array wenigstens nicht beim nächsten Mal 🙂

 

 

 

Link to comment
11 minutes ago, Digikus said:

Ich würde das mit dem Raid testen auch übernehmen, kann ich einfach die Zweite NVMe rausnehmen aus dem Cache und damit das Raid auflösen, oder ist der Cache mit den Dockern etc. dann ebenfalls hinüber? Ein echtes Raid teilt ja die Datein auf..

Damit habe ich noch nie experimentiert. Besser Backup machen (sollte man ja sowieso). Und noch besser wäre es die Shares, die permanent auf dem Cache liegen auf "Yes" zu stellen, Docker und VM Dienst deaktiviere und den Mover anzuwerfen, damit er die SSDs leert.

 

12 minutes ago, Digikus said:

Wie passt man den die Lüfterkurve entsprechend der HDDs oder auch überhaupt an in Unraid?

 

Da quälen sich bereits ein paar mit ^^

https://forums.unraid.net/topic/109106-cache-ssd-hat-gleiche-geschwindigkeit-wie-paritäts-hdd-hdd-temperatursteuerung/

 

 

 

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.