-
Posts
369 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by Mor9oth
-
-
1 hour ago, DataCollector said:
Wenn man mehr Luftzug will, müßte man dann wohl den Lüfter gegen ein Modell mit mehr Kraft austauschen, was dann aber meist auch mehr Strombedarf bedeutet.
Ich bin dabei meine damals verbauten Arctiv F12 gegen P12 auszutuaschen.
Ich denke ich skippe hot-swapp aber ganz und lege mehr Wert auf ein offenes Gehäuse-Design in dem ich mit möglichst wenig Luftzug auskomme. Das RM44 finde ich da besonders interessant.
Weißt du was die P12 Lüfter verbrauchen?
Edit: 1 Watt laut Amazon.
-
1 hour ago, EL-Diablo said:
ich hatte das Gehäuse kurze Zeit, die Kühlung für die Hdds ist sehr bescheiden
Vermutlich kommt durch die HDD-Rahmen viel zu wenig Luft. Danke fürs Feedback!
-
On 7/31/2023 at 5:52 PM, DataCollector said:
Fazit: Hotswapping selber hat kaum einen Einfluß auf den Stro9mverbrauch. Aber der Extraufwand, der bei solch eng gebauten Wechselrahmen noch vorhanden ist, kann schon ins Gewicht fallen.
EDIT: Siehe Screenshot
Sowas pasiert, wenn bei einem Plattenstapel unter Vollast die Kühlung nicht ausreicht. 3mal Totalschaden.
Vielen Dank! Denke, dass die Kühlung, zumindest mit eher langsam drehenden Lüftern da schon echt ein Problem sein könnte. Da müsste schon eher mehr Druck da sein. Klar, kann man nicht verallgemeinern, bei einigen Gehäusebauarten frage ich mich aber schon, was man sich da bzgl. Airflow gedacht hat. Auch, dass so viele Gehäuse vorne einfach zu sind und die Luft durch paar seitliche Schlitze kommen soll, ist ein erstaunlicher Trend.
Bei der Gehäusewahl wollte ich jetzt aber irgendwie auch nicht, dass es so nach einem typischen PC aussieht. Ich habe heute ein interessantes Case entdeckt. Das SilverStone RM44. Besonders gut gefällt mir, dass es vorne offen ist. Man kann bei Bedarf vorne 3 120 mm Fans nebeneinander installieren. Alles dahinter bekommt also gut Luft. Hinter den Lüftern kann man dann HDDs/SSDs an einer Metallleiste montieren. Aber durch die Montagelöcher könnte man kreativ werden und HDD/SSD Käfige für noch mehr Laufwerke - oder mehr Platz zwischen diesen installieren. Man kann es in ein Rack schieben oder wie ein PC-Gehäuse horizontal/vertikal aufstellen.
-
Was haltet ihr von dem SilverStone CS351 case und ist hot-swapping ein messbares Kriterium was Stromsparen angeht?
https://geizhals.de/silverstone-case-storage-cs351-schwarz-sst-cs351-a2661713.html?hloc=at&hloc=de
-
57 minutes ago, DataCollector said:
Ergänzung:
https://www.golem.de/news/stromfresser-warum-pci-express-5-0-ssds-so-heiss-werden-2307-176026.html
Hier haben die von Golem mal eien Crucial T700 2TB (PCIe 5.0) NVMe SSD nal mit 5.0, 4.0, 3.0 und sogar 1.1 Idle gemessen.
Dann bleibe ich ja gerne bei PCIe 3.0. In meinem bisherigen Server kam mir aber auch da die 3.0 M.2 (970 EVO Plus) ziemlich heiß vor. Hatte daher nach mehreren passiven Kühlern so ein Teil dran (screenshot). War immer noch das mit Abstand heißeste Gerät mit über 50 Grad. Dann muss ja V 4.0 und V 5.0 pervers heiß werden.
-
21 minutes ago, mgutt said:
Ja, denn aktive PCIe 4.0 Lanes benötigen doppelt so viel Strom.
Da ist ja auch wieder SK hynix bei PCIe 3.0 ganz vorne. Vielleicht muss ich dann halt auf 4 TB verzichten und einfach die SK hynix Gold P31 mit "nur" 2 TB nehmen. Allerdings wäre dann unter 100 Euro schon gut.
-
17 minutes ago, mgutt said:
Ja, denn aktive PCIe 4.0 Lanes benötigen doppelt so viel Strom. Das würde sich lohnen, wenn man doppelt so schnell die Daten verarbeiten würde, aber gerade bei einem NAS kommt man ja selten an das Limit der NVMe um die Zeiträume zu reduzieren, wo die Lanes aktiv sind. Soll heißen, egal ob PCIe 3.0, 4.0 oder 5.0, die NVMe ist überall quasi gleich lange aktiv, verbraucht dann aber je nach Version mehr Strom. Siehe auch:
https://www.anandtech.com/show/16087/the-samsung-980-pro-pcie-4-ssd-review/8
Also sogar eine PCIe 4.0 NVMe ist mit 3.0 sparsamer, eben weil PCIe abwärtskompatibel ist.
Ich halte das übrigens für gelogen, dass NVMe ohne DRAM sparsamer sind. Man misst nämlich nur den Verbrauch der NVMe. Dass die Nutzung des HMB aber durch den Rest des Boards ganz sicher auch Strom verbraucht, wird einfach ausgeblendet. Und ich bezweifle, dass die "lange Leitung" zum RAM, der außerhalb der NVMe liegt, weniger Strom verbraucht als RAM, der direkt am NVMe Controller hängt.
Wow, sehr detailreich! Vielen Dank!
-
Das bestellt Board W680D4U-2L2T/G5 kann eh nur PCIe 3.0. daher habe ich mal so gefiltert:
https://geizhals.de/?cat=hdssd&sort=-r&xf=252_3840~4643_SLC-Cache~4836_7~7127_30.04
Habe dann mal eben Platz 2 (bzw. eine Generation drunter) aus der Liste (Tom's Hardware von mgutt verlinkt) mit einer günstigen aus dem Filter-Ergebnis versucht zu vergleichen.
-
Spricht was abgesehen vom Preis gegen die?
Western Digital WD_BLACK SN750 NVMe SSD 4TB, M.2 -> 142 Euro / TB
https://geizhals.de/western-digital-wd-black-sn750-nvme-ssd-4tb-wds400t3x0c-00sjg0-dbrpg0040bnc-wrsn-a2473936.html?hloc=at&hloc=deMushkin Element NVMe SSD 4TB, M.2 -> wäre deutlich günstiger 78 Euro / TB
https://geizhals.de/mushkin-element-nvme-ssd-4tb-mknssdev4tb-d8-a2849955.html?hloc=at&hloc=de
-
9 minutes ago, DataCollector said:
Ich gehe mal davon aus, daß der Eintrag "Autotrim" in den Pooleinstellungen beachtet wird.
Danke! Da war ich wohl noch nie drin 🙈
-
On 7/6/2023 at 1:25 AM, mgutt said:
Am effizientesten ist wohl SK Hynix, aber die sind selten im Angebot:
https://www.tomshardware.com/reviews/sk-hynix-platinum-p41-ssd-review/2
Bei Geizhals finde ich nur ein Angebot über Amazon von SK Hynix selbst. Während die Evo schon für deutlich unter 100 € für 2 TB zu haben war, liegt die SK Hynix bei 130 €. Da bringt dann auch die Effizienz nichts mehr. Wobei ich selbst auch nach SSDs ab 4TB suche.
Ableitend wären dann ja die WD_Black SN850 sowie die SK hynix Gold P31 ebenfalls noch sehr effizient. Die WD_Black SN850 mit "X" gibt es auch als 4 TB. Ist es denn aus Stromsparsicht ein Vorteil auf PCIE 3.0 statt 4.0 zu setzen?
-
23 hours ago, DataCollector said:
Und ich möchte mit einem Bild belegen, daß die SSDs wohl auch im zfs (raid5 ähnlichen) Verbund bei 'nicht Benutzung' sehr wohl schlafen.
Vielen Dank für die interessanten Informationen! Wie ist es hier aber mit Trim? Im Array wäre es ja ev. problematisch und daher der einzige negative Aspekt.
-
18 minutes ago, mgutt said:
Vom Verbrauch her erwarte ich keinen Unterschied, da die Kühlkörper von dem 10G Controller auch nicht sonderlich unterschiedlich sind
Das W680D4U-2L2T/G5 ist immerhin günstiger als das W680D4ID-2T/G5/X550.
Kann mir aber auch gut vorstellen, dass ASRock wieder insgesamt stromhungrige Boards bringt.
-
3 hours ago, Mor9oth said:
Hier etwas günstiger
Hatte es für 641 Euro - nun haben die den Kauf storniert und dann den Preis erhöht. 🤬
-
Welches wird dann wohl sparsamer sein:
W680D4U-2L2T/G5 oder W680D4ID-2T G5 X550?
W680D4ID-2T G5 X550 hat ja mehr pcie Plätze, dafür 2x das neuere 10 GBe.
-
-
43 minutes ago, mgutt said:
Man kann es nun kaufen, aber der Preis ist krank:
Ist aber das mit x550 10 GBe. Würdest du das nehmen oder auf das andere warten?
-
So sieht meine Auswahl in der Zwischenzeit aus:
- MB: W680D4U-2L2T/G5 ev. Tausch zu W680D4ID-2T
- CPU: Intel i7-13700T
- RAM: 2x Kingston 32 GB 4800MT/s DDR5 ECC (KSM48E40BD8KM-32HM)
- SSD: 4 x 8 TB 870 QVO (SSD-Only Array)
- Cache: 4 TB M.2
- PSU: Corsair RM550x (2021)
- Fans: Noctua Redux PWM 1300
Case bin ich mir noch unsicher. Wenn das Define 7 dann vermutlich mit passiver CPU-Kühlung: Noctua NH-P1. Vielleicht aber auch eher ein kleineres Case, dann natürlich ein kleinerer CPU-Kühler.
-
3 hours ago, mgutt said:
Ich sag ja ich brauche diesen Bambulabs 3D Drucker 😁
Ein weiterer Grund für den Kauf! 😜
-
3 hours ago, mgutt said:
Im RAID würden die SSDs durchgehend laufen. Das ist kontraproduktiv für den Stromverbrauch. Ich würde mit der Situation ohne TRIM leben. Ich denke damit würde es eh erst Nachteile geben, wenn man die über 90% belegt. Wobei man beim Array ja normalerweise die niedrigere Geschwindigkeit kennt und die QVO drosseln beim dauerhaften Schreiben ja eh schon auf 160 MB/s.
Danke dir! Ich probiere, das denke ich tatsächlich mit dem neuen Server aus. Habe mir gestern spontan noch das ASRock W680D4U-2L2T/G5 gekauft und werde das mal austesten. Nicht meine erste Wahl, ein Versuch ist es denke ich Wert. Viel Auswahl bei kleineren W680 Boards gibt es ja eh (leider) nicht.
Vielleicht gibt das W680D4U-2L2T/G5 ja eine grobe Richtung, wohin das W680D4ID-2T bzgl. Verbrauch und ASPM-Fähigkeit gehen wird. Vielleicht tausche ich es ja dann mit dem Deep Mini-ITX aus, sollte das jemals in den Verkauf gehen.
-
An das W680D4ID-2T/G5/X550 denke ich aufgrund der Situation auch schon - wobei mir da halt X550 bzgl. C-States Sorgen bereitet.
-
-
Die SSDs sind da 😍
Der alte Server ist auch verkauft. Jetzt kann es losgehen mit dem neuen Server.
Jetzt brauche ich "nur" noch ein kleineres W680 Mainboard, um starten zu können. Das scheint das größte Problem überhaupt zu sein. Leider ja nur ASRock Rack mit zwar vielen interessanten Boards auf der Website, allerdings kaum was zum Verkauf. Bei den Preisen und der seltenen Listung frage ich mich langsam auch, ob die extrem geringe Stückzahlen produzieren. Echt frustrierend. Das W680D4ID-2T scheint nach bald einem Jahr immer noch nirgends verfügbar zu sein und die X550 Variante kostet fast 800 Euro! 😑
-
5 hours ago, DataCollector said:
Alle SSDs als zfs Raid5 zusammenfassen: ja, bei 3 gleich großen SSD bedeutet es, das die Kapazität einer der SSD für die Parität benutzt wird und die Nutzkapazität dann eben nur noch 2 der SSD groß ist.
3x 8TB in zfs (Raid5 artigem) Pool: ca. 16TB Nutzkapazitär und wenn eine der SSD ausfällt fängt die dritte das mit ab.
Bei 4 SSDs mit je 8 TB, wie in meinem Fall, sind es laut RAIDZ Calculator dann 24 nutzbare TB und ebenfalls eine 8 TB Parität.
Nicht noch ein stromsparender Server …
in NAS/Server Eigenbau & Hardware
Posted
Nimmst die dann mit PST?