Jump to content

Mor9oth

Members
  • Posts

    369
  • Joined

  • Last visited

Posts posted by Mor9oth

  1. 1 hour ago, DataCollector said:

    Wenn man mehr Luftzug will, müßte man dann wohl den Lüfter gegen ein Modell mit mehr Kraft austauschen, was dann aber meist auch mehr Strombedarf bedeutet.

    Ich bin dabei meine damals verbauten Arctiv F12 gegen P12 auszutuaschen.

    Ich denke ich skippe hot-swapp aber ganz und lege mehr Wert auf ein offenes Gehäuse-Design in dem ich mit möglichst wenig Luftzug auskomme. Das RM44 finde ich da besonders interessant.

    Weißt du was die P12 Lüfter verbrauchen?

    Edit: 1 Watt laut Amazon.

  2. On 7/31/2023 at 5:52 PM, DataCollector said:

    Fazit: Hotswapping selber hat kaum einen Einfluß auf den Stro9mverbrauch. Aber der Extraufwand, der bei solch eng gebauten Wechselrahmen noch vorhanden ist, kann schon ins Gewicht fallen.

     

    EDIT: Siehe Screenshot

    Sowas pasiert, wenn bei einem Plattenstapel unter Vollast die Kühlung nicht ausreicht. 3mal Totalschaden.

    Vielen Dank! Denke, dass die Kühlung, zumindest mit eher langsam drehenden Lüftern da schon echt ein Problem sein könnte. Da müsste schon eher mehr Druck da sein. Klar, kann man nicht verallgemeinern, bei einigen Gehäusebauarten frage ich mich aber schon, was man sich da bzgl. Airflow gedacht hat. Auch, dass so viele Gehäuse vorne einfach zu sind und die Luft durch paar seitliche Schlitze kommen soll, ist ein erstaunlicher Trend.

     

    Bei der Gehäusewahl wollte ich jetzt aber irgendwie auch nicht, dass es so nach einem typischen PC aussieht. Ich habe heute ein interessantes Case entdeckt. Das SilverStone RM44. Besonders gut gefällt mir, dass es vorne offen ist. Man kann bei Bedarf vorne 3 120 mm Fans nebeneinander installieren. Alles dahinter bekommt also gut Luft. Hinter den Lüftern kann man dann HDDs/SSDs an einer Metallleiste montieren. Aber durch die Montagelöcher könnte man kreativ werden und HDD/SSD Käfige für noch mehr Laufwerke - oder mehr Platz zwischen diesen installieren. Man kann es in ein Rack schieben oder wie ein PC-Gehäuse horizontal/vertikal aufstellen.

     

    vorne-offen.thumb.jpg.6c2451ce7d121de752ab1a406d13981f.jpg

     

     

    chrome_CuMI0T84pI.thumb.png.c8f8c8d342cee2c84ce53ecad92ed5f5.png

  3. 57 minutes ago, DataCollector said:

    Ergänzung:

    https://www.golem.de/news/stromfresser-warum-pci-express-5-0-ssds-so-heiss-werden-2307-176026.html

    Hier haben die von Golem mal eien Crucial T700 2TB (PCIe 5.0) NVMe SSD nal mit 5.0, 4.0, 3.0 und sogar 1.1 Idle gemessen.

    Dann bleibe ich ja gerne bei PCIe 3.0. In meinem bisherigen Server kam mir aber auch da die 3.0 M.2 (970 EVO Plus) ziemlich heiß vor. Hatte daher nach mehreren passiven Kühlern so ein Teil dran (screenshot). War immer noch das mit Abstand heißeste Gerät mit über 50 Grad. Dann muss ja V 4.0 und V 5.0 pervers heiß werden.

     

    chrome_RaRS0UxRYB.png.7f5640556d817c62ab1c1888f9340b3a.png

  4. 17 minutes ago, mgutt said:

    Ja, denn aktive PCIe 4.0 Lanes benötigen doppelt so viel Strom. Das würde sich lohnen, wenn man doppelt so schnell die Daten verarbeiten würde, aber gerade bei einem NAS kommt man ja selten an das Limit der NVMe um die Zeiträume zu reduzieren, wo die Lanes aktiv sind. Soll heißen, egal ob PCIe 3.0, 4.0 oder 5.0, die NVMe ist überall quasi gleich lange aktiv, verbraucht dann aber je nach Version mehr Strom. Siehe auch:

    https://www.anandtech.com/show/16087/the-samsung-980-pro-pcie-4-ssd-review/8

    Screenshot_20230730-162157.thumb.png.c4c5e2365739c3eb8ca67759f7d40c02.png

     

    Also sogar eine PCIe 4.0 NVMe ist mit 3.0 sparsamer, eben weil PCIe abwärtskompatibel ist.

     

    Ich halte das übrigens für gelogen, dass NVMe ohne DRAM sparsamer sind. Man misst nämlich nur den Verbrauch der NVMe. Dass die Nutzung des HMB aber durch den Rest des Boards ganz sicher auch Strom verbraucht, wird einfach ausgeblendet. Und ich bezweifle, dass die "lange Leitung" zum RAM, der außerhalb der NVMe liegt, weniger Strom verbraucht als RAM, der direkt am NVMe Controller hängt.

    Wow, sehr detailreich! Vielen Dank! 

  5. On 7/6/2023 at 1:25 AM, mgutt said:

    Am effizientesten ist wohl SK Hynix, aber die sind selten im Angebot:

    https://www.tomshardware.com/reviews/sk-hynix-platinum-p41-ssd-review/2

    kWbPgVX396zoc97G2EHzrL.thumb.png.f87c061c8f2a9347e0cb0d27653950a8.png

     

    Bei Geizhals finde ich nur ein Angebot über Amazon von SK Hynix selbst. Während die Evo schon für deutlich unter 100 € für 2 TB zu haben war, liegt die SK Hynix bei 130 €. Da bringt dann auch die Effizienz nichts mehr. Wobei ich selbst auch nach SSDs ab 4TB suche.

    Ableitend wären dann ja die WD_Black SN850 sowie die SK hynix Gold P31 ebenfalls noch sehr effizient. Die WD_Black SN850 mit "X" gibt es auch als 4 TB. Ist es denn aus Stromsparsicht ein Vorteil auf PCIE 3.0 statt 4.0 zu setzen?

  6. So sieht meine Auswahl in der Zwischenzeit aus:

    • MB: W680D4U-2L2T/G5 ev. Tausch zu W680D4ID-2T
    • CPU: Intel i7-13700T
    • RAM: 2x Kingston 32 GB 4800MT/s DDR5 ECC (KSM48E40BD8KM-32HM)
    • SSD: 4 x 8 TB 870 QVO (SSD-Only Array)
    • Cache: 4 TB M.2
    • PSU: Corsair RM550x (2021)
    • Fans: Noctua Redux PWM 1300

     

    Case bin ich mir noch unsicher. Wenn das Define 7 dann vermutlich mit passiver CPU-Kühlung: Noctua NH-P1. Vielleicht aber auch eher ein kleineres Case, dann natürlich ein kleinerer CPU-Kühler. 

  7. 3 hours ago, mgutt said:

    Im RAID würden die SSDs durchgehend laufen. Das ist kontraproduktiv für den Stromverbrauch. Ich würde mit der Situation ohne TRIM leben. Ich denke damit würde es eh erst Nachteile geben, wenn man die über 90% belegt. Wobei man beim Array ja normalerweise die niedrigere Geschwindigkeit kennt und die QVO drosseln beim dauerhaften Schreiben ja eh schon auf 160 MB/s.

    Danke dir! Ich probiere, das denke ich tatsächlich mit dem neuen Server aus. Habe mir gestern spontan noch das ASRock W680D4U-2L2T/G5 gekauft und werde das mal austesten. Nicht meine erste Wahl, ein Versuch ist es denke ich Wert. Viel Auswahl bei kleineren W680 Boards gibt es ja eh (leider) nicht. 

     

    Vielleicht gibt das W680D4U-2L2T/G5 ja eine grobe Richtung, wohin das W680D4ID-2T bzgl. Verbrauch und ASPM-Fähigkeit gehen wird. Vielleicht tausche ich es ja dann mit dem Deep Mini-ITX aus, sollte das jemals in den Verkauf gehen.

  8. Die SSDs sind da 😍

     

    unnamed.thumb.jpg.320ad81f49a670a27460d4be3db6bb7a.jpg

     

    Der alte Server ist auch verkauft. Jetzt kann es losgehen mit dem neuen Server.

    Jetzt brauche ich "nur" noch ein kleineres W680 Mainboard, um starten zu können. Das scheint das größte Problem überhaupt zu sein. Leider ja nur ASRock Rack mit zwar vielen interessanten Boards auf der Website, allerdings kaum was zum Verkauf. Bei den Preisen und der seltenen Listung frage ich mich langsam auch, ob die extrem geringe Stückzahlen produzieren. Echt frustrierend. Das W680D4ID-2T scheint nach bald einem Jahr immer noch nirgends verfügbar zu sein und die X550 Variante kostet fast 800 Euro! 😑

     

     

  9. 5 hours ago, DataCollector said:

    Alle SSDs als zfs Raid5 zusammenfassen: ja, bei 3 gleich großen SSD bedeutet es, das die Kapazität einer der SSD für die Parität benutzt wird und die Nutzkapazität dann eben nur noch 2 der SSD groß ist.

    3x 8TB in zfs (Raid5 artigem) Pool: ca. 16TB Nutzkapazitär und wenn eine der SSD ausfällt fängt die dritte das mit ab.

    Bei 4 SSDs mit je 8 TB, wie in meinem Fall, sind es laut RAIDZ Calculator dann 24 nutzbare TB und ebenfalls eine 8 TB Parität. 

     

    chrome_KhgjguzGNQ.png.3ce98be9b678fdf1e32b55ea67dc6a93.png

     

    https://raidz-calculator.com/default.aspx

×
×
  • Create New...