NVMe SSD als Cache


renegade03

Recommended Posts

Mahlzeit,

 

so da mein Setup jetzt hardwareseitig so ziemlich steht, mal die Frage an die Experten hier zur Einteilung der Speichergeräte.

Der Server besteht im Prinzip aus einem NAS und ein paar VMs.

 

vorhanden sind: 2x NVMe SSD

                        4x HDD

                       2x SATA SSD (optional)

 

Das Mainboard ist das GIGABYTE C246M-WU4.

 

Grundsätzlich war mein Gedanke, die NVMe SSD als Raid 1 zu definieren über das Mainboard und diese dann als Cache zu nutzen.

Die 4 HDDs kommen in den Array. Die 2 SSDs hätte ich evtl als 2. Raid 1 pool laufen lassen für die wichtigen VMs (DomainController, Smarthome)

Diese haben ja nicht die großen Datenmengen, somit würde hier SATA völlig ausreichen.

Oder wäre es sinnvoller, alle VMs auf die NVMe raufzupacken und diese dann permanent im Betrieb zu haben und dafür auf die SSDs zu verzichten?

 

Bzw. Ist ein ZFS Raid mit plugins möglich? Habe gehört, BTRFS soll nicht so super sein.

 

Oder bin ich jetzt komplett falsch abgebogen, was den Aufbau angeht?

 

mfG

Rene

Link to comment
5 hours ago, renegade03 said:

vorhanden sind: 2x NVMe SSD

                        4x HDD

                       2x SATA SSD (optional)

Das Mainboard ist das GIGABYTE C246M-WU4.

Grundsätzlich war mein Gedanke, die NVMe SSD als Raid 1 zu definieren über das Mainboard und diese dann als Cache zu nutzen.

Die 4 HDDs kommen in den Array. Die 2 SSDs hätte ich evtl als 2. Raid 1 pool laufen lassen für die wichtigen VMs (DomainController, Smarthome)

Diese haben ja nicht die großen Datenmengen, somit würde hier SATA völlig ausreichen.

Oder wäre es sinnvoller, alle VMs auf die NVMe raufzupacken und diese dann permanent im Betrieb zu haben und dafür auf die SSDs zu verzichten?

Das hängt von der Nutzung ab.

Meine Erfahrung: wenn ich täglich einige hunderte GB bis ein paar TB am Stück (von extern über SMB) an Daten auf das Array schreiben will, ist ein SSD Cache sehr praktisch und flott. Ich hatte auch die Images für die (einzige) Win10-VM und wenige Docker auf den selben SSD (alle im Raid0 verbund), aber auch wenn eine SSD das locker wegstecken sollte, hat die VM nach einiger Zeit Probleme gezeigt alle Echtzeitaufgaben durchzuführen, trotz 128GB Ram im unraidSystem.

Seit ich die VM und Docker auf einer extra SSD habe, ist mir das noch nicht wieder passiert.

Ich war überrascht, aber ich würde wirklich dazu raten: wenn man viele Dateien über den Cache transferiert, den Cache und die VM/Docker auf unterschiedlichen Datenträgern/SSD zu platzieren.

Sollte man hingegen täglich nur ein paar MB bis einige Dutzend GB über den Cache auf das Array transferieren und dazu noch einen üppigen Ram haben, sollte sich das problemlos ausgleichen können, so daß man alles auch auf einer SSD ansiedeln kann.

Aber selbst wenn sich dann dich entsprechende Probleme zeigen, kann man ja die Shares mit den VM/Docker immer noch später auf einen extra Datenträger transferieren.

 

5 hours ago, renegade03 said:

Bzw. Ist ein ZFS Raid mit plugins möglich?

Nicht meine Baustelle. Dazu kann ich nichts sagen.

 

5 hours ago, renegade03 said:

Habe gehört, BTRFS soll nicht so super sein.

Ein Backup der wichtigen Daten sollte man bei allen Dateisystemen haben.

 

Link to comment

Um Deine Frage beantworten zu können, fehlt noch ein wichtiges Detail: Die LAN Geschwindigkeit.

 

Bei 1Gbe LAN reicht eine SATA SSD als Cache völlig aus, bei 10Gbe und schneller ist sie dann überfordert und man sollte zur NVMe greifen (aber einer guten, die meisten machen nach ein paar Gb am Stück schnell schlapp und der Rest kriecht dann vor sich hin. Also Tests lesen, auf "sustained write rate" achten und erst dann kaufen)

 

VMs und Docker sind sicherlich auf der NVMe besser aufgehoben, da sie lokal zugreifen profitieren sie von der höheren Geschwindigkeit

 

Ob die Pools RAID-1 haben müssen, muss jeder selber wissen. Die Schreibrate wird damit halbiert, der Zugewinn an Sicherheit ist überschaubar. Auf keinen Fall solltest Du das RAID-ing dem Motherboard überlassen, UNRAID kann damit nix anfangen, das RAID Array wird wahrscheinlich gar nicht angezeigt, selbst wenn, funktioniert die SMART Überwachung nicht.

 

BTFRS war mir auch zu mystisch und langsam, ich betreibe die Cache/Pools einfach mit XFS (ohne irgendwelchen RAID Schnick Schnack).

 

Man braucht eh ein aktuelles und funktionierendes externes Backup, da ist es egal, ob irgendwann eine der SSDs/NVMes kapput geht, ich restauriere dann den Inhalt schnell mit auf einer anderen Platte und kümmere mich erst danach um Austausch/Ersatz.

 

  • Like 1
Link to comment
41 minutes ago, marhal said:

MAM59, darf man Fragen mit welchen Tool du Backup erstellst ?

Meine "Lösung" wird Dir nicht helfen, ich hab einen Windows Server mit gleicher (bis auf die Parity Disk) Plattenkapzität und der geht einmal am Tag an.

Dann schlägt "robocopy" zu, kopiert alle Änderungen des Vortages auf die eigenen Platten (und sammelt alle 2Tb NVMes zusammen in Unterverzeichnissen einer ansonsten freien 10Tb (Normal) Platte).

So hab ich die Dateien bei Bedarf direkt im Zugriff und kann sie zurückschieben oder von dort aus verwenden.

Nach getanem Copy fährt die Kiste runter und ein paar Minuten später wird auch die Steckdose ganz abgeschaltet.

 

Update: bevor jemand auf die Idee kommt, das wäre aber teuer: das sind alles Restposten von meiner früheren Tätigkeit. Ich hatte viele Server in Betrieb und die werden nun alle nicht mehr gebraucht. Also ausgeschlachtet, die besten Teile recycled und den Rest an Bedürftige verschenkt (betteln zwecklos, bin seit 2 Jahren clean :-))) ). Da ist dann eben son I7 mit 64Gb Ram in einem 2U Gehäuse und 8 SAS Slots ein unterbeschäftigter Backupserver....

 

Edited by MAM59
Link to comment
5 hours ago, MAM59 said:

Um Deine Frage beantworten zu können, fehlt noch ein wichtiges Detail: Die LAN Geschwindigkeit.

Also Der Server soll 2x 1GBit Lan mit Link Aggregation oder aufgeteilt auf NAS und VM bekommen. Das muss ich in der Laufzeit testen. Später soll der Server aber über 10GBit über SFP+ an den Router angeschlossen werden.

Die Clients laufen alle zwischen 300MBit bis 1 GBit. Allerdings liegen die persönlichen Daten der Clients auf dem Array. Also wird es mehrere Zugriffe gleichzeitig geben. Zudem auch hier und da mal einen Stream, allerdings ist mein Traffic eher viele kleine Daten und nicht wenig große Files.

 

Das Backup wird regelmäßig auf einen externen Rechner mit rdx Laufwerk ausgeführt. Und da das Medium offline gelagert. Ist quasi offside und offline gleichzeitig.

Ich hätte die VMs regelmäßig in den Array geschrieben und diesen dann 1x wöchentlich aufs RDX gesichert und die Platte geswitcht.

 

10 hours ago, DataCollector said:

Sollte man hingegen täglich nur ein paar MB bis einige Dutzend GB über den Cache auf das Array transferieren und dazu noch einen üppigen Ram haben, sollte sich das problemlos ausgleichen können, so daß man alles auch auf einer SSD ansiedeln kann.

Aber selbst wenn sich dann dich entsprechende Probleme zeigen, kann man ja die Shares mit den VM/Docker immer noch später auf einen extra Datenträger transferieren.

Das war auch mein Plan. erstmal nur mit den 2 NVMe arbeiten und bei Bedarf später umsiedeln. Will halt auch so wenig wie möglich Platten im Dauerbetrieb haben, sondern was geht bei nichtnutzung schlafen legen.

 

1 hour ago, mgutt said:

Bleib erstmal bei einem RAID1 und schau wie es läuft. Die SATA SSDs lass erstmal weg. 

Das Raid1 über unraid und da die 2 NVMe rein oder?

Link to comment

Bin jetzt nicht so der NVMe Profi. Hab hier mal die Infrage kommenden SSDs verglichen.

 

Nur leider ist bei einigen Platten kein Verbrauch im Betrieb angegeben und dieser schwankt teils deutlich.

WD-Blue vs. 970-Evo = 5.1 Watt. Bei 2 Platten ist das ein Unterschied von 10 Watt. Das ist schon eine Hausnummer.

Leider hat die WD-Red nichts angegeben. Seltsamerweise die beiden anderen WD schon. Aber bei maximal liegt die Red eher an einer 970-Evo. Da diese Platten dauerhaft laufen will ich das natürlich möglichst sparsam. Kann mir einer mal den krassen Unterschied erklären?

NVMe-SSD.png

Link to comment
3 hours ago, renegade03 said:

Also Der Server soll 2x 1GBit Lan mit Link Aggregation

Also, das ist wahrscheinlich nicht das, was Du Dir davon erhoffst... "Link Aggregation" klingt so nach "schneller wirds", tuts aber nicht.

Ist entweder nur ne Ausfallsicherung der Leitung, oder eine Lastverteilung (von der man erst ab ein paar Dutzend Klienten wirklich was merkt)

 

3 hours ago, renegade03 said:

Allerdings liegen die persönlichen Daten der Clients auf dem Array

DAS ist meist auch eine schlechte Idee... die gehören sicherlich auf ein oder zwei NVMes

2 hours ago, renegade03 said:

Kann mir einer mal den krassen Unterschied erklären?

Der ist meist recht simpel: PCIe 4.0 ist doppelt so schnell wie 3.0, braucht dafür aber ordentlich mehr Saft.

Wenn Du bei 10GBe LAN bleiben willst, reicht 3.0 deutlich aus. Allerdingt gefällt mir persönlich aus Deiner Liste keine. Wie schon erwähnt, braucht man für den Cache bevorzugt ein Teil dass schnelles Schreiben über lange Zeit durchhalten kann. Bei Samsung sind das normalerweise die "PRO" Modelle (und "EVO" ist ein Hinweis aufs Gegenteil)

Bei WD weis ich nicht, hab glaubich nirgends eine und selbst wenn ist sie dann wohl durch meinen Test gefallen. Habe zumindest nirgendwo eine im Einsatz, wo Durchhaltevermögen gebraucht wird.

Aber, Du hast sicherlich andere Anforderungen, deshalb kann Dir niemand sagen, welche für Dich gut ist und von welcher man besser die Finger lässt.

("Lernen durch Schmerzen"). Wenn beim Schreiben von Windows die Übertragung schnell anfängt und nach einiger Zeit deutlich einbricht (oder gar komplett auf 0 geht), war es wohl die Falsche.

(4.0 Modelle sind vom Papier her schneller, in der Praxis merkt man das aber nicht. Sie brauchen nur mehr Strom und werden deutlich heißer)

 

Link to comment
2 hours ago, renegade03 said:

Bin jetzt nicht so der NVMe Profi. Hab hier mal die Infrage kommenden SSDs verglichen.

...

Die NVMe SSD (auch normale SATA SSD) benötigen die angegebe Maximalleistung nur, wenn diese auch kontinuierlich durchgehend 'ackern'.

Das passiert in der Regel eher bei durchgehendem Beschreiben/Lesen mit maximaler Geschwindigkeit.

Das sehe ich bei Deinem Szenario aber eher nicht.

Bei Dir werden über ein paar Sekunden Dateien gelesen, ab und zu auch einige Dateien geschrieben (aber oft zuerst in den Ram Cache) und in der Zwischenzeit wartet die SSD einfach darauf, dass sie etwas tun soll (weil ja auch der Ram erstmal zwischenpuffert). In der Zeit (Idle) gehen SSD (sofern dei Firmware nicht verbockt ist oder die gerade GarbageCollection oder so betreiben) selbstständig schon in verschiedene niedrisge Schlafzustände und benötigen in der Zeit dann sehr wenig Energie.

Man kan also sagen, daß SSD generell eigentlich schon von sich aus, versuchen immer den iedrigsten Verbrauchszustand zu erreichen. Daß sie dann in den eher kurzen Lastzeiten dann mal schlagartig 5 oder 12 W verballern ist der Geschwindigkeit/Features geschuldet.

Link to comment
37 minutes ago, MAM59 said:

Der ist meist recht simpel: PCIe 4.0 ist doppelt so schnell wie 3.0, braucht dafür aber ordentlich mehr Saft.

Sind allerdings alles PCIe 3.0x4. Also alle wirklich ähnliche Kriterien. Die WD-Red soll angeblich sehr gut dafür sein.

 

4 minutes ago, DataCollector said:

Bei Dir werden über ein paar Sekunden Dateien gelesen, ab und zu auch einige Dateien geschrieben (aber oft zuerst in den Ram Cache) und in der Zwischenzeit wartet die SSD einfach darauf, dass sie etwas tun soll (weil ja auch der Ram erstmal zwischenpuffert). In der Zeit (Idle) gehen SSD (sofern dei Firmware nicht verbockt ist oder die gerade GarbageCollection oder so betreiben) selbstständig schon in verschiedene niedrisge Schlafzustände und benötigen in der Zeit dann sehr wenig Energie.

Ja allerdings läuft ja meine VM mit dem Smarthome und die mit dem DomainController drauf. also sind sie eigentlich immer im Betrieb. Von Daher eben eine mit möglichst wenig Verbrauch.

Link to comment
16 minutes ago, renegade03 said:

VM mit dem Smarthome und die mit dem DomainController drauf. also sind sie eigentlich immer im Betrieb

Das sind Peanuts :-)))

 

@DataCollector und ich haben da eher so "Schreibe 100Gb am Stück mit voller LAN Power..." im Hinterkopf.

 

Bei den schlaffen VMs kannst Du sie auch gleich auf ne SATA-SSD packen, die langweilt sich dann immer noch zu Tode 🙂

 

(Übertreibung macht anschaulich, aber echt, da liegen ein paar Zehnerpotenzen von Datengrößen zwischen)

 

Link to comment
2 hours ago, MAM59 said:

Bei den schlaffen VMs kannst Du sie auch gleich auf ne SATA-SSD packen, die langweilt sich dann immer noch zu Tode 🙂

 

(Übertreibung macht anschaulich, aber echt, da liegen ein paar Zehnerpotenzen von Datengrößen zwischen)

 

Das hab ich ja eingangs als Überlegung angebracht. Mir ist schon klar, dass die VMs nicht wirklich viel Leistung und Übertragungsrate brauchen, aber das halt relativ konstant und darum meine Überlegung eher stromsparende NVMe zu nehmen, weil oft Kleinigkeiten zu tun und nur gelegentlich etwas mehr, wenn Sie als Cache fungieren und der Mover läuft.

Wobei auch das keine 100Gb sein werden.

Link to comment
1 hour ago, MAM59 said:

Also vor dem Mover brauchst Du keine Angst haben, der läuft immer etwas mit angezogener Handbremse, so dass ja niemand von ihm belästigt wird (Zeit ist ja in dem Fall auch egal, er läuft ja im Hintergrund)

Aber er beansprucht ja die ganze Zeit die NVMe dann. Darum sollte sie Stromsparend sein.

Link to comment
6 hours ago, renegade03 said:

Ja allerdings läuft ja meine VM mit dem Smarthome

...nach dem Booten überwiegend im Ram (selbst wenn durchgehend LogDaten geschrieben werden puffert der RamCache)...

 

6 hours ago, renegade03 said:

und die mit dem DomainController drauf.

...auch überwiegend im Ram, da nicht kontinuierlich immer wieder neue Teile gelesen oder Daten auf den Datenträger geschrieben werden, sondern eben durch Ram Cache immer nur im Block (gesammelt) geschrieben wird.

 

6 hours ago, renegade03 said:

also sind sie eigentlich immer im Betrieb.

Sie lesen die eine oder andere Sekunde die VM ein und lassen die im Ram laufen (sollten immer wieder die selben Programmteile benötigt werden, werden die versucht im Ram vorzuhalten, da HDD/SSD gegenüber Ram viel langsamer sind), schreiben die eine oder andere Sekunde und legen sich dann 20-30 Sekunden bis zum naechsten Anstoß wieder schlafen.

Wie ich aufgeklärt wurde ist per default der RamCache (bis er auf die Datenträger schreibt) irgendwo bei ca. 30 Sekunden angesiedelt (solange der Ram eben ausreichend groß ist).

 

Link to comment
5 hours ago, MAM59 said:

@DataCollector und ich haben da eher so "Schreibe 100Gb am Stück mit voller LAN Power..." im Hinterkopf.

Ich erwähnte hier ja auch schon. daß ich meinen SSD Cache in beiden Systemen mit Absicht aus mehreren SSD (BTRFS Raid0) zusammen setze, weil ich auch schon mal mehrfach pro Woche (am Stück) einige hundert GB bis einige TB über SMB 10GBLan auf mein unraidsystem kopiere. Da werden dann über viele Minuten bis Stunden die SSD wirklich unter 'Dauerfeuer' gesetzt.

Aber das sehe ich ja bei der Anwendungsbeschreibung von renegade03 nicht.

Dort werden einmal leseintensiv die VM/Docker gestartet, dann darin die benötigten Programmteile auch mal gelesen und gestartet und danach werden ab und zu mal vereinzelte Konfigdateien gelesen und Logs geschrieben. Das Lesen geht bei den eher kleinen Konfigdateien geht sehr schnell und wenn unveränderte Programm-/Konfigdateien öfters gebraucht werden puffert die das OS im Ram zwischen.

Und wenn Logs oder so geschrieben werden, dann landen die auch erst im Ram Cache (unraid/Linux) und werden dann nach (Default ca. 30 sekunden) erst geschrieben (wenn Ram noch entsprechend frei war/ist).

Das bedeutet, nach der Startphase der VM/Docker schreiben die Anwendungen ca. 1 Sekunde mit entsprechender Geschwindigkeit gebündelt die angefallenen Dateien auf die SSD und die restlichen ca. 29 Sekunden schläft die SSD in ihrem möglichst tief angesiedelten Stromsparmodus bei teilweise unter 1W (abgesehen von GarbageColletion und Wartungsfunktionen).

Link to comment
56 minutes ago, renegade03 said:

Aber er beansprucht ja die ganze Zeit die NVMe dann. Darum sollte sie Stromsparend sein.

Der Mover liest die ersten zu schreibenden Dateien ein und die sind dann im Ram gepuffert, während diese dann auf das Array geschrieben werden. (Hier kann eben die Sicherheit des ECC Ram zum Tragen kommen, wenn man in der Zwischenzeit Angst um Datenbeschädigung hat. Und hier kommt auch eine UPS zum Tragen, falls mittendrin der Strom wegbleibt.)

Da das Festplattenarray viel langsamer ist, langweilt sich die SSD und geht erstmal wieder 'ins Bett', bis der Mover wieder ausreichend frenem Ram zur Verfügung hat, die nächsten Dateien anzufordern, im Ram zu puffern und aufdann gemütlich auf das Festplattenarray zu schreiben.

 

Beispiel - Sollte exklusiv der Mover von der SSD lesen und auf das Array schreiben (und in dem Moment nichts anderes die selbe SSD ansprechen):

Eine NVMe SSD liest mit ca. 2GByte/s für 5 Sekunden = ca. 10GByte an Daten in den Mover Ram(Cache).

Das Festplattenarray mit Parität schreibt mit (der Einfachheit einfach mal einen unrealistisch hohen Wert angesetzt): 100MByte/s.

Also werden 10GByte Daten in 100 Sekunden geschrieben. Somit schläft die SSD ca. 95 Sekunden, bis der Mover wieder anklopft.

 

Die SSD ist bei Deinem beschriebenen Anwendungsszenario NIE under durchgehender Lese-/Schreibbelastung.

Heutige SSD (ohne eine verbockte Firmware) nutzen heutzutage Zeiten in Millisekunden um zu schlafen und auch aufzuwachen.

SSD sind keine Festplatten, die nach dem Schlafen bis zu 30 Sekunden zum Spinup brauchen und deswegen besser durchlaufen sollten, wenn man alle 1/2 Minute mal vereinzelte Dateien lesen oder schreiben will.

 

Bei solch kleinen sporadischen Schreibbelastungen: SSD arbeiten 1-2 Sekunden sehr schnell die anstehenden zu schreibenden Daten ab und legen sich dann danach für Sekunden schlafen, bis die nächste Arbeit ansteht. Und dann puffert beim Schreiben auch noch der Ram Cache.

Beim erstmaligen Lesen von Daten kan hingegen nichts gepuffert werden, deshalb 'laufen' die SSD dann direkt an, aber das jeweilieg VM OS puffert Dateien, von denen es erkennt, daß es die öfters braucht) im zugewiesenen Ram in der VM zwischen. Und weder die Heimautomatisierung, noch dein Domainkontroller werden kontinuierlich immer wieder neue Dateien in den Speicher laden, sindern einmal das Programm, dann die Konfigdateien und dann wird das immer wieder abgearbeitet. Also lesen die SSDs nach dem Start dieser Anwendungen lesend fast gar nicht (solange Ram ausreichend vorhanden ist). Und schreibend... naja, das hatten wir ja schon. unraid/Linux puffert Schreibzugriffe ab.

Link to comment

Hallo ich habe mir den Thread durchgelesen und hatte mit gedacht NVMe für Cache zu nutzen. Ich würde das gern mit einer Adapterkarte auf ein PCIe 8x Steckplatz umsetzen. Sprich Adapterkarte mit zwei NVME a 2 TB und das als Raid 1.

Hat da jemand von euch eine Adapterkarte als Empfehlung ?  als NVMe hatte ich mir die 2 TB WD Red rausgesucht. Was haltet ihr davon ?

 

Gruß

Marhal

Link to comment
1 hour ago, marhal said:

Hallo ich habe mir den Thread durchgelesen und hatte mit gedacht NVMe für Cache zu nutzen.

Da spricht nichts gegen.

 

1 hour ago, marhal said:

Ich würde das gern mit einer Adapterkarte auf ein PCIe 8x Steckplatz umsetzen.

Hier wird es knifflig.

 

1 hour ago, marhal said:

Sprich Adapterkarte mit zwei NVME a 2 TB und das als Raid 1.

Hier gibt es 2 Möglichkeiten

a) der PCIe x8 Slot beherrscht x4x4 Bifurcation = billige Bifurcation Adapterkarte für 2 oder 4 NVMe M.2 Slots kosten unter 40 Euro und funktionieren in der Regel gut.

b) der PCIe x8 Slot beherrscht kein x4x4 Bifurcation, dann brauchst Du eine PCIe Switchkarte. Um darüber 2 NVMe mit je x4 gleichzeitig ansteuern zu können ist eine 4fach NVMe Karte nötig, die Du dann eben nur mit den 2 NVMe bestückst, weil bei Raid1 beide möglichst gleichzeitig beschrieben werden wollen und damit es (minimale!) Verzögerungen gibt, wenn man das mit einer der üblichen 2er Karten macht, die das selber nur per x4 anbindet.

 

Es hängt also davon ab, welches Mainboard Du dafür nutzt und ob es auf dem von Dir gewünschten PCIex8 Slot (ist der mechanisch länger oder wirklich nur x8 lang?) Bifurcation unterstützt.

 

Achja, und damit es nicht in Vergessenheit gerät: Die PCie Switch Variante schluckt extra Strom und ist in möglichst sparsamen Systemen nicht wirklich die erste Wahl.

 

1 hour ago, marhal said:

Hat da jemand von euch eine Adapterkarte als Empfehlung ?

Bifurcation habe ich hier eingesetzt:

 

Eine PCie Switchkarte mit bis zu 4 Stück M.2 nutze ich in einem meiner Windowssysteme:

https://www.amazon.de/gp/product/B083SRX7H3

 

In beiden Fällen nicht davon abschrecken lassen, daß sie 4 Stück M.2 Slots haben.

Die erste Bifurcation würde in einem mechanisch x16, aber elektrisch x8 (Bifurcation x4x4) Slot eben nur die ersten beiden M.2 ansprechen.

Die PCie Switchkarte benutzt in einem mechanischen x16 Slot sowieso nur die ersten x8 Lanes. (Karten für nur 2 M.2 benutzte in der Regel elektrisch nur x4 Lanes.)

Deshalb auch meine Frage zu dem Mainboard und der mechanischen Größe des gewünschten x8 Slots.

 

1 hour ago, marhal said:

als NVMe hatte ich mir die 2 TB WD Red rausgesucht.

Ich vermute Du meinst "Western Digital Red SN700 NVMe 2TB M.2 (WDS200T1R0C)".

Normalerweise würde ich überteuert sagen, doch aktuell kosten die sogar minimal weniger als die Samsung 970 Evo Plus 2TB.

Aber wenn es nicht wirklich drängt würde ich da sowieso auf Sonderangebote warten.

 

Edited by DataCollector
Typos
Link to comment
4 hours ago, renegade03 said:

beide NVME im RAID1 als Pool vor den Array schalten und gut oder?

Wenn man raid 1 willl und sonst keinen geeigneten Cache hat: ja, das  würde ich machen.

Ich selber sehe für mich aber keine Notwendigkeit von Raid1. Ich mache ab und zu (manuell) Backups der systemrelevanten Daten auf der SSD (VM Image, etc...). Der Rest sind bei mir nur Temporärdaten oder hat sowieso ein externes Backup.

 

Du siehst, sowas ist eine individuelle Konfiguration, die jeder User fuer sich und seinen EInsatzzweck anpassen und umsetzen sollte.

Link to comment

nur mal so als Nachtrag: die CT 2/2023 hat reichlich NVMe SSDs getestet, das Kurzergebenis: PCIe3.0 Dinger lohnen nicht mehr (langsam, kein Preisvorteil), bei den 4.0 gibt es gravierende Unterschiede in der Dauerschreiblast.

 

Gewinner ist: ADATA Legend 960 für ~108€ / 1Tb. Volle Schreib Speed über gesamte Grösse, die ideale Cache Platte.

 

 

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.