[SOLVED] Frage zu PCIe Karten, 10G Netzwerk und SSDs


Recommended Posts

Hey zusammen,

 

ich verwende Unraid seit gut mehr als 3 Jahren schon. Bin super zufrieden aber so langsam wird der Speicherplatz knapp und die Datenübertragung zu klein.

 

Ich hatte mich hier im deutschen Unterforum ein bisschen umgeschaut und bin auf den Post von @mgutt gestoßen Link. Er hatte dort verschiedene SSDs erwähnt und gesagt, dass eine Pro durch ihre bessere Komponentenwahl gegenüber der Evo bessert ist. Ich verwende aktuell 2x 860 Evo 1TB. Ich hatte mich damals gegen die Pro Variante für meinen Cache entschieden, da die Pro-Serie ca. doppelt so teuer ist. Meine Frage wäre hier, hättet ihr genauso gehandelt oder hättet ihr die Pro-Serie genommen, da der doppelte Preis auch die doppelte Laufzeit mitbringt (falls man das 1:1 setzen darf) ?

Ein kleine andere Frage hätte ich noch: Wie sieht die Speicherverteilung bei 3 SDDs im Cache aus? Gelten dort die "normalen" Raid-Kapazitäten ( Raid 5, Raid 6, Raid 10, usw.)?

 

Zu meiner PCIe-Karte Frage:

Ich verwende als Unraid System ein Ryzen 1600 und ein Gigabyte GA-AB350M-Gaming 3 (B350). Ich nutze alle 6 vorhandenen Sata Ports (4 Array, 2 Parity) und würde gerne aufrüsten. Welche Karte würdet ihr mir empfehlen? Ich würde wahrscheinlich weiterhin mit Sata Festplatten arbeiten wollen, da ein kompletter Umstieg auf SASS für mich etwas zu teuer wird.

 

Gleichzeitig wird mein Wunsch nach einen eigenen 10G Netz zwischen Zwei PCs und dem Unraid-Server größer. Ich backupe die beiden Rechner übers Netzwerk, dies dauert sehr lang da meine VMs sehr groß geworden sind, welche ich lokal immer Verfügbar haben muss auf einem der beiden Rechner. Theoretisch hat CAT7 ein 10GBit/s Übertragung aber auf einem RJ45 ist meines Wissens nach keine realen 10GBit/s. Glasfaser zu verlegen geht theoretisch aber dort sprechen wir, wenn ich mich richtig umgeschaut habe über kein kleines Sümmchen für "nur" 10GBit/s. Falls ihr da Ideen oder Tipps hat, wäre ich euch dankbar.

 

Vielen Dank für eure Hilfe.

 

Gruß

Sebastian - Lyror

Link to comment
51 minutes ago, Lyror said:

Ich hatte mich hier im deutschen Unterforum ein bisschen umgeschaut und bin auf den Post von @mgutt gestoßen Link. Er hatte dort verschiedene SSDs erwähnt und gesagt, dass eine Pro durch ihre bessere Komponentenwahl gegenüber der Evo bessert ist. Ich verwende aktuell 2x 860 Evo 1TB.

Ja das stimmt, die Pro ist gegenüber der Evo besser aufgrund des größeren Cache Speichers.

Ich persönlich nutz aber 2 von Crucial (zum Testen, läuft mittlerweile 2 Jahre und es wird permanent drauf geschrieben bzw. gelesen) einmal eine MX300 mit 1.1TB und einmal eine MX500 und hab mit meiner 10Gbit LAN keine Probleme mit dem hin und her kopieren bin immer so bei 350 bis 400Mbit/s wenn ich vom oder auf den Cache schreibe bzw. lese.

 

54 minutes ago, Lyror said:

Ein kleine andere Frage hätte ich noch: Wie sieht die Speicherverteilung bei 3 SDDs im Cache aus? Gelten dort die "normalen" Raid-Kapazitäten ( Raid 5, Raid 6, Raid 10, usw.)?

Sie mal hier: Klick

Wähle einfach oben wieviele Platten und unten die größe der Platten dann kannst es dir ausrechnen (ist standardmäßig für Unraid richtig eingestellt und zeigt wieviel speicher du dann insgesamt hast).

 

57 minutes ago, Lyror said:

Welche Karte würdet ihr mir empfehlen?

Wenn du den vollen durchsatz willst kann ich dir eine Dell Perc H310 (musst aber flashen damit du sie nicht im SAS modus benutzt bzw im HBA Modus - gibt sogar ein deutsches tutorial dazu, musst nur onlines suchen), diese Karte wird aber relativ warm und wäre nicht schlecht wenn du sie aktiv Kühlst bzw einen wirklich guten Luftstrom im Server hast anderenfalls kanns zu Schreibfehlern oder sonstigem kommen (evtl 40mm ranklemmen).

Die Karte bekommst relativ günstig auf Ebay und manchmal auf Amazon, gibt von Mini SAS auf SATA Adapter (ebenfalls auf Amazon) kannst 2x 4 SATA Platten dran anklemmen.

Kannst aber auch zB sowas nehmen Klick aber kann sein das du nicht die volle Geschwindigkeit bekommst (muss aber nicht sein, solche karten hab ich noch nicht getestet).

 

1 hour ago, Lyror said:

Gleichzeitig wird mein Wunsch nach einen eigenen 10G Netz zwischen Zwei PCs und dem Unraid-Server größer. Ich backupe die beiden Rechner übers Netzwerk, dies dauert sehr lang da meine VMs sehr groß geworden sind, welche ich lokal immer Verfügbar haben muss auf einem der beiden Rechner. Theoretisch hat CAT7 ein 10GBit/s Übertragung aber auf einem RJ45 ist meines Wissens nach keine realen 10GBit/s. Glasfaser zu verlegen geht theoretisch aber dort sprechen wir, wenn ich mich richtig umgeschaut habe über kein kleines Sümmchen für "nur" 10GBit/s. Falls ihr da Ideen oder Tipps hat, wäre ich euch dankbar.

Also ich kann nur für Glasfaser sprechen, sieh dir mal FS.com an (ohne dafür Werbung zu machen).

Ich selbst hab bei mir zu Hause folgende Komponenten, in den PC's und Unraid sind jeweils Mellanox ConnectX2 (mnpa19-xtr) 2mal mit 10Gbit SFP modul und einmal mit 1Gbit SFP modul.

Als Switch nutze ich einen MikroTik CRS309-1G-8S+ mit den jeweiligen dazupassenden SFP modulen, dran hängt dann noch ein TP Link switch 8 Port mit 2SFP für diverse andere Geräte (CCU, WLAN, Firewall,...).

Ich hab die Jumbo Frames (um größtmögliche kompatibilität unter den Geräten zu ermöglichen, hab noch ein paar Geräte die Jumbo Frames nicht unterstützen) deaktiviert da eigentlich die Windows und Unraid Treiber gute Arbeit leisten, komme wie oben geschrieben auf 350 bis 400Mbit wenn ich direkt von einem PC auf den Cache oder vom Cache kopiere und die anderen PC's funktionieren auch noch einwandfrei mit irgendeinem Stream oder wenn die irgendwas vom Array runterkopieren ohne spürbaren Geschwindigkeitsverlust.

 

Alternativ hab ich auch noch einen MikroTik CRS305 den ich manchmal anklemme wenn ich beim Server noch mehr SFP bzw. Ethernet anschlüsse benötige.

 

Wie gesagt FS.com ist wirklich günstig und die haben auch Sachen zum mechanischen splicen (hab ich selbst schon oft gemacht und funktioniert jetzt schon über 3 Jahre einwandfrei).

 

Wenn du dich für Glasfaser entscheidest nim Singlemode und evtl gleich BiDi module (ich find Glasfaser super da du es mit dem Strom gemeinsam verlegen kannst, keine Inteferenzen).

 

RJ45 und Cat6 hat sicher auch seine Vorteile kann ich dir aber leider nicht helfen.

Link to comment
15 hours ago, Lyror said:

Er hatte dort verschiedene SSDs erwähnt und gesagt, dass eine Pro durch ihre bessere Komponentenwahl gegenüber der Evo bessert ist

Das habe ich gar nicht geschrieben?! Ich habe nur die QVO als nicht empfehlenswert bezeichnet.

15 hours ago, Lyror said:

hättet ihr die Pro-Serie genommen, da der doppelte Preis auch die doppelte Laufzeit mitbringt

Nein, denn genau aus dem Grund habe ich selbst die Evo. Die Pro macht nur Sinn, wenn man mehr als als 1x 10G verbaut hat.

15 hours ago, Lyror said:

Gelten dort die "normalen" Raid-Kapazitäten

Ja. Da du vermutlich mehr Cache Speicherplatz haben willst: Brauchst du überhaupt ein RAID? Ich nutze zB kein RAID, da ich die SSD täglich ins Array sichere (also die Daten, die nicht vom Mover bewegt werden). Bei einem Defekt gehen als max Daten der letzten 24 Stunden verloren, die ich aber entweder noch auf einem Client habe oder schlicht nicht vermissen würde.

15 hours ago, Lyror said:

Ich nutze alle 6 vorhandenen Sata Ports (4 Array, 2 Parity) und würde gerne aufrüsten

Unterstützt das Board SATA Port Multiplier? Ich habe mehrere günstige (<15€) davon im Backup NAS installiert und nutze auf die Art zwei HDDs auf einem Port. Zwei HDDs sind ja nicht in der Lage einen SATA Port auszulasten, daher passt das. Und nur, damit du es auch weißt. Es gibt noch den Iocrest IO-M2F585-5I um 5 SATA Ports in einem M.2 Slot zu realisieren (muss man aber vorsichtig sein, da die Platine dünn ist). Iocrest hat auch noch eine Lösung für die kurzen WiFi Slots.

Edited by mgutt
  • Thanks 1
Link to comment
20 minutes ago, mgutt said:

Das habe ich gar nicht geschrieben?! Ich habe nur die QVO als nicht empfehlenswert bezeichnet.

Nein, denn genau aus dem Grund habe ich selbst die Evo. Die Pro macht nur Sinn, wenn man mehr als als 1x 10G verbaut hat.

Ja. Da du vermutlich mehr Cache Speicherplatz haben willst: Brauchst du überhaupt ein RAID? Ich nutze zB kein RAID, da ich die SSD täglich ins Array sichere (also die Daten, die nicht vom Mover bewegt werden). Bei einem Defekt gehen als max Daten der letzten 24 Stunden verloren, die ich aber entweder noch auf einem Client habe oder schlicht nicht vermissen würde.

Das stimmt ich kam dort durcheinander. Entschuldige bitte.

Ich benutze viele VMs und lasse sie auf dem Cache laufen, deshalb habe ich einen Raid 1 dort im Einsatz. Wie ich gehört hatte, bekommen wir mit dem nächsten großen Release ja Pools von daher könnte ich die VMs auf einem eigenen Pool auslagern und eine neue SSD für den Cache hinzufügen.

Link to comment
17 minutes ago, Lyror said:

Ich benutze viele VMs und lasse sie auf dem Cache laufen

Was machst du mit den VM's wenn ich fragen darf?

EDIT: Bzw. was läuft da drin?

 

17 minutes ago, Lyror said:

bekommen wir mit dem nächsten großen Release ja Pools

Stimmt, lad dir einfach die Beta25 und du kannst schon jetzt Pools einrichten (hab sie seit sie Released wurde drauf und kann über keine Probleme klagen).

Link to comment
20 minutes ago, Lyror said:

Ich benutze viele VMs und lasse sie auf dem Cache laufen, deshalb habe ich einen Raid 1 dort im Einsatz.

Wenn die Daten in den VMs der letzten 24 Stunden einen Verlust bedeuten, dann macht das natürlich Sinn.

16 hours ago, Lyror said:

RJ45 ist meines Wissens nach keine realen 10GBit/s

Wer hat das gesagt ^^ 

992380570_2020-09-2709_42_11.png.3a8da420ddf136d682fee195d3f159e9.png

 

Für die Bandbreite ist also egal ob RJ45 oder Glasfaser. Allerdings ist Unraid sehr speziell, wenn es um die volle Auslastung von 10G geht (egal ob RJ45 oder Glasfaser). Ich habe dazu einen umfangreichen Guide verfasst. Im oben gezeigten Benchmark habe ich zB #3 aus dem Guide angewendet und "aio read size" in der smb-extra.conf auf "1" gesetzt. Jumbo Frames sind bei mir nicht aktiv, da ich sie schlicht nicht zum Laufen bringe. Ist aber wie man sieht kein Nachteil.

16 hours ago, Lyror said:

ein kleines Sümmchen für "nur" 10GBit/s

Ich setze ebenfalls aus finanziellen Gründen auf die bestehende Verkabelung und kann dir sogar noch einen zusätzlichen Spar-Tipp geben:

Du könntest im PC und Server eine 10G Karte installieren und beide direkt ohne Switch verbinden. Damit beide online gehen können bzw mit den restlichen Clients im Netz kommunizieren können, verbindest du zusätzlich jeweils einen 1G Port mit dem Switch. Das setzt natürlich voraus, dass Server und PC jeweils zwei RJ45 Verbindungen nutzen können. Auf die spart man sich nicht nur die Kosten und den Stromverbrauch des 10G Switch, sondern auch den Stromverbrauch, der ständig aktiven 10G Verbindung zwischen Server und Switch (pro Port ca 3W). Wenn du im Server direkt eine 10G Dual Karte installierst, hättest du auch noch einen Port für einen weiteren Rechner frei.

14 hours ago, ich777 said:

komme wie oben geschrieben auf 350 bis 400Mbit wenn ich direkt von einem PC auf den Cache

1.) Sprichst du vermutlich von Mbyte/s und nicht Mbit ;)

2.) Bin ich jetzt doch etwas enttäuscht. Du als selbsternannter Technik-Nerd verbaust nur SATA SSD als Cache 😜

Edited by mgutt
Link to comment
1 minute ago, mgutt said:

Sprichst du vermutlich von Mbyte/s und nicht Mbit

Jep sry

 

1 minute ago, mgutt said:

Bin ich jetzt doch etwas enttäuscht. Du als selbsternannter Technik-Nerd verbaust nur SATA SSD als Cache

Hab schon mal überlegt M2 SSD's zu verbauen aber seh mir da keinen Vorteil.

Ich kopier selbst nie vom Cache oder sonstiges ist alles automatisiert.

Außerdem hab ich langsam keine Erweiterungsplätze mehr frei (alle meine freine PCIe Steckplätze auf meinem ASUS Z9PA-D8 sind belegt auch der falsch rum für die PIKE).

Link to comment
5 minutes ago, ich777 said:

Was machst du mit den VM's wenn ich fragen darf?

EDIT: Bzw. was läuft da drin?

 

Stimmt, lad dir einfach die Beta25 und du kannst schon jetzt Pools einrichten (hab sie seit sie Released wurde drauf und kann über keine Probleme klagen).

Ich benutze eine Software für Dokumentenarchivierung und mehrere Gamesserver wie z.B. Ark (beides Linux Systeme). Zusätzlich habe ich noch eine Windows VM für einen MSSQL Server und diverser Krims Krams läuft darauf, wie temporäre Webseiten.

 

Wie stabil ist das ganze denn?

Link to comment
4 minutes ago, Lyror said:

Ich benutze eine Software für Dokumentenarchivierung und mehrere Gamesserver wie z.B. Ark (beides Linux Systeme). Zusätzlich habe ich noch eine Windows VM für einen MSSQL Server und diverser Krims Krams läuft darauf, wie temporäre Webseiten.

Bist du dir bewusst das es für diese Sachen container gibt, ich biete sogar für Ark einen Gameserver als Docker an, Vorteil wäre das du die Resourcen teils und nicht alles für eine VM "verschwendest" (kannst natürlich auch fixe Resourcen zuteilen).

Hatte das früher auch so mit den VM's bin seit ca 4 Jahren aber auf Docker container umgestiegen bzw hab alles auf die übertragen und seit 2 Jahren mach ich selbst container die ich hier in der CA App anbiete da mir einfach die Gameserver gefehlt haben.

 

Ich hab bis jetzt weder eine Absturz noch einen Schreibfehler gehabt.

Link to comment
25 minutes ago, mgutt said:

Wenn die Daten in den VMs der letzten 24 Stunden einen Verlust bedeuten, dann macht das natürlich Sinn.

Wieso der letzten 24 Stunden? Wenn eine VM auf dem Cache läuft der alleine ist und irgendwann kaputt geht müsste doch die kompletten Daten verloren gegangen sein der VMs. Klar könnte man die zusätzlich (über Backups) auf den Array sichern aber den Fall betrachten wir ja grad nicht.

 

25 minutes ago, mgutt said:

Wer hat das gesagt ^^ 

Ich erinnere mich, dass ich das in meiner Ausbildung und im Fachabi beigebracht bekommen hatte. Ich meine das von den reinen Spezifikationen her der RJ45 als Stecker nicht dafür geeignet ist, da die Kontakte zu nah beieinander liegen???

 

Mit dem 10G Thema:

 

Ich bin da sehr unentschlossen. Ich hätte halt gerne etwas was für die Zukunft auch noch erweiterbar wäre. Das große Problem sehe ich bei Glasfaser neben den Kosten, die physikalische Einschränkung von 90° Grad Biegungen. Das Kabel von den PCs zu dem Server verläuft grob gesagt über einer Türzarge entlang. Also fängt unten an geht nach oben und dann über den Tür-Durchgang wieder nach unten und dies natürlich alles 90° Grad.

 

Quote

Ich setze ebenfalls aus finanziellen Gründen auf die bestehende Verkabelung und kann dir sogar noch einen zusätzlichen Spar-Tipp geben:

Du könntest im PC und Server eine 10G Karte installieren und beide direkt ohne Switch verbinden. Damit beide online gehen können bzw mit den restlichen Clients im Netz kommunizieren können, verbindest du zusätzlich jeweils einen 1G Port mit dem Switch. Das setzt natürlich voraus, dass Server und PC jeweils zwei RJ45 Verbindungen nutzen können. Auf die spart man sich nicht nur die Kosten und den Stromverbrauch des 10G Switch, sondern auch den Stromverbrauch, der ständig aktiven 10G Verbindung zwischen Server und Switch (pro Port ca 3W). Wenn du im Server direkt eine 10G Dual Karte installierst, hättest du auch noch einen Port für einen weiteren Rechner frei.

Hm eine Idee vielleicht um das 90° Grad zu umgehen aber um die Switche komm ich nicht rum, da ich ja 2 Pcs verbinden will außer ich lege zwei Kabel bis zum Server. Das wird sowieso ein teurerer Spaß als ohne hin schon, weil einer der beiden PCs ein MacBook Pro aus 2017 ist <--- USB C (Thunderbolt 3). 

Edited by Lyror
Link to comment
2 minutes ago, ich777 said:

Bist du dir bewusst das es für diese Sachen container gibt, ich biete sogar für Ark einen Gameserver als Docker an, Vorteil wäre das du die Resourcen teils und nicht alles für eine VM "verschwendest" (kannst natürlich auch fixe Resourcen zuteilen).

Hatte das früher auch so mit den VM's bin seit ca 4 Jahren aber auf Docker container umgestiegen bzw hab alles auf die übertragen und seit 2 Jahren mach ich selbst container die ich hier in der CA App anbiete da mir einfach die Gameserver gefehlt haben.

 

Ich hab bis jetzt weder eine Absturz noch einen Schreibfehler gehabt.

Ich wusste das es Container gibt. Ich setze auch einen Haufen davon ein und erstelle für meine Applikationen die darauf laufen sollen auch selber Docker. Ich stehe dort noch ein bisschen auf den Kriegsfuß. Ich hätte gerne eine eigene Docker Registry am liebsten mit einem kleinen Web-Interface. Ich verstehe nur noch nicht, wenn ich diesen Docker Container für die Registry mir runterlade was ich genau dort alles machen muss damit es läuft. Da werde ich mich nochmal dran begeben müssen.

 

Mit der Beta werde ich mir das nochmal überlegen.

 

Ich hatte mir erstmal die Dell Karte bestellt. Braucht natürlich ein bisschen bis die aus China ankommt aber ich hab Zeit :D

Link to comment
1 minute ago, Lyror said:

Ich hätte gerne eine eigene Docker Registry am liebsten mit einem kleinen Web-Interface.

Hätte ich mir auch schon mal angesehen habs aber dann gelassen, ist für mich unnötig...

 

2 minutes ago, Lyror said:

Ich verstehe nur noch nicht, wenn ich diesen Docker Container für die Registry mir runterlade was ich genau dort alles machen muss damit es läuft.

Du meinst für die eigene registry? Dann musst dir einen Benutzer dort erstellen wenn ich mich recht erinnere, die images werden dann dort hoch gepusht und auch gepullt aber wie gesagt du musst den pfad zur registry ändern da standardmäßig docker hub ausgewähtl ist.

Für was willst deine eigene Registry? Docker hub ist doch ausreichend, ich bau auch auf meinem Server und push sie dann hoch, selbst wenn es Docker Hub mal nicht mehr geben sollte hab ich noch immer den Sourcecode und kann die in eine andere Registry pushen mittels Jenkins.

 

3 minutes ago, Lyror said:

Ich hatte mir erstmal die Dell Karte bestellt.

Wie gesagt, funktioniert super aber ich würd einen kleinen Lüfter drauf machen wenn du keinen ausreichenden Luftstrom drüber hast (ist immerhin Server equipment).

Link to comment
15 minutes ago, ich777 said:

Für was willst deine eigene Registry?

Ich verwende Sie um ganz konkrete Probleme z.B. mit Zigbee für mein Zuhause zu lösen. Dort stehen unter Umständen sensiblere Daten drin als nur Quellcode. Aus dem Grund hätte ich gerne eine private Registry. Klar Dockerhub ist nicht schlecht aber im "free plan" auch nur ein privater container verfügbar. 

15 minutes ago, ich777 said:

Wie gesagt, funktioniert super aber ich würd einen kleinen Lüfter drauf machen wenn du keinen ausreichenden Luftstrom drüber hast (ist immerhin Server equipment).

 

Habe ich mir auch bestellt. Der Airflow ist eher semi optimal von daher mal schauen, wie gut es ihr geht. Ich werde voraussichtlich je nachdem was ich alles von meinen Wünsche umsetze erstmal nur eine schon vorhandene 2TB Platte wieder in den Array damit einhängen.

 

Edited by Lyror
Link to comment
9 minutes ago, Lyror said:

Dort stehen unter Umständen sensiblere Daten drin als nur Quellcode.

Dafür gibt's variablen...

Sieh dir mal meine Container an.

Alles was sensibel ist pack in eine Variable und gut ists. ;)

Dann kannst sie auch öffentlich verfügbar machen.

github.com/ich777

 

9 minutes ago, Lyror said:

Habe ich mir auch bestellt. Der Airflow ist eher semi optimal von daher mal schauen

Wenn die zu heiß werden kommts zu Datenverlust und Schreibfehlern, nur so als Hinweis. ;)

Link to comment
2 hours ago, ich777 said:

Docker an, Vorteil wäre das du die Resourcen teils und nicht alles für eine VM "verschwendest

Hat auch den Vorteil, dass man inkrementell mit Hardlinks sichern kann. Da hätte man fast die gewünschten Snapshots.

1 hour ago, Lyror said:

Wieso der letzten 24 Stunden

Ich schrieb ja, dass ich die SSD alle 24 Stunden ins HDD Array sichere (einfach mit rsync). Könnte man natürlich auch häufiger machen.

1 hour ago, Lyror said:

Ich meine das von den reinen Spezifikationen her der RJ45 als Stecker nicht dafür geeignet ist, da die Kontakte zu nah beieinander liegen???

 Seit 2006 ist RJ45 (IEC 60603-7 8P8C) Teil des 10G Standards (vom 40G Standard mit CAT8 übrigens auch):

Quote

10GBASE-T uses the IEC 60603-7 8P8C modular connectors already widely used with Ethernet. 

Die einzige Einschränkung ist dabei CAT5e. Das ist limitiert auf 40-50m, aber wer hat die schon in einem Einfamilienhaus/Wohnung. Und ab CAT6 gibt es gar keine Einschränkung.

Edited by mgutt
  • Thanks 2
Link to comment
17 hours ago, ich777 said:

Ja das stimmt, die Pro ist gegenüber der Evo besser aufgrund des größeren Cache Speichers.

Kleine Anmerkung. Die Pro hat gar keinen SLC Cache. Die kann daher durchgehend mit der vollen Geschwindigkeit beschrieben werden.

 

Aus dem Grund suche ich auch immer nach Reviews wo die durchgehende Schreibrate einer SSD getestet wird und nicht nur die des SLC Caches, aber solche Tests findet man leider selten. Auch wird dann immer nur eine Größe getestet, wobei die kleineren Modelle da deutlich langsamer sein können. zB schafft die 970 Evo mit 250GB nur 300 MB/s, während die 1TB Version mit 1200MB/s für 10G optimal ist, weshalb ich dieses Modell auch gewählt habe. Laut Computerbase sind es 1100 MB/s, aber der HD Tach Software traue ich nicht, da sie beim Lesetest der 970 Pro 1500 MB/s ermittelt hat, obwohl die ja mindestens 2000 MB/s erreichen sollte. Zeigt auch mein Test mit HD Tune und einer 50GB großen Datei:

520405703_2020-09-2713_40_11.png.4eee46bc4b9f59ce80551a385cb9ad00.png

 

Jedenfalls ist es bei der SSD echt wichtig, dass man die durchgehende Schreibrate kennt und nicht nur die vom Cache, sonst hat man mit dem SSD Cache keinen Spaß. Gerade bei 10G.

Link to comment
37 minutes ago, mgutt said:

Kleine Anmerkung. Die Pro hat gar keinen SLC Cache. Die kann daher durchgehend mit der vollen Geschwindigkeit beschrieben werden.

Verwend hald keine sachen von Samsung ^^

Schreibst als gleich in den TLC  Speicher?

Kommt das nicht auch auf die Serie drauf an bei den Samsung, hab mal irgendwas gelesen das die TLC mit SLC benutzen, ganz früher hatten die doch mal einen Cache oder irre ich mich da?

MLC werden die ja schätze ich mal nicht mehr benutzen oder?

 

EDIT: Sorry ist wieder komplett Off Topic...

Vergiss die Frage.

Link to comment

@ich777

Die Pro war schon immer ohne Cache. Bis zur 970 Pro waren es MLC Zellen. Die neueste 980 Pro hat nun TLC Zellen was berechtigterweise viel Aufregung nach sich gezogen hat, da sie nun 50% weniger haltbar ist und das führte auch gleich mal dazu, dass sie den TBW Wert halbiert haben:

https://www.computerbase.de/2020-09/samsung-980-pro-ssd-test/

Quote

 

Erstmals nutzt ein Pro-Modell des Herstellers TLC-NAND mit 3 Bit statt besseren MLC-NAND mit 2 Bit.

...

TBW gegenüber 970 Pro halbiert

Passend zum potenziell weniger haltbaren TLC-NAND liegen die Total Bytes Written (TBW), als Schreibmenge ab der die Garantie erlischt, nur noch auf dem Niveau der 970 Evo Plus. Die 970 Pro mit MLC-NAND besitzt doppelt so hohe TBW-Werte. Samsung gibt aber Entwarnung, denn laut eigenen Erhebungen auf Basis der Nutzerstatistiken zur Samsung Magician Software würden 99 Prozent der NVMe-SSD-Nutzer innerhalb des Garantiezeitraums von 5 Jahren nicht mehr als 156 TB an Daten schreiben.

 

 

  • Thanks 1
Link to comment

Mal so me andere frage: Wie ist eigentlich eure Meinung zur Benutzung von non ecc RAM? Ich hab in den 3 Jahren Benutzung keinerlei Probleme erlebt / mitbekommen bei meinem unraid System. Im Nachhinein frage ich mich hätte es ecc sein müssen. Ich persönlich sehe da keine Notwendigkeit. Ich fände eure Meinung mal ganz interessant. 

Link to comment
15 minutes ago, Lyror said:

Mal so me andere frage: Wie ist eigentlich eure Meinung zur Benutzung von non ecc RAM? Ich hab in den 3 Jahren Benutzung keinerlei Probleme erlebt / mitbekommen bei meinem unraid System. Im Nachhinein frage ich mich hätte es ecc sein müssen. Ich persönlich sehe da keine Notwendigkeit. Ich fände eure Meinung mal ganz interessant. 

Wenn nicht grad ein solarsturm über die erde hinwegfegt ist es nicht unbedingt nötig.

Zumindest für unseren verwendungszweck ist normaler RAM ausreichend, ich verwend ihn aber da ich ihn günstig bekommen hab damals.

Link to comment

Wenn es möglich ist, dann nimm ECC. So ist meine Devise. Ich wollte einen potenten Unraid Server primär für Storage und Plex, weniger für VMs und da fiel meine Wahl auf den i3-8100, da dieser günstig und sparsam ist und ECC unterstützt. Dann habe ich das Gigabyte C246N-WU2 mit ECC Unterstüzung gefunden und die Sache war klar.

 

Es hätte auch anders laufen können. Hätte ich VMs gebraucht, hätte ich nach einem potenten 6 oder 8 Kerner gesucht und meine Wahl wäre vermutlich auf den i5-9400/9500/9600 oder i7-9700 gefallen. Ich bezweifle, dass ich stattdessen den Xeon E-2126G oder einen noch teureren Xeon genommen hätte, nur weil der ECC unterstützt.

 

Du solltest auf jeden Fall wissen, dass es Bitflips gibt. Es gibt auch Studien dazu von Google. Damaliges Ergebnis war, dass bei 8% aller RAM Module alle 2 Stunden pro GB 1 Bitfehler auftrat. In wie weit die alten Studien auf DDR4 übertragbar sind, ist offen.

 

Ich habe in einem Forum mal gelesen, dass alte Server häufiger davon betroffen seien und Bitfehler ein gutes Zeichen für das Sterben des Moduls sind.

 

Was nun die Bitfehler anrichten ist natürlich reiner Zufall. Wird gerade ein Bild verarbeitet, kann davon ein kleiner Teil kaputt gehen, bei einem Video ein Frame, in einer Datenbank kann was falsch gespeichert werden oder der Server schmiert sogar ab.

 

Allerdings kommen viele Bitfehler auch bei Festplatten vor. Dort kann man sich aber mit Hash-Funktionen helfen. zB könnte man zu jedem Foto und jedem Video einen MD5 Hash bilden und den in einer separaten Datei speichern. Nun prüft man diesen Hash alle x Tage/Wochen und bei Fehlern greift man zum Backup. Es gibt sogar ein Unraid Plugin, was dies automatisiert macht.

 

Schlussendlich muss man sich fragen ob man mit Bitfehlern leben kann oder nicht.

Edited by mgutt
Link to comment

Ich habe das "Glück" das ich nur meine Workstation und den Server auf 10G brauche und dass konnte ich mit
2x Asus XG-C100C 10G Karten und einem Netgear GS110EMX bewerkstelligen.

 

Von Server Cache auf Workstation bei großen Dateien komme ich auf 950MB/s bis 1000MB/s.
Von Workstation auf Server Cache schaff ich nur 500 MB/s. Ich glaube da ist meine Intel Pentium Gold G5400 CPU der Flaschenhals.

Link to comment

Hey,

schön das sich hier auch mehrere deutschsprachige User tummeln. Bzgl 10gbit habe ich kürzlich auch bei mir daheim umgebaut.

Anfänglich probierte ich eine Asus XG-C100C in meinem Unraid Server aus. Jedoch hatte ich bei hoher Netzwerklast (viele kleine Dateien im Rahmen von Sync Aufgaben) Netzwerkfehler auf dem Unraid (war auf einmal über Netzwerk nicht mehr erreichbar, einzige mögichkeit Reboot). Die Asus Karte habe ich jetzt in meinem Hackintosh eingebaut, wo sie ohne Probleme Out of the Box ihre Arbeit verricht.

Für den Unraid habe ich mir auf Ebay eine Supermicro AOC-STGS-i1T (Intel X550 Chipsatz) gekauft. Diese verrichtet ohne jegliche Probleme ihre Dienste im Server. Keinerlei Probleme mehr unter Unraid. Des weiteren benötigt diese nur einen PCIe x4 Anschluss auf dem Mainboard.

Als Switch benutze ich für 10gbit einen Netgear (4x 10gbit Rj45 und 1xSFP+) Switch.

Im Haus ist bzgl Verkabelung CAT7 Kabel verlegt. Bei Transfer großer Dateien zwischen Hackintosh und Unraid komme ich auf ca. 960 MB/s.

Bin soweit zufrieden.

Grüße aus Bayern!

  • Like 1
Link to comment

@mgutt Deinen Guide habe ich mir schon abgespeichert. Denn werde ich mal durch gehen. Derzeit bin ich am recherchieren welche Hardware und welches OS ich in der Firma meines Bruders einsetzen will/soll. Bin noch am überlegen ob ich es in Englisch oder Deutsch hier schreibe. ich777 und du kommt mir sowieso vor wie das Orakel von Delphi 🙂

  • Haha 1
Link to comment
  • ich777 changed the title to [SOLVED] Frage zu PCIe Karten, 10G Netzwerk und SSDs

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.