Jump to content

Backup System


Revan335

Recommended Posts

3 hours ago, ich777 said:

Kannst auch selbst machen wenn du einen 3D Drucker besitzt, sieh dir zB mal einen Ender 2 Mini oder sowas in die richtung an, bekommt man für kleines Geld und lohnt sich wirklich, was ich schon alles gedruckt hab…

Ich habe zwar schon mehrfach mit einem 3D Drucker für Kunststoffilament geliebäugelt, aber ich habe leider keinen Platz dafür. Ich weiß, je nach Modell sind 30x30 bis ca. 50x50cm ausreichend, aber wenn ich den nicht auf den Boden oder einen Tisch in den Flur stelle habe ich keinen Platz dafür ihn permanent irgendwo hin zu stellen. (Zu viele Computer und andere Sachen).

 

Auch wäre das dann eben 'nur' Kunststoffwerkstoff.

Link to comment
1 hour ago, ich777 said:

Also ich weiß nicht was du gegen Kunststoff hast, ich mach mit dem fast alles...

Leitfähigkeit, Schirmung, maximale Stabilität....

An einigen Stellen bin ich schon mit 3mm Alu an die Grenzen gekommen (was Stabilität anging).

 

1 hour ago, ich777 said:

Schau mal hier, ist mein Account, hab aber lange nicht alles hoch geladen... :D

Klick

Sehr kreative und teils praktische Sachen.

Aber Deine Coils machst Du zwar mit einem Kunststoffcoilbuilder aber die Coils sind eben nicht aus Plastik.

Einige gewünschte Fähigkeiten sind mit solchem Kunststoff allein eben nicht machbar.

 

Link to comment

Da das Fractal Design Define 7 mit Fenster mehr HDD Plätze hat inkl. nicht notwendigen 5,25" als das Nanoxia ist dies der aktuelle Favorit.

Vielleicht liegt es auch an der Uhrzeit, aber ich durchblicke derzeit nicht was man für die HDD Erweiterung braucht.

Ist dies hier https://geizhals.de/fractal-design-hdd-tray-kit-type-b-fd-a-tray-001-a2240308.html oder dies https://geizhals.de/fractal-design-hard-drive-cage-kit-type-b-fd-a-cage-001-a2240277.html und wo kommen die dann im Gehäuse hin? Oder vielleicht noch ein anderes Bauteil? Und wenn ja, wie viele braucht man jeweils?

 

Es ist nun doch das Nanoxia geworden mit Einbaurahmen auf 3,5". Kein Bock mehr auf diese Verwirrung und Unklarheiten. Dabei hatte ich kurz nach 0 zum Midnight Shopping bei Mindfactory angefangen.

 

Link ist der gleiche: https://geizhals.de/?cat=WL-2589314

 

Vorhanden:

- vorhandene 3x Gehäuselüfter 3 PIN Cooler Master, Xigmatek, Ong Hua 120mm (Fallen weg, weil Gehäuse schon welche hat)
- 9/10 vorhandene WD RED 3, 4 und 6 TB Platten
- vorhandener SanDisk Cruzer Fit 32GB, USB-A 2.0 (SDCZ33-032G-G35) Unraid Stick

 

Neu/Gebraucht:

- Nanoxia Deep Silence 1 Rev. B schwarz, schallgedämmt (NXDS1BB) (11x 3,5" Slots müssten bei richtiger Rechnung, wenn man die 5,25" Slots nutzt da sein)
- be quiet! Straight Power 11 Platinum 550W ATX 2.51 (BN305)
- DeLOCK extern/intern USB 2.0-Konverter (41824) Interner Anschluss des Unraid Stick
- be quiet! Pure Rock 2 Black (BK007)
- 2x 1 TB WD Red SN700 NVMe M.2 (WDS100T1R0C) durch Adapter und Board.
- Akasa M.2 SSD to PCIe adapter card with heatsink cooler (AK-PCCM2P-02)

- 16GB Kingston Server Premier DDR4-2666 SO-DIMM CL19 Single

- 2x DeLOCK 4x SATA 6Gb/s, PCIe 3.0 x1 (90010)

- GIGABYTE C246M-WU4 (Amazon) gibt noch welche

- i3 8100 (Ebay) gibt noch welche

- 3x Sharkoon 5.25" BayExtension schwarz, Einbaurahmen

 

- Unraid Pro (fehlt noch) Wie funktioniert das mit der derzeitigen Aktion? Die gilt ja nur für Upgrades nicht für direkt Käufe?

 

Danke schon mal an alle Beteiligten, bisher!

 

Vielen Dank!

 

Viele Grüße

 

Revan335

Link to comment
6 hours ago, Revan335 said:

DeLOCK extern/intern USB 2.0-Konverter (41824) Interner Anschluss des Unraid Stick

Gibt es auch als Kabel:

https://amzn.eu/d/7WenhLp

 

6 hours ago, Revan335 said:

gibt noch welche

Noch ja

 

6 hours ago, Revan335 said:

WD Red SN700

Geldverschwendung. Viel zu teuer. Hol dir eine 970 Evo Plus im nächsten Angebot für unter 100 €.

 

6 hours ago, Revan335 said:

2x DeLOCK 4x SATA 6Gb/s, PCIe 3.0 x1 (90010)

Reicht nicht eine ASM1166 Karte mit 6 Ports?

 

6 hours ago, Revan335 said:

Akasa M.2 SSD to PCIe adapter card

Das C246M hat doch zwei M.2 Slots?!

 

 

Link to comment
3 hours ago, mgutt said:

Reicht nicht eine ASM1166 Karte mit 6 Ports?

Ich vermute, das hängt mit meiner Meinung/Beitrag zusammen, weshalb ich meinen Gedankengang dazu nochmal darlege:

GIGABYTE C246M-WU4

  PCIe 3.0 x16 (x16 bzw. x8, wenn der andere x16 auch benutzt wird))
  PCIe 3.0 x16 (x8)
  PCIe 3.0 x1
  PCIe 3.0 x1
  2x M.2

====

Die ASM1166 bringen ihre volle Leistung (max. gleichzeitige Portgeschwindigkeit von max 333MByte/s) auf allen 6 Ports bei x2 Lanes. Dies geht bei einer Karte in dem Board aber nur in einem der x16 (elektr. mindestens x8) Slots. Man verliert (=läßt brach liegen) also im günstigsten Falle (und ohne Bifurcation) 6 Lanes

oder man müßte per Bifurcationadapter einen x16/x8 Slot aufsplittten zu x4 und benutzt+verliert dann nur je 2 Lanes. (ich vermute mal das Board könnte Bifurcation, aber ob auf beiden x16 weiß ich wirklich nicht.)

 

2 Stück ASM1064 können je einer in die PCIe 3.0 x1  Slots gesteckt werden. = keine Lane liegt in einem belegten Slot brach/unbenutzt.

Bei je nur 3 benutzten SATA Ports pro ASM1064 Karte hat man auch die 333 MByte/s pro Port und noch 2 frei.

 

Nachteile:

- Ohne es gemessen zu haben, werden 2Stück ASM1064  zusammen geschätzt ca. 2 oder 3 Watt mehr verbrauchen als eine einzelne ASM1166

- und je nach Bezugsquelle zusammen auch vielleicht 30 Euro in der Anschaffung mehr kosten.

 

Vorteile:

- Man hat weiterhin beide PCIe x16 Slots frei (weitere SATA Kontroller, weitere M.2 SSDs, Grafikkarten, falls man das will, almost endless possibilities :) )

- Wenn man alle SATA Ports an den ASM später man nutzen will (also in Summe 8 Stück), bleiben immer noch rund 250MByte/s pro Port übrig, was für heutige Festplatten wirklich genug ist. (In einem kleinen Anfangsbereich schaffen sehr große Festplatten auch mal etwas mehr, aber den Rest der Zeit sind 250MByte/s genug.) Theoretisch könnte man also alle kleineren/langsameren Festplatten an die ASM1064 anschließen und hätte dann am Mainboard sogar 2 SATA Ports für SATA SSDs noch frei, die dort onboard sogar als Pool gut 'ausgefahren' werden könnten.

 

Als Preisreferenz habe ich mal die genommen:

 

ASM1064 4Port SATA:
https://www.ebay.de/itm/195172364852
https://www.amazon.de/Kalea-Informatique-Controllerkarte-Chipsatz-ASM1064/dp/B08NXTF7BM
https://geizhals.de/delock-4x-sata-6gb-s-90010-a2534298.html?t=v&hloc=de&va=b
Bei Neuware incl. versand ab ca. 42 Euro/Stück (wenn man 2 nimmt vieleicht wegen nur einmaligem Versand billiger)

 

ASM1166 6Port SATA:
https://www.amazon.de/YUNKOZAND-Controller-PCIE-SATA-Erweiterungskarte-ASM1166-6SATA-4X/dp/B09FPLWZW7
https://geizhals.de/2778149680?t=v&hloc=de&va=b
Bei Neuware incl. Versand ab ca. 54 Euro/Stück

 

AliExpress oder so habe ich nicht durchgesucht. Da mag es minimal anders aussehen.

 

3 hours ago, mgutt said:

Das C246M hat doch zwei M.2 Slots?!

Ja, hat er. Da kommen wohl die beiden NVMe auch rein.

(bei denen ich auch nicht die überteuerten WD Red nehmen würde)

https://geizhals.de/western-digital-red-sn700-nvme-nas-ssd-1dwpd-1tb-wds100t1r0c-a2609975.html

aktuell 130 Euro pro 1TB

 

https://geizhals.de/samsung-ssd-970-evo-plus-1tb-mz-v7s1t0bw-a1972735.html

aktuell rund 100 Euro, ab und zu im Sonderangebot 80-90 Euro.

 

 

Link to comment
3 hours ago, mgutt said:

Reicht nicht eine ASM1166 Karte mit 6 Ports?

Welche denn?

Hatten die dann nicht ne Speed/Stabilität Einschränkung oder brauchten nen größeren als x1 Slot?

 

3 hours ago, mgutt said:

Das C246M hat doch zwei M.2 Slots?!

Dann muss ich das falsch im Kopf gehabt haben. Dachte einer wäre ebenfalls nen m.2 SATA Port.

Link to comment
16 minutes ago, DataCollector said:

2 Stück ASM1064 können je einer in die PCIe 3.0 x1  Slots gesteckt werden. = keine Lane liegt in einem belegten Slot brach/unbenutzt.

Bei je nur 3 benutzten SATA Ports pro ASM1064 Karte hat man auch die 333 MByte/s pro Port und noch 2 frei.

Das funktioniert leider nicht, weil die X1 am Chipsatz hängen. Dh die ASM1064 Karten teilen sich die Bandbreite mit den 8x SATA Ports. Deine Idee funktioniert erst ab W580/W680. Da hat der Chipsatz mehr Bandbreite.

Link to comment
26 minutes ago, mgutt said:

Das funktioniert leider nicht, weil die X1 am Chipsatz hängen. Dh die ASM1064 Karten teilen sich die Bandbreite mit den 8x SATA Ports. Deine Idee funktioniert erst ab W580/W680. Da hat der Chipsatz mehr Bandbreite.

Die 8 SATA onBoard hängen am Chipsatz. Wenn die über ICH realisiert sind kommt die 2GByte/s Grenze des PCIe 3.0 x2 Lane angebundenen ICH zum Trangen.

Das bedeutet, daß der DMI3 (zwischen CPU und Chip(satz) damit nur zu 50% ausgelastet ist (welcher in PCIe 3.0 Lanes umgerechnet die Bandbreite von bis zu 4 Stück transportieren könnte).

Somit sind die beiden PCIe 3.0x1 noch problemlos möglich.

 

Leider hatte ich kein Blockdiagramm des Board gefunden und weiß nicht, wie die M.2 NVMe angebunden sind. Wenn auch nur eine davon ebenfalls am Chipsatz hängt wird es bei DMI3 sowieso eng gleichzeitig die M.2 und die SATA Ports zu befeuern, egal ob Onboard oder in PCIe x1 Slot.

 

Edited by DataCollector
Link to comment
36 minutes ago, DataCollector said:

Das bedeutet, daß der DMI3 (zwischen CPU und Chip(satz) damit nur zu 50% ausgelastet ist

Stimmt

 

38 minutes ago, DataCollector said:

Leider hatte ich kein Blockdiagramm des Board gefunden und weiß nicht, wie die M.2 NVMe angebunden sind

Beide hängen am Chipsatz. Die Consumer CPUs können nur 16 Lanes. Erst ab 11th kamen noch 4 für eine CPU M.2 dazu.

 

 

Link to comment
1 minute ago, Revan335 said:

was ja scheinbar nicht funktioniert wegen Kollision mit den m.2 Ports

Funktionieren tut das sehr wohl. Du kannst nur, während ein Parity Check läuft und damit von allen HDDs gleichzeitig gelesen wird, nicht auch noch parallel die M.2 voll auslasten. Aber ob das im Alltag wirklich relevant ist... 

 

Ich meine wann hat man schon nennenswert hohe Last auf einer M.2. Bei 10G Übertragung vielleicht. Dann braucht man 1 GB/s. Der Chipsatz mit den 8 SATA Ports (max 2GB/s insgesamt) und den M.2 kann insgesamt 4 GB/s. Also reicht quasi perfekt, wenn man 2x 1 GB/s auf zwei M.2 gleichzeitig schreibt (bei RAID1). Wobei selbst dann noch der RAM abfängt.

 

Aber wie gesagt. Wann hat man schon einen Parity Check laufen. Ich 4x im Jahr.

 

Schlussendlich kannst du dir das selbst überlegen. 

 

Für mich persönlich wäre interessant ob zwei X1 Karten sparsamer sind als eine X4. Insbesondere ob die X1 evtl einen besseren C-State erlauben, weil sie über den bereits aktiven Chipsatz laufen und keine extra Lanes aktivieren?!

Link to comment
14 minutes ago, mgutt said:

Funktionieren tut das sehr wohl. Du kannst nur, während ein Parity Check läuft und damit von allen HDDs gleichzeitig gelesen wird, nicht auch noch parallel die M.2 voll auslasten.

Soweit ich Deinen Einwurf richtig verstand, bedeutete er, daß die PCIe x1 zusammen mit den 8 OnBoard SATA über den Chipsatz laufen.

Das passt auch beim ParityCheck.

Das Problem ist erst da, wenn M.2 benutzt wird.

Aber das ist Deiner Ausage ja nicht für den Alltag relevant (wobei ich gerade den Cache als sinnvoll erachte um beim Paritycheck zwischenzupuffern, weil man da das Array ja nicht wirklich gut nutzen kann).

Ich verstehe somit das Problem nicht so ganz, warum das ein Argument sein soll die zusätzlichen SATA über einen der PCIe x16 laufen zu lassen.

 

Sobald die Onboard M.2 NVMe ins Spiel kommen ist der DMI doch sowieso ziemlich an seiner Kapazitätsgrenze.

 

14 minutes ago, mgutt said:

Aber ob das im Alltag wirklich relevant ist...

 

Relevant ist es zumindest, dass beide M.2 mit je 32GBIt/s max (=64GBit/s max) ja wohl über den selben DMI mit 32GBIt/s max laufen müssen.

Raid1 Pool Cache ist auf den Onbard M.2 NVMe wohl eher nicht anzuraten.

 

Wenn man hingegen wirklich Vollast haben will:

Dann wäre es auf dem Board ja eigentlich nur sinnvoll M.2 NVMe in den PCIe x16 Slots zu betreiben und alle SATA über OnBoard + beide PCIe x1 Slots.

Da kommt dann möglicherweise eine Bifurication Funktion wieder in Spiel.

 

14 minutes ago, mgutt said:

Ich meine wann hat man schon nennenswert hohe Last auf einer M.2. Bei 10G Übertragung vielleicht.

Bei Raid1 Pool/Cache hat man schon mal doppelte Last, weil ja alles durch die Software muß. Es stehen also pro NVMe gleichzeitig maximal 2GByte/s (16GBit/s) zur Verfügung für Cache, Docker, Apps  (weil es ein Backupsystem sein soll, lasse ich VM mal weg).

Dazu noch die eine oder andere SATA Operation, weil die NVMe ja irgendwas mit dem Array machen (beispielsweise mover)....

1GBLan pumpt genüßlich auch noch Daten in den Cache.

Der DMI kommt da dann wohl schon ins 'schwitzen' :)

 

14 minutes ago, mgutt said:

Der Chipsatz mit den 8 SATA Ports (max 2GB/s insgesamt) und den M.2 kann insgesamt 4 GB/s. Also reicht quasi perfekt, wenn man 2x 1 GB/s auf zwei M.2 gleichzeitig schreibt (bei RAID1). Wobei selbst dann noch der RAM abfängt.

...solange die Daten für den cahe nicht vom DUAL GBLan durch den Chipsatz kommen und dann nicht irgendein Docker/App oder so noch File Integrity und weiteres macht.

 

14 minutes ago, mgutt said:

Aber wie gesagt. Wann hat man schon einen Parity Check laufen. Ich 4x im Jahr.

Ich bin noch in der Findungsphase und habe bisher leider bei jedem meiner geschätzt 4-5 ParityChecks Fehler gelistet bekommen. Auf beiden Systemen. (Ich suche noch, was da passiert ist, aber dafür kenne ich mich in Linux nicht gut genug aus. Binaerchecks externe Quelle gegen Array zeigten, daß keine Datei verändert wurde.)

 

14 minutes ago, mgutt said:

Für mich persönlich wäre interessant ob zwei X1 Karten sparsamer sind als eine X4. Insbesondere ob die X1 evtl einen besseren C-State erlauben, weil sie über den bereits aktiven Chipsatz laufen und keine extra Lanes aktivieren?!

Das muß Revan335 für sich selber entscheiden. ich schätze unsere Argumente sind dargestellt. :)

 

Ich weiß, warum ich mich gegen das verlockende Board entschieden habe.

Link to comment
35 minutes ago, DataCollector said:

habe bisher leider bei jedem meiner geschätzt 4-5 ParityChecks Fehler gelistet bekommen. Auf beiden Systemen

Oha, das darf niemals passieren.

 

36 minutes ago, DataCollector said:

Bei Raid1 Pool/Cache hat man schon mal doppelte Last, weil ja alles durch die Software muß. Es stehen also pro NVMe gleichzeitig maximal 2GByte/s (16GBit/s) zur Verfügung für Cache, Docker, Apps  (weil es ein Backupsystem sein soll, lasse ich VM mal weg).

Wie gesagt wird da auch viel vom RAM abgefangen. Daher ist das denke ich nicht wirklich spürbar. Außer man hat wirklich VMs.

 

 

Link to comment
2 hours ago, Revan335 said:

Wäre das nicht beim Fujitsu dann ein ähnliches Problem?

Das Problem haben quasi alle Consumer Boards. Erst ab 600er Intel Chipsätzen hat man deutlich mehr Bandbreite zwischen CPU und Chipsatz.

 

Daher gibt es erst mit dem W680 auch recht umfangreich ausgestattete Boards mit 2x X8. 2x X4, 3x M.2 und 8x SATA:

 

https://www.supermicro.com/en/products/motherboard/x13sae

 

Nichts wird deaktiviert. Alles parallel nutzbar:

Screenshot_20220703-224456.thumb.png.f6a58418ec3cd3a27307035f71918e48.png

 

Leider auch mal locker 200 € zu teuer (fast 500 €) und zu dem Verbrauch findet man auch nichts.

Link to comment
4 hours ago, Revan335 said:

Wäre das nicht beim Fujitsu dann ein ähnliches Problem?

Simple Frage, aber ich sehe es als notwendig an hier leider mal wieder auszuholen (wenn man eine fundierte Entscheidung auf so niedriger Ebene wie hier DMI Auslastung treffen will, gibt es keien Einfache Lösung bei den gesetzten Bedingungen. Sorry!):

 

Das Fujitsu hatte ich ursprünglich als mein Hauptsystem vorgesehen (auch, weil ich es schon hatte) und habe mich dann auch dagegen entschieden und das W480 Vision W genommen. Ich wollte eben massig Speicherplatz und das Fujitsu kam mir aufrüstungstechnisch zu schnell an Grenzen.

Das Fujitsu habe ich dann später reaktiviert (weil ich es eben schon hatte) und das erste System nicht ausreicht.

ich habe zwisvhenzeitlich (wenn das Gigabyte mal wieder im gespräch war oder wie jetzt sogar in kleinen Mengen verfügbar ist immer mal wieder das Manual angesehen, aber nein, es passt noch weniger als das Fujistu zu meinen (sehr induíviduellen!) Ausstattungswünschen.

 

Ja, der Aufbau des Fujitsu ist ähnlich.

Unterschied: es hat keine gewzungende PCIe x8x8 Aufteilung zwischen den mechanischen PCIe x16 Slots (oder Bifurcation), nur 1 M.2 NVMe (dafür einen flexibel nutzbaren PCIe x16 (elektr.x4 Slot)) und nur 6 SATA Ports, dafür aber einen M.2 Key E mit 1 PCIe Lane.

 

Ob das einem entgegen kommt oder nicht, hängt eben von der gewünschten Bestückung und Benutzung ab.

Ich finde es (nach einigen Umbauten und Aufrüstungen) gut, daß ich im ersten x16 Slot per Bifurcation zumindest bis zu 3 NVMe SSD auf einer simplen Steckkarte betreiben und voll ansprechen kann (direkt an CPU angeschlossen). Das Fujitsu beherscht dort eben 8x4x4x (leider kein x4x4x4x).

Das Gigabyte kann in dem obersten x16 Slot nur Bifurcation x8x8 und dann ist der zweite x16 Slot elektrisch unbrauchbar.

Im Fujitsu ist deswegen noch gleichzeitig eine 10GBLan Karte im unteren Slot machbar.

Zusätzlich habe ich 3 ASM PCIe x1 Zusatzkontrollerkarten für mehr SATA Ports drin.

Wie ich ja schon mal schrieb habe ich sogar den Key-E Slot dafür adaptiert.

 

Zur Diskussion um die Auslastung des DMI (Verbindung zwischen CPU und Chip(satz)):

Die Diskussion betrifft den Grenzbereich.

Wie mgutt schon andeutete sieht er diesen Grenzbereich im Alltag als nicht relevant an.

Nimmt man an, daß das stimmt (und ja, ich stimme ihm zu, daß das eher selten zutrifft), muß man die gleichen Regeln aber auch an die anderen Boards und Bestückungen anlegen.

In der Praxis sieht es ja so aus, dass eher selten wirklich alle diese Komponenten voll genutzt werden.

Es wird nur sehr selten gleichzeitig auf alle Festplatten mit maximaler Geschwindigkeit geschrieben/gelesen, es wird selten gleichzeitig auf alle NVMe mit voller Geschwindigkeit geschrieben/gelesen, der Ram hilft Spitzen abzupuffern und auch eine 10GBLan liefert nicht gleichzeitig pausenlos maximal Daten.

Somit wird die Sättigung des DMI eher selten eintreten, weil immer irgendwo ein bisschen 'Luft' bleibt. Und selbst wenn der DMI dann an seien Grenze kommt, dann ist auch das meist nur kurzzeitig. Egal ob man das Gigabyte oder das Fujitsu nimmt.

Nur sehe ich die Sättigung beim Gigabyte eher erreicht, weil beide NVMe am Chipsatz hängen und wenn man da Raid1 baut, werden beide auf je 50% der maximal eigentlich gedachten Geschwindigkeit eingebremst.

 

[Andererseits: wann braucht/nutzt man wirklich mehr als 2GByte/s pro NVMe?

Hier stimmt mgutts Aussage schon ganz gut (wenn man die anderen Komponenten des Chipsatzes mal außen vor läßt): der OnBoard 1GBLAn der Boards läßt eben nur max. 112Mbyte/s rein. Mit 112MByte/s kann sich eine oder auch zwei NVMe im Raid1 noch mal ne Runde zum schlafen hinlegen und kommt nicht ins Schwitzen. Und auch die Festplatten (vor allem nehme ich an, dass Deine bis zu 10 Festplatten eher kleiner/älter sind), die dann gleichzeitig angesprochen werden, kommen ja nicht über den ganzen Bereich hin auf 250MByte/s. im Außenbereich sequentiell lesend sind sie schneller, im innenbereich sequentiell lesend sind sie langsamer. und je weniger rein sequentiell gelesen wird sind da Millisekunden der Kopfpositionierungszeit zwischen, in denen der Chipsatz/DMI sich genüßlich anderen Aufgaben widmen kann, die zwischenzeitlich im RAM gelandet sind. Und schreibend mit Parität ist ein Engpaß sowieso dahin, da die Parität das Array so stark bremst, daß der DMI allein dadurch keinerlei Probleme bekommt.]

 

Beim Fujitsu gibt es die Situation nicht, da erst gar keine 2 M.2 SSD am Chipsatz hängen. Dafür hat man einen x16 (elektrisch x4) Slot aufgelötet, der bei mir mit der 10GBLan Karte (Mellanox-x3 1x SFP+) eben nicht volle Bandbreite braucht oder gar liefern kann. Somit ist gleichzeitig mehr Luft für die anderen Storages.

Zusätzlich habe ich meinen Datencache gar nicht im Onboard M.2, sondern über die erwähnte Bifurcationkarte (unter 40 Euro) auf 3 Stück NVMe mit je 2TB gelegt, welche eben direkt an der CPU hängt. Das kann das Gigabyte in der Form gar nicht. Mehr als 2 NVMe SSD sind in dem oberen PCIe x16 Slot nicht möglich (wie gesagt: der kann nur x8x8 Aufteilung) und dann ist eben der untere X16 beim Gigabyte tod.

 

Wo ich mgutt zustimme ist der Punkt, dass ein gerade nicht benötigter Chipsatz für Storage (egal ob OnBoard, oder als Zusatzkarte) sich in tiefere Stromsparstates legen kann. Sollten also alle Festplatten und SSD unbenötigt schlafen, kann der Chipsatz auch tiefer schlafen und somt das eine oder andere Watt weniger verbrauchen. Mit Zusatzkarten an dem Chipsatz, die sich nicht tief genug schlafen legen kann der Chipsatz auch höchstens etwas 'dösen'.

Ich nehme das in Kauf, da ich dennoch gegenüber meiner jetzigen Windowslösung mit beiden Systemen einige hundert Watt weniger verbrauchen werde (wenn es klappt).

 

Und zu guter Letzt/ein Fazit:

Es gibt das perfekte Mainboard für die interessanten CPU Generationen für unsere Zwecke und zu vertretbarem Consumerpreis eben nicht.

Man wählt das Eine oder Andere am Besten danach, was man damit machen will (und das sehr genau/im Detail) und bestückt es dann auch so.

Ich habe die Bifurcationfunktion des Fujitsu anfangs auch nicht wirklich wahr genommen, bis ich merkte wie praktisch es für mich ist 6TB sehr schnellen NVMe Cache über 10GBLan füllen zu können. Und da (außer der 10GBLAN Karte) keine der Komponenten dabei wirklich maximal ausgelastet ist, wäre eine ähnliche Konstellation selbst auf dem Gigabyte machbar, würde nur eben den DMI+Chipsatz mehr belasten & wohl mehr PCIe Lanes verschwenden.  Das ist eben eine Diskussion im Grenzbereich.

Beides gute Boards und das Gigabyte angeblich etwas stromsparender, dafür sehe ich für mich im Fijitsu einen brauchbaren Unterbau.

 

Es bleibt also (bezogen auf das Gigabyte) Dir überlassen

- ob Du einen ASM1166 im oberen oder unteren PCIe x16 Slot in das Gigabyte einsetzt und dann 6 Ports hast, dafür aber den restlöichen Slot nicht mehr für zukünftiges nutzen kannst

- oder Du 2 ASM1064 in die x1 Slots einsetzt und dann im Grenzbereich mit gleichzeitiger Nutzung der NVMe und aller Festplatten einen Engpass hast, dafür aber die x16 Slots mit je maximal x8 noch für zukünftiges frei hast.

 

Bezogen auf das Gigabyte:

Willst Du das System zukünftig mit maximal 1 x8 Karte aufrüsten, dafür aber sofort ein paar Watt sparen: ASM1166 in x16 Slot.

Willst Du das System zukünftig mit einer x16 oder 2 x8 Karten aufrüsten: 2 Stück ASM1064 in die X1 Slots und etwas mehr Stromverbrauch

 

Achja - doch noch etwas. Es spricht ja (ausser Geld und Zeit) nichts dagegen jetzt eine ASM1166 einzuabuen und wenn Du doch später aufrüsten willst dann umzubauen.

PC Technik ist schließlich flexibel :)

 

Link to comment
6 hours ago, DataCollector said:

Bezogen auf das Gigabyte:

Willst Du das System zukünftig mit maximal 1 x8 Karte aufrüsten, dafür aber sofort ein paar Watt sparen: ASM1166 in x16 Slot.

Willst Du das System zukünftig mit einer x16 oder 2 x8 Karten aufrüsten: 2 Stück ASM1064 in die X1 Slots und etwas mehr Stromverbrauch

Da wäre ich mir eben nicht so sicher.

 

Sagen wir jede Karte braucht 2W. Dann hat man erstmal 2W mehr bei den zwei X1 Karten. Aber bei der ASM1166 aktiviert man 4 zusätzliche CPU Lanes. Laut meinem Test ergibt ein schlechterer C-State einen Verlust von weiteren 2W.

 

Die Frage ist nun: Verschlechtert sich der C-State überhaupt, wenn man nur die X1 Slots nutzt, weil man ja dadurch keine zusätzlichen CPU Lanes aktiviert und verbrauchen die X1 Karten überhaupt 2W pro Stück?

 

Fazit: Ich muss mir mal X1 Karten kaufen und nachmessen 😁

Link to comment
13 hours ago, mgutt said:

Leider auch mal locker 200 € zu teuer (fast 500 €) und zu dem Verbrauch findet man auch nichts.

Hallo - zu dem Supermicro Board: die technische Ausstattung ist zumindest ziemlich einzigartig. Wer die "eierlegende Wollmilchsau" benoetigt hat ja fast keine andere Wahl!

Ich respektiere Deine subjektive Ansicht, dass das Board 200Euro zu teuer ist - aber wenn es keine Alternativen gibt mit gleichen Features kann man eigentlich keinen Vergleich anstellen.

Ich finde den Preis jedenfalls nicht wirklich unfair, denn es wird ja auch ein objektiver Mehrwert geboten.

Schwerwiegender ist dann schon der Stromverbrauch.

@mgutt hattest Du nicht mal vergleichbare Supermicro Workstationboards gemessen und festgestellt, dass von exorbitantem Mehrverbrauch keine Rede sein kann, sondern der Verbrauch sich sehr in Grenzen hielt ?

Die Frage ist auch, ob man nicht MB-Funktionen im BIOS auch stromsparend ausschalten kann, wenn das momentane Setup diese MB-Features (noch) nicht benoetigt - und welche Sparpotentiale hier evtl noch zu holen sind...

 

Bleibt zu hoffen, dass nach dem Sommer doch noch mehr W680 boards auf den Markt kommen.

 

Habe meinen Dell R710 mal gemessen:

- Dual XEON E5620

- 2xSAS 15k HDDs in RIAD 0

- H700 Raid controller

- 2x 870W PS redundant

 

Einschalten - 300W+x beim Booten

Idle: 205W - Werte unter 200W Fehlanzeige...

 

hahaha - Indiskutabel bei Strompreisen von rund 50cent/kWh...

 

 

 

Link to comment
1 hour ago, ullibelgie said:

hattest Du nicht mal vergleichbare Supermicro Workstationboards gemessen und festgestellt, dass von exorbitantem Mehrverbrauch keine Rede sein kann, sondern der Verbrauch sich sehr in Grenzen hielt ?

Tatsächlich ja und das Board war inklusive BMI gemessen:

https://forums.unraid.net/topic/116379-vorstellung-die-cloud-der-großfamilie/?do=findComment&comment=1076700

 

Und das neue Board hätte ja sogar den noch effizienteren DDR5 RAM und die BMI Variante den deutlich effizienteren AST2600. Am Ende bleibt aber die Frage ob die Anbindung vom Chipsatz den Verbrauch in die Höhe treibt. Der ist ja neuerdings PCIe 4.0. Auch sollte man wenn möglich auf PCIe 4.0 und natürlich auch PCIe 5.0 verzichten.

 

Ich habe übrigens schon Supermicro gefragt ob sie es mal messen können. Feedback folgt dann 😉

 

Ich halte die Preise übrigens für deutlich überzogen, weil es gerade mit sämtlicher PC Hardware steil bergab geht. Die Nachfrage ist im Keller, alles wird günstiger und dann kommen die Hersteller mit 500 € Boards. Das passt einfach nicht. Schon gar nicht weil die X12 Generation einfach viel günstiger war.

Link to comment
On 7/4/2022 at 2:25 PM, mgutt said:

Und das neue Board hätte ja sogar den noch effizienteren DDR5 RAM und die BMI Variante den deutlich effizienteren AST2600. Am Ende bleibt aber die Frage ob die Anbindung vom Chipsatz den Verbrauch in die Höhe treibt. Der ist ja neuerdings PCIe 4.0. Auch sollte man wenn möglich auf PCIe 4.0 und natürlich auch PCIe 5.0 verzichten.

 

Ich habe übrigens schon Supermicro gefragt ob sie es mal messen können. Feedback folgt dann 😉

Supermicro kann/will nicht helfen. 

 

Kann die EU nicht endlich Energiesiegel für PC Hardware rausbringen. Das ständig selber nachmessen nervt 😑

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...