Kaufempfehlung Hardware - Setup für Media Backup (+ optimal 4k Videoschnitt)


julian101

Recommended Posts

Hi Unraid Community,

 

Ich hoffe hier ist der richtige Ort für solch eine Anfrage. Ich suche eine allumfassende Kaufempfehlung für ein System mit folgenden Anforderungen.

 

Hauptfragen

1. Welche Hardware würdet ihr für die unten geschilderten Anwendungsfälle empfehlen (ca 1.500 EUR Budget / netto. Ohne HDDs / SSDs)?

2. Welche HDDs / SSDs würdet ihr empfehlen? (10 - 16 TB einzel Platten und 1 - 2 kleine Caching Platten)

 

Anwendungsfälle

1. Hauptsächlich Backup von Filmproduktionen

--> Ich hab aktuell noch viele 5TB Festplatten wo die Projekte "verstreut liegen". Gerne würde ich diese auf dem System speichern. Das ist die Hauptanwendung.

 

2. Schnelle Netzwerkanbindung für den Zugriff von 1 - 4 Rechnern (da würde ich im Optimalfall gerne für die Zukunft ausgestattet sein)

--> Schön wäre wenn man über das Netzwerk kleine HD Projekte schneiden könnte (10 MB/s)

--> Bei regulären (großen) Projekten fallen Datenraten von 55 - 110 MB/s an. Falls man diese mit mindestens einem Client erreichen könnte wäre das gigantisch! Sollte das Preislich zu "wild" werden, würden wir den Server lediglich als Backup Lösung nutzen

--> 10 Gigabit Netzwerk Karte?

 

3. Speicherkapazität / Festplatten BAYs: Vorerst eine Kapazität von 80 TB (5 - 10 Bays). Gerne ein Case welches ggf. bis zu 15 verträgt. Macht das sinn. Hab z.B. mal diese Lösung hier von Linus Tech Tipps gesehen (https://www.youtube.com/watch?v=FAy9N1vX76o).

--> Was haltet ihr vom Define-R5? https://www.alternate.de/Fractal-Design/Define-R5-Black-Tower-Gehäuse/html/product/1158467

 

4. Remote Upload auf einen Seafile Server.

--> Letztlich ja eine Setting frage. Am Ende des Tages hängen da Rechner dran die ich per Remote ansteuern kann um den Upload durchzuführen.

 

Wünsche

Das Setup sollte so leise wie möglich sein. Ich würde es gerne in mein Studio stellen. Es braucht natürlich ausreichend Kühlung. Gibt es ggf. extra silent Fans oder gute alternative Kühlungsmöglichkeiten?

 

Mehr Budget wäre auch drin, sofern sich das signifikant lohnt bzw. notwendig ist.

 

Vielen vielen Dank schon mal & Beste Grüße

Julian

Edited by Julian Guttzeit
Case welches ich gefunden habe hinzugefügt.
Link to comment
11 hours ago, Julian Guttzeit said:

Das Setup sollte so leise wie möglich sein.

Bei 15 Bays wird das ein bisschen schwierig. Ich mein klar, wenn die Platten stehen, ist halbwegs Ruhe, aber sobald du damit arbeitest, nervt die Kiste. Wirklich keine andere Stelle möglich?

 

11 hours ago, Julian Guttzeit said:

Bei regulären (großen) Projekten fallen Datenraten von 55 - 110 MB/s an. Falls man diese mit mindestens einem Client erreichen könnte wäre das gigantisch! Sollte das Preislich zu "wild" werden, würden wir den Server lediglich als Backup Lösung nutzen

 

Das wird nicht einfach. Hier kommt es auf den Workflow und die Geschwindigkeit der HDDs an. Wenn das Array zb nur als Langzeitarchiv dienen soll,  kannst du da mit schnellen Platten schon mit 70 bis 80 MB/s drauf schreiben. Aber nur Single User. Bei Multi User keine Chance. Da bricht das noch weiter ein.

 

Daher wäre die Frage ob du lieber mit Pools (RAIDs) arbeitest oder mit einem sehr großen SSD Cache Pool, der alle Inhalte deines wöchentlichen Workflows enthält. Evtl sogar als separater Pool von dem du nur manuell ins Archiv (Array) schiebst.

 

Noch eine Alternative wäre auf das Array zu verzichten und nur mit einem großen HDD Pool zu arbeiten.

 

Also erstmal die Frage ob die 80TB deine aktuellen Projektdaten sind oder nur dein Langzeitarchiv und wie groß das wöchentliche Projektvolumen ist.

 

 

 

Link to comment




2. Schnelle Netzwerkanbindung für den Zugriff von 1 - 4 Rechnern (da würde ich im Optimalfall gerne für die Zukunft ausgestattet sein)
--> Schön wäre wenn man über das Netzwerk kleine HD Projekte schneiden könnte (10 MB/s)
--> Bei regulären (großen) Projekten fallen Datenraten von 55 - 110 MB/s an. Falls man diese mit mindestens einem Client erreichen könnte wäre das gigantisch! Sollte das Preislich zu "wild" werden, würden wir den Server lediglich als Backup Lösung nutzen
--> 10 Gigabit Netzwerk Karte?



....bist Du sicher, dass Du beim Video- Schnitt mit diesen - für den Anwendungsmöglichkeiten doch eher geringen - Datenbanken zwischen Client und unRaid Host klarkommen wirst? Wie hast Du due gemessen?

Ich vermute stark, es ist eine Rate mit simultan lesen UND schreiben?

10G sind bei sowas immer sinnvoll, vor allem bei schnellen Pools, ist sonst das Netzwerk der Flaschenhals.
Aber Du brauchst dann nicht nur eine (oder zwei/eine Dual) im Host, sondern auch eine Karte in jedem Client und den passenden Switch.
Wenn Clients und unraid host nah beieinander stehen kann man das etwas günstiger über Glasfaser- oder DAC "Kabel" als frei fliegende Verkabelung machen...wenn da eine LAN Verkabelung zb zwischen Räumen oder Etagen zum Einsatz kommen soll, wird es teurer. Die RJ45 Module sind viel teurer und werden warm...die Switches (evtl. brauchst Du dann zwei) sind auch teurer und haben evtl. aktive Kühlung notwendig (lauter).

... wie sieht die Topologie bei Dir dafür aus?


Gesendet von meinem SM-G780G mit Tapatalk

Link to comment
  • 2 weeks later...

Hi Marc, Hi Ford Prefect,

 

ich habe mir bezüglich des Einsatzes und der Konfiguration noch einmal Gedanken gemacht!

 

On 10/13/2021 at 7:22 AM, mgutt said:

Bei 15 Bays wird das ein bisschen schwierig. Ich mein klar, wenn die Platten stehen, ist halbwegs Ruhe, aber sobald du damit arbeitest, nervt die Kiste. Wirklich keine andere Stelle möglich?

 

Lautstärke

Selbstverständlich geht es hier lediglich darum, das Maximum heraus zu holen. Also Komponenten zu verwenden (Case + Lüfter), die insgesamt etwas Lautstärke optimierter sind.

Dass man die Maschine nicht lautlos hinbekommt, ist bei der Konfiguration natürlich verständlich.

 

 

 

On 10/13/2021 at 7:22 AM, mgutt said:

Das wird nicht einfach. Hier kommt es auf den Workflow und die Geschwindigkeit der HDDs an. Wenn das Array zb nur als Langzeitarchiv dienen soll,  kannst du da mit schnellen Platten schon mit 70 bis 80 MB/s drauf schreiben. Aber nur Single User. Bei Multi User keine Chance. Da bricht das noch weiter ein.

 

Daher wäre die Frage ob du lieber mit Pools (RAIDs) arbeitest oder mit einem sehr großen SSD Cache Pool, der alle Inhalte deines wöchentlichen Workflows enthält. Evtl sogar als separater Pool von dem du nur manuell ins Archiv (Array) schiebst.

 

Workflow (Langzeit Archiv und Workflow)

Hier würde ich am liebsten, wie vorgeschlagen, auf einen SSD Cache Pool zurückgreifen. "Aktuelle Projekte" sind idR. kleiner bis "maximal" 300 GB groß. Da komme ich insgesamt auf 2 TB aktive Projekte. Diese können dann anschließend in aller Ruhe (also z.B. mit den 80 MB/s) ins Langzeit Archiv gelegt werden. Beim Bau des Setups würde ich der Sicherheit halber am liebsten auf 4 TB SSD Cache aufstocken. Und die Projekte dann händisch ins Langzeit Archiv packen.

 

Hier und da gibt's immer mal wieder hektische Calls. Dass ein eigentlich abgeschlossenes Projekt doch noch mal angefasst werden muss.

 

 

 

On 10/13/2021 at 7:22 AM, mgutt said:

Noch eine Alternative wäre auf das Array zu verzichten und nur mit einem großen HDD Pool zu arbeiten.

 

Also erstmal die Frage ob die 80TB deine aktuellen Projektdaten sind oder nur dein Langzeitarchiv und wie groß das wöchentliche Projektvolumen ist.

 

Speicher-Bedarf

2-4 TB Cache für aktuelle Projekte. Wie von dir mit der SSD Pool Lösung empfohlen. 80 TB sind auch nicht sofort fällig. Starten würde ich wahrscheinlich mit 40 TB und bei bedarf, im Rahmen der Optionen von Unraid, skalieren.

 

 

 

On 10/13/2021 at 9:24 AM, Ford Prefect said:

...bist Du sicher, dass Du beim Video- Schnitt mit diesen - für den Anwendungsmöglichkeiten doch eher geringen - Datenbanken zwischen Client und unRaid Host klarkommen wirst? Wie hast Du due gemessen?

Ich vermute stark, es ist eine Rate mit simultan lesen UND schreiben?

 

10G sind bei sowas immer sinnvoll, vor allem bei schnellen Pools, ist sonst das Netzwerk der Flaschenhals.
Aber Du brauchst dann nicht nur eine (oder zwei/eine Dual) im Host, sondern auch eine Karte in jedem Client und den passenden Switch.
Wenn Clients und unraid host nah beieinander stehen kann man das etwas günstiger über Glasfaser- oder DAC "Kabel" als frei fliegende Verkabelung machen...wenn da eine LAN Verkabelung zb zwischen Räumen oder Etagen zum Einsatz kommen soll, wird es teurer. Die RJ45 Module sind viel teurer und werden warm...die Switches (evtl. brauchst Du dann zwei) sind auch teurer und haben evtl. aktive Kühlung notwendig (lauter).

 

Festplatten & Netzwerk-Geschwindigkeit

Hier hast du natürlich recht. Für meine Anwendungen brauche ich deutlich höhere Geschwindigkeiten.

Ich arbeite hauptsächlich mit Apple Hardware (iMac Pros & MacBook Pros). Je nach Projekt sind das unterschiedliche Datenraten. kleine HD Projekte mit einem Videofile vs. 4K RAW mit mehreren aktiven Spuren. Das ist natürlich ein großer Unterschied. Aktuell nutze ich Sandisk SSDs mit einem Durchsatz von 1 GB/s und 2 GB/s (SanDisk Extreme & Extreme Pro). Auf einer Platte die Rohdaten aktiver Projekte und auf der anderen die Caching Files. Das geht natürlich ab.

 

Ich würde das an Geschwindigkeit bevorzugen, was "technisch möglich" und preislich die Bank nicht komplett bricht um bestenfalls mit 4k Footage arbeiten zu können. Gibt es auf MAC eine Möglichkeit das zu testen? Sprich: Final Cut und Premiere Pro auf.. Schneiden und den Bedarf an die Platten dabei aufzeichnen? Damit man das kalkulieren kann?

 

 

Vielen vielen Dank für eure Mühe bis hier hin schon mal!

 

Hi Marc, Hi Ford Prefect,

 

ich habe mir bezüglich des Einsatzes und der Konfiguration noch einmal Gedanken gemacht!

 

On 10/13/2021 at 7:22 AM, mgutt said:

Bei 15 Bays wird das ein bisschen schwierig. Ich mein klar, wenn die Platten stehen, ist halbwegs Ruhe, aber sobald du damit arbeitest, nervt die Kiste. Wirklich keine andere Stelle möglich?

 

Lautstärke

Selbstverständlich geht es hier lediglich darum, das Maximum heraus zu holen. Also Komponenten zu verwenden (Case + Lüfter), die insgesamt etwas Lautstärke optimierter sind.

Dass man die Maschine nicht lautlos hinbekommt, ist bei der Konfiguration natürlich verständlich.

 

 

 

On 10/13/2021 at 7:22 AM, mgutt said:

Das wird nicht einfach. Hier kommt es auf den Workflow und die Geschwindigkeit der HDDs an. Wenn das Array zb nur als Langzeitarchiv dienen soll,  kannst du da mit schnellen Platten schon mit 70 bis 80 MB/s drauf schreiben. Aber nur Single User. Bei Multi User keine Chance. Da bricht das noch weiter ein.

 

Daher wäre die Frage ob du lieber mit Pools (RAIDs) arbeitest oder mit einem sehr großen SSD Cache Pool, der alle Inhalte deines wöchentlichen Workflows enthält. Evtl sogar als separater Pool von dem du nur manuell ins Archiv (Array) schiebst.

 

Workflow (Langzeit Archiv und Workflow)

Hier würde ich am liebsten, wie vorgeschlagen, auf einen SSD Cache Pool zurückgreifen. "Aktuelle Projekte" sind idR. kleiner bis "maximal" 300 GB groß. Da komme ich insgesamt auf 2 TB aktive Projekte. Diese können dann anschließend in aller Ruhe (also z.B. mit den 80 MB/s) ins Langzeit Archiv gelegt werden. Beim Bau des Setups würde ich der Sicherheit halber am liebsten auf 4 TB SSD Cache aufstocken. Und die Projekte dann händisch ins Langzeit Archiv packen.

 

Hier und da gibt's immer mal wieder hektische Calls. Dass ein eigentlich abgeschlossenes Projekt doch noch mal angefasst werden muss.

 

 

 

On 10/13/2021 at 7:22 AM, mgutt said:

Noch eine Alternative wäre auf das Array zu verzichten und nur mit einem großen HDD Pool zu arbeiten.

 

Also erstmal die Frage ob die 80TB deine aktuellen Projektdaten sind oder nur dein Langzeitarchiv und wie groß das wöchentliche Projektvolumen ist.

 

Speicher-Bedarf

2-4 TB Cache für aktuelle Projekte. Wie von dir mit der SSD Pool Lösung empfohlen. 80 TB sind auch nicht sofort fällig. Starten würde ich wahrscheinlich mit 40 TB und bei bedarf, im Rahmen der Optionen von Unraid, skalieren.

 

 

 

On 10/13/2021 at 9:24 AM, Ford Prefect said:

...bist Du sicher, dass Du beim Video- Schnitt mit diesen - für den Anwendungsmöglichkeiten doch eher geringen - Datenbanken zwischen Client und unRaid Host klarkommen wirst? Wie hast Du due gemessen?

Ich vermute stark, es ist eine Rate mit simultan lesen UND schreiben?

 

10G sind bei sowas immer sinnvoll, vor allem bei schnellen Pools, ist sonst das Netzwerk der Flaschenhals.
Aber Du brauchst dann nicht nur eine (oder zwei/eine Dual) im Host, sondern auch eine Karte in jedem Client und den passenden Switch.
Wenn Clients und unraid host nah beieinander stehen kann man das etwas günstiger über Glasfaser- oder DAC "Kabel" als frei fliegende Verkabelung machen...wenn da eine LAN Verkabelung zb zwischen Räumen oder Etagen zum Einsatz kommen soll, wird es teurer. Die RJ45 Module sind viel teurer und werden warm...die Switches (evtl. brauchst Du dann zwei) sind auch teurer und haben evtl. aktive Kühlung notwendig (lauter).

 

Festplatten & Netzwerk-Geschwindigkeit

Hier hast du natürlich recht. Für meine Anwendungen brauche ich deutlich höhere Geschwindigkeiten.

Ich arbeite hauptsächlich mit Apple Hardware (iMac Pros & MacBook Pros). Je nach Projekt sind das unterschiedliche Datenraten. kleine HD Projekte mit einem Videofile vs. 4K RAW mit mehreren aktiven Spuren. Das ist natürlich ein großer Unterschied. Aktuell nutze ich Sandisk SSDs mit einem Durchsatz von 1 GB/s und 2 GB/s (SanDisk Extreme & Extreme Pro). Auf einer Platte die Rohdaten aktiver Projekte und auf der anderen die Caching Files. Das geht natürlich ab.

 

Ich würde das an Geschwindigkeit bevorzugen, was "technisch möglich" und preislich die Bank nicht komplett bricht um bestenfalls mit 4k Footage arbeiten zu können. Gibt es eine Möglichkeit das zu testen? Sprich: Final Cut und Premiere Pro auf.. Schneiden und den Bedarf an die Platten dabei aufzeichnen? Damit man das kalkulieren kann?

 

 

Vielen vielen Dank für eure Mühe bis hier hin schon mal!

 

 

Beste Grüße

Julian

Link to comment

@Julian Guttzeit also eine sehr schneller Pool, oder zwei (raw & cache der Projekte).
Dann 10G-40G Netzwerk.
Sag mal was zum Aufstellungsort und wie die Clients dann im Netzwerk angebunden sind....gibt es schon eine LAN Verkabelung? Bei Client auf dem Schreibtisch und unraid darunter kann man bis 5m günstiger wegkommen. Sind alle clients im Haus verteilt brauchst Du Minimum einen passenden Switch.

Mit PCIe 3.x NVMe bis x4 Anbindung sind 2GB/s das Maximum...da muss die CPU aber auch schon was leisten.

Gesendet von meinem SM-G780G mit Tapatalk

Link to comment
7 minutes ago, Ford Prefect said:

@Julian Guttzeit also eine sehr schneller Pool, oder zwei (raw & cache der Projekte).
Dann 10G-40G Netzwerk.

 

Ja genau. Da würde ich den schnellen Pool für aktive Projekte verwenden. Und alles "alte" ins "langsame" HDD Langzeitarchiv.

 

8 minutes ago, Ford Prefect said:

Sag mal was zum Aufstellungsort und wie die Clients dann im Netzwerk angebunden sind....gibt es schon eine LAN Verkabelung? Bei Client auf dem Schreibtisch und unraid darunter kann man bis 5m günstiger wegkommen. Sind alle clients im Haus verteilt brauchst Du Minimum einen passenden Switch.

 

Aufstellungsort wäre bei mir im Studio. Relativ nah am Haupt Schnittplatz. Abstand etwa 2-3 Meter. UnRaid Maschine würde direkt neben einem Bonding Router stehen.

Schön wäre es allerdings auch mehr als 5 Meter zurücklegen zu können. Falls ich die Maschine doch in einen separaten Raum verfrachten möchte. Von was für einem Preisunterschied sprechen wir denn da? Insgesamt bin ich bereit etwa 1.500 EUR netto ohne Platten für das System auszugeben.

 

 

9 minutes ago, Ford Prefect said:

Mit PCIe 3.x NVMe bis x4 Anbindung sind 2GB/s das Maximum...da muss die CPU aber auch schon was leisten.

 

Gibt es da was was du empfehlen würdest?

Link to comment
5 hours ago, Ford Prefect said:

Sag mal was zum Aufstellungsort und wie die Clients dann im Netzwerk angebunden sind....gibt es schon eine LAN Verkabelung?
 

Ich habe eben mal nachgeschaut. Meine iMac Pros unterstützen 10 Gigabit.

 

Zitat Apple

"Nbase‑T Ethernet mit Unterstützung für 1 Gbit, 2,5 Gbit, 5 Gbit und 10 Gbit Ethernet mit RJ‑45 Anschluss"

Link to comment
6 hours ago, Julian Guttzeit said:

Ja genau. Da würde ich den schnellen Pool für aktive Projekte verwenden. Und alles "alte" ins "langsame" HDD Langzeitarchiv.

Du musst Dir überlegen, ob

  • der Pool Redundanz haben soll, was ihn etwas gegen Ausfall schützt.
    Da er sehr gross sein muss für Deinen Anwendungsfall und wenn ein Verlust mehr als nur Deine Zeit ins Risiko stellt, würde ich das empfehlen.
    Also dann, typisch ein Pool in btrfs-raid1, also aus zwei Disks (NVMe) aufbauen.
  • Du evtl. für RAW und Cache Material je einen Pool brauchst, da Dein Client diese dann gleichzeitig benutzen kann ohne die Performance zu beeinträchtigen
6 hours ago, Julian Guttzeit said:

Aufstellungsort wäre bei mir im Studio. Relativ nah am Haupt Schnittplatz. Abstand etwa 2-3 Meter. UnRaid Maschine würde direkt neben einem Bonding Router stehen.

Schön wäre es allerdings auch mehr als 5 Meter zurücklegen zu können.

Du kannst, je nach Technologie sogar viele km zurücklegen. ;-)

Die Frage dabei ist, ob es OK ist die "Kabel" lose, zB über dem Boden oder in einem externen Kabelkanal zu verlegen oder in der Wand und welche Technologie dann zum Einsatz kommt. 

Sind die Clients zB in einem anderen Stockwerk oder einem anderen Raum bedeutet das Einschränkungen...vor allem bei der Esthetik, wenn man nicht in der Wand verlegt wird.

Hat Deine "Bude" schon eine LAN-Verkablung in der Wand, mit Wanddosen? Willst/musst Du das einplanen oder willst Du "nur" frei fliegend "verdrahten"?

 

6 hours ago, Julian Guttzeit said:

Falls ich die Maschine doch in einen separaten Raum verfrachten möchte. Von was für einem Preisunterschied sprechen wir denn da?

Die IT-Hardware ist nicht so teuer wie die Arbeit, wenn man eben eine strukturierte (Wand-)Verlegung machen muss statt eines frei liegenden Kabels über den Boden.

Im Bereich 10G Direktverkabelung reden wir von weniger als 50-60 EUR pro Verbindung für alles unter 10-20M, wenn man *nicht* RJ45 Kupferkabel nehmen muss.

 

6 hours ago, Julian Guttzeit said:

Insgesamt bin ich bereit etwa 1.500 EUR netto ohne Platten für das System auszugeben.

in diesen Zeiten ist nichts mehr günstig...die Preise sind deutlich höher in allen Bereichen, gegenüber 2019.

Man müsste mal was zusammenstellen....ein 10G Switch ksotet, je nach Dimension und Technologie 120.450EUR. bei 4 Clients wirst Du um einen kleinen Switch nicht herumkommen bzw. das gleiche Geld in den Server stecken müssen in Form von 10G Karten 

...ich denke es wird knapp.

 

59 minutes ago, Julian Guttzeit said:

Ich habe eben mal nachgeschaut. Meine iMac Pros unterstützen 10 Gigabit.

 

Zitat Apple

"Nbase‑T Ethernet mit Unterstützung für 1 Gbit, 2,5 Gbit, 5 Gbit und 10 Gbit Ethernet mit RJ‑45 Anschluss"

 

...das macht die Sache etwas teurer, weil diese Technik viel Energie verbracht, der Switch dann zu warm werden kann und daher ohne aktive Kühlung nicht mehr auskommt.

Ausserdem sind die RJ45 Module / Nettzwerkkarten teurer.

 

Beispiel, unter der Annahme, dass die Clients alle über RJ45 an den Switch angebunden werden, der Server aber über preiswerte Direktverbindungen:

...dazu kommt dann noch der unraid host und NVMe(s) für den/die Pools.

 

Link to comment
On 10/23/2021 at 1:38 AM, Ford Prefect said:

Du musst Dir überlegen, ob

  • der Pool Redundanz haben soll, was ihn etwas gegen Ausfall schützt.
    Da er sehr gross sein muss für Deinen Anwendungsfall und wenn ein Verlust mehr als nur Deine Zeit ins Risiko stellt, würde ich das empfehlen.
    Also dann, typisch ein Pool in btrfs-raid1, also aus zwei Disks (NVMe) aufbauen.
  • Du evtl. für RAW und Cache Material je einen Pool brauchst, da Dein Client diese dann gleichzeitig benutzen kann ohne die Performance zu beeinträchtigen

 

Redundanz & Cache

Redundanz benötige ich hier nicht, da ich das Material immer nochmal als Backup gespeichert habe. Sprich das aktive Rohmaterial liegt auf dem SSD Pool (und Backup auf anderen Speichermedien). Den "Cache" würde ich auf SSD Platten am Client direkt legen. So habe ich auch Backups vom Projekt etc. Das lässt sich bei Finalcut z.B. ganz gut einstellen.

 

 

 

On 10/23/2021 at 1:38 AM, Ford Prefect said:

Du kannst, je nach Technologie sogar viele km zurücklegen. ;-)

Die Frage dabei ist, ob es OK ist die "Kabel" lose, zB über dem Boden oder in einem externen Kabelkanal zu verlegen oder in der Wand und welche Technologie dann zum Einsatz kommt. 

Sind die Clients zB in einem anderen Stockwerk oder einem anderen Raum bedeutet das Einschränkungen...vor allem bei der Esthetik, wenn man nicht in der Wand verlegt wird.

Hat Deine "Bude" schon eine LAN-Verkablung in der Wand, mit Wanddosen? Willst/musst Du das einplanen oder willst Du "nur" frei fliegend "verdrahten"?

 

Verkabelung

Etagen etc. müssen nicht zurückgelegt werden. Das kann auch alles "frei" passieren. Aktuell wird ja nur ein Client benötigt. In Zukunft ggf. 2 bis maximal 3.

 

 

 

On 10/23/2021 at 1:38 AM, Ford Prefect said:

Die IT-Hardware ist nicht so teuer wie die Arbeit, wenn man eben eine strukturierte (Wand-)Verlegung machen muss statt eines frei liegenden Kabels über den Boden.

Im Bereich 10G Direktverkabelung reden wir von weniger als 50-60 EUR pro Verbindung für alles unter 10-20M, wenn man *nicht* RJ45 Kupferkabel nehmen muss.

 

Dann ist das in diesem Fall kein Problem.

 

 

 

On 10/23/2021 at 1:38 AM, Ford Prefect said:

in diesen Zeiten ist nichts mehr günstig...die Preise sind deutlich höher in allen Bereichen, gegenüber 2019.

Man müsste mal was zusammenstellen....ein 10G Switch ksotet, je nach Dimension und Technologie 120.450EUR. bei 4 Clients wirst Du um einen kleinen Switch nicht herumkommen bzw. das gleiche Geld in den Server stecken müssen in Form von 10G Karten 

...ich denke es wird knapp.

 

Anzahl Clients / SWITCH / Netzwerkkarten

Hier würde zunächst auch die Verkabelung eines Clients ausreichen. In Zukunft 2 - erstmal maximal drei. Sprich die Erweiterungen für weitere Clients würde ich in das Budget noch nicht mit aufnehmen. AUch "externe" Technik wie den Switch würde ich zusätzlich rechnen. Mir geht es bei dem Budget lediglich um die Maschine ansich (Mainboard, Lüfter, eingebaute Netzwerkkarte um mindestens einen Client über 10G Ethernet zu versorgen, Arbeitsspeicher etc.)

 

Preiskalkulation / Benötigte Hardware

Gibt es den aktuelle

--> Mainboards die besonders für diese Art der Anwendung zu empfehlen sind? Welches man ggf. auf weitere Clients upgraden könnte (hinsichtlich Netzwerk Karten).

--> Wäre ich mit dem "Fractal Design Define R5, Tower-Gehäuse" gut beraten (abhängig vom Mainboard) oder ist hier sogar eher etwas anderes zu empfehlen? (Richtung "Server Gehäuse" z.B.)

--> Netzwerkkarte wäre hier z.B. die "IBM Mellanox CX312A ConnectX-3 Ethernet Dual SFP+ Port 10G PCIe 4x Netzwerk Kart" die wird dann mit dem

--> Switch "ZyXEL XS1930 Desktop 10G Smart Switch" verbunden und kann so wie viele Clients mit 10G versorgen? (oder braucht es da dann die weiteren Netzwerkkarten im Unraid Server?)

--> Selbstverständlich die notwendigen Kabel..

--> NVMe(s) (gibt es hier welche die besonders zu empfehlen sind?) z.B. 2 mal 2TB "SanDisk Extreme PRO M.2 NVMe 3D SSD"?

 

 

 

 

On 10/23/2021 at 1:38 AM, Ford Prefect said:

...das macht die Sache etwas teurer, weil diese Technik viel Energie verbracht, der Switch dann zu warm werden kann und daher ohne aktive Kühlung nicht mehr auskommt.

Ausserdem sind die RJ45 Module / Nettzwerkkarten teurer.

 

Beispiel, unter der Annahme, dass die Clients alle über RJ45 an den Switch angebunden werden, der Server aber über preiswerte Direktverbindungen:

 

Module / Netzwerkkarten / Direktverbindung etc.

Das klingt doch gut! Den switch würde ich direkt verbinden. Die Clients dann per RJ45 Patchkabel.

Solange ich erstmal nur einen Client bedienen muss, könnte ich auf den Switch verzichten und eine "einfache" 10 Gigabit Netzwerkkarte einbauen.

Zum Beispiel so eine "NVIDIA Mellanox MCX4121A-XCAT ConnectX®-4 Lx EN Netzwerkkarte, 10GbE Dual-Port SFP28, PCIe3.0 x8" mit einem oder 2 oder mehr Ports..? (https://www.fs.com/de/products/119651.html?attribute=4846&id=259039).

 

 

Entschuldige hier und da meine mangelnde Fachkenntnis. Ich habe mich bisher hauptsächlich auf Software Ebene bewegt. Fertige Server direkt angemietet.. Macs benutzt.. Das hoch der Gefühle sind 15 Raspberry Projekte. Da hört das Schrauben allerdings auch auf. Rechner zusammengebaut habe ich seit 2012 nicht mehr. Und da waren die Anforderungen ja noch ganz andere. Ich hoffe du hast Verständnis! :D Ich versuche mich so weit es geht einzulesen und rein zu fuchsen. Immerhin wird die Konfiguration von Unraid selbst für mich kein großes Problem darstellen. Die Konfiguration der Hardware allerdings schon.. Da es ja einige wichtige Punkte zu beachten gibt, die ich so noch nicht auf dem Schirm hatte. Danke dir auf jeden Fall schon mal für die tolle Hilfe bis hier hin!!

 

Beste Grüße

Julian

Link to comment
34 minutes ago, Julian Guttzeit said:

Redundanz & Cache

Redundanz benötige ich hier nicht, da ich das Material immer nochmal als Backup gespeichert habe. Sprich das aktive Rohmaterial liegt auf dem SSD Pool (und Backup auf anderen Speichermedien). Den "Cache" würde ich auf SSD Platten am Client direkt legen. So habe ich auch Backups vom Projekt etc. Das lässt sich bei Finalcut z.B. ganz gut einstellen.

Ah, OK.

Wenn die Performance einer SATA-SSD reicht, geht das auch...und die Daten müssen nicht auch noch über den Link zum unraid.

 

34 minutes ago, Julian Guttzeit said:

Verkabelung

Etagen etc. müssen nicht zurückgelegt werden. Das kann auch alles "frei" passieren. Aktuell wird ja nur ein Client benötigt. In Zukunft ggf. 2 bis maximal 3.

OK, dann kannst Du alles "frei fliegend" machen.

 

34 minutes ago, Julian Guttzeit said:

Anzahl Clients / SWITCH / Netzwerkkarten

Hier würde zunächst auch die Verkabelung eines Clients ausreichen. In Zukunft 2 - erstmal maximal drei. Sprich die Erweiterungen für weitere Clients würde ich in das Budget noch nicht mit aufnehmen. AUch "externe" Technik wie den Switch würde ich zusätzlich rechnen.

OK, für einen Client könntest Du den Switch erstmal weglassen und 1:1 verbinden.

Allerdings würde ich eben keine 10GB-T ()RJ45) empfehlen, sondern eben SFP+/SFP28 Ports ... da muss dann noch ein 10GB-T Modul rein.

Zum Beispiel sowas: https://www.fs.com/de/products/87588.html?attribute=77&id=274068

Die fs.com hast Du ja schon gefunden.

Dieses Modul ist sogar auf 80m ausgelegt, statt 30m und wird mit neuerem Chipsatz wohl etwas kühler sein.

 

34 minutes ago, Julian Guttzeit said:

Mir geht es bei dem Budget lediglich um die Maschine ansich (Mainboard, Lüfter, eingebaute Netzwerkkarte um mindestens einen Client über 10G Ethernet zu versorgen, Arbeitsspeicher etc.)

 

Preiskalkulation / Benötigte Hardware

Gibt es den aktuelle

--> Mainboards die besonders für diese Art der Anwendung zu empfehlen sind? Welches man ggf. auf weitere Clients upgraden könnte (hinsichtlich Netzwerk Karten).

theoretisch ja, aber Verfügbarkeit ist in diesen Zeiten so eine Sache...

34 minutes ago, Julian Guttzeit said:

--> Wäre ich mit dem "Fractal Design Define R5, Tower-Gehäuse" gut beraten (abhängig vom Mainboard) oder ist hier sogar eher etwas anderes zu empfehlen? (Richtung "Server Gehäuse" z.B.)

...schönes, schallgedämmtes Gehäuse, aber evtl für 15 Platten zu klein. Schau Dir auch mal die Serie von Nanoxia an link

 

Edit: irgendwas ging hier gerade nicht..weitere Antworten im 2ten Teil unten

Edited by Ford Prefect
  • Like 1
Link to comment
36 minutes ago, Julian Guttzeit said:

--> Netzwerkkarte wäre hier z.B. die "IBM Mellanox CX312A ConnectX-3 Ethernet Dual SFP+ Port 10G PCIe 4x Netzwerk Kart" die wird dann mit dem

--> Switch "ZyXEL XS1930 Desktop 10G Smart Switch" verbunden und kann so wie viele Clients mit 10G versorgen? (oder braucht es da dann die weiteren Netzwerkkarten im Unraid Server?)

Es ist ein Switch..der bindet alle Clients jeweils bis zu 10G transparent an.

Vor allem sorgt er in Deinem Fall dafür, dass du von RJ45 auf SFP+ "wandeln" kannst.

Allerdings, wenn zum unraid nur 1 oder 2 Links führen geht halt gleichzeitig auch nur soviel da durch.

Du könntest also eher 2 Clients simultan ganz gut "auslasten".

Du kannst auch eine 40G oder gar 100G Karte reinstecken, aber das wird sehr, sehr teurer.

Hier ein Switch für sowas: https://geizhals.de/?cat=switchgi&xf=13265_4~13279_2

 

Bis zu 2x10G = 2GByte/sec ist schon recht heftig....eine NVMe muss auch das erstmal schaffen und nicht nur kurzzeitig.

Wenn Du keine Redundanz im Pool brauchst, könntest Du 2 NVMe nehmen und zwei Pools, wobei die clients darauf auchten sollten, nicht eben alles vom gleoichen Pool zu machen.

Dann eben eine QSFP+ Karte oder 2 DUAL Karten....dann so einen Switch: https://geizhals.de/mikrotik-routerboard-crs300-dual-boot-rackmount-gigabit-managed-switch-crs312-4c-8xg-rm-a2154097.html?hloc=de

Entweder 4x SFP+ (2x DUAL SFP+) oder so ein Kabel für QSFP+ https://www.fs.com/de/products/30903.html

Lies mal hier: https://community.fs.com/blog/sfp-vs-sfp-vs-sf-p28-vs-qsfp-vs-qsf-p28-what-are-the-differences.html

 

Aber das wird nicht günstig...und Du brauchst pro 10G Link, neben der Power für das eigentliche NAS, in unraid einen CPU-Core extra.

 

52 minutes ago, Julian Guttzeit said:

--> NVMe(s) (gibt es hier welche die besonders zu empfehlen sind?) z.B. 2 mal 2TB "SanDisk Extreme PRO M.2 NVMe 3D SSD"?

Du hast da schon ganz schön was vor und geht sicherlich über den Normaluser hinaus. Evtl. kann @mgutt da mehr sagen.

Wenn DU wirklich 4x10G Leistung aus dem Ding rausholen willst, brauchst Du auch bei NVMe was "ordentlches", selbst wenn Du es auf 2 NVMe verteilst.

Evtl wäre es sinnvoll eine PCIe-v4 Karte zu nehmen und eben da die NVMe draufzusetzen...ich denke PCIe-v3 ist evtl. schon zu langsam für Deinen Use-Case.

 

52 minutes ago, Julian Guttzeit said:

Module / Netzwerkkarten / Direktverbindung etc.

Das klingt doch gut! Den switch würde ich direkt verbinden. Die Clients dann per RJ45 Patchkabel.

Solange ich erstmal nur einen Client bedienen muss, könnte ich auf den Switch verzichten und eine "einfache" 10 Gigabit Netzwerkkarte einbauen.

Siehe oben..."einfach" = günstig ist die auch nicht...Du kannst ein RJ45 Modul einbauen

 

52 minutes ago, Julian Guttzeit said:

Zum Beispiel so eine "NVIDIA Mellanox MCX4121A-XCAT ConnectX®-4 Lx EN Netzwerkkarte, 10GbE Dual-Port SFP28, PCIe3.0 x8" mit einem oder 2 oder mehr Ports..? (https://www.fs.com/de/products/119651.html?attribute=4846&id=259039).

Die ist aber nicht einfach ;-)

Oben hatte ich eine Gebrauchte verlinkt...das spart Geld....2 zum Preis von einer.

Allerdings wirst Du evtl. ein Board mit ,mehr Lanes brauchen...ich denke auch hier lann @mgutt mehr sagen.

Vielleicht kann er DIr ein System zusammenstellen....

 

 

  • Like 1
Link to comment

@Julian Guttzeit...denke nach erstem Überschlagen, wirst Du unter 2500EUR, eher 3000EUR nicht rauskommen, beim Endausbau mit 4 Clients.

Schau mal hier: https://geizhals.de/?cat=WL-2253036

 

Das MB hat schon Platz für 2x NVMe...zwei Weitere über PCIe Karte

Dann noch zwei gebrauchte Mellanox DUAL

Edit2: stimmt so nicht, siehe unten

...und natürlich noch Gehäuse plus NT...evtl Aufrüstung auf 128GB RAM und 2TB NVMe statt 1TB.

Wenn Du mehr als 8 HDDs brauchst, kommt noch ein HBA hinzu 

 

Edit: oder Du nimmst eine Karte mit QFSP+ (40G).

Edit2: sehe gerade das MB hat zwar 4 PCIe-Slots, und 2x M2 aber es kann nure 2 M2, wenn einer der PCIe-x4 abgeschaltet ist.

Damit hast Du mit der DUAL 40GB Karte entweder Platz für 4x NVMe oder 3 NVMe und einen HBA). 

 

Diese DUAL zB: https://www.ebay.de/itm/142435076489?epid=1678129904&hash=item2129cac989:g:yesAAOSwkG5gwIkW

Edit4: dieser Typ hat DUAL 40GB-Ethernet:https://www.ebay.de/itm/224616408692?hash=item344c2e6674:g:PLIAAOSwGahhWw-H

Das sind inifiniband Karten, können aber auch auf Ethernet umgestellt werden. https://www.mellanox.com/related-docs/user_manuals/ConnectX-3_VPI_Single_and_Dual_QSFP_Port_Adapter_Card_User_Manual.pdf

 

Dann diesen Switch: https://geizhals.de/mikrotik-routerboard-crs300-dual-boot-rackmount-gigabit-managed-switch-crs326-24s-2q-rm-a2138601.html

...und pro Client ein fs.com 80m/RJ45-Modul rein (kühler), sowie 2x QSFP+ DACs.

Dann hast Du 2x40Gbps Link zwischen Switch und unraid, den sich alle Clients teilen können.

Du sparst eine DUAL Karte, brauchst aber noch 4 Module. Dafür kann auch der Switch mit der Leistung locker umgehen.

 

Dann kommt es "nur" auf die Performance der NVMe an....für jeden Client eine dedizierte als Pool. da geht auf jeden Fall je 10G für 4 (oder mehr clients, wenn Du die beiden 40G Links bündelst im Switch).

 

Edit3: ... oder Du bist erstmal mit 2x-3x NVME zufrieden und rüstest beim HBA auf SAS SSD nach: https://geizhals.de/?cat=hdssd&xf=222_2000~252_1000~4832_2~7126_1

HBA: https://www.ebay.de/itm/324468475012?hash=item4b8bd40484:g:BLsAAOSwVKdhcnj~ (für SATA oder SAS HDDs/SSDs).

 

Edited by Ford Prefect
Alternative mit DUAL QSFP+ Karte
  • Like 1
Link to comment
21 hours ago, Ford Prefect said:

@Julian Guttzeit...denke nach erstem Überschlagen, wirst Du unter 2500EUR, eher 3000EUR nicht rauskommen, beim Endausbau mit 4 Clients.

Schau mal hier: https://geizhals.de/?cat=WL-2253036

 

Besten Besten Dank dir!! Ich habe mal alles in einer Tabelle aufgelistet.

Würde zunächst erstmal einen Client bedienen. Sprich die 40G Karte einbauen und mit dem "40G QSFP+ auf 10G SFP+" Adapter auf 10G LAN gehen. Damit dann direkt in den iMac Pro. (So bin ich auch für die Zukunft gewappnet, wenn ich zwei Clients bedienen will oder mehr mit nem Switch.)

 

Festplatten hatte ich zunächst erstmal 2 x 16 TB Seagate IronWolf Pro rausgesucht, die ich nach und nach aufstocken will (je nach Unraid Konfiguration).

 

MB das "Gigabyte W480 Vision W". Das hat ja schon 10 SATA III Ports, Dual Ultra Fast M.2 mit den 4 x PCIe Gen3 Schnittstellen (bzw. 3 je nach Konfiguration). 4 x RAM Steckplätze. 

 

 

CPU hab ich die stärkere gewählt die du herausgesucht hattest (Intel Xeon W-1290 / 3.2 GHz CPU - 10 Kerne 3.2 GHz - Intel LGA1200 - Intel Boxed).

4 x 32 Samsung DDR4 RAM für die 4 Steckplätze auf dem Board.

Netzteil das "leise" --> "550 Watt be quiet! Straight Power".

 

Im "Fractal Design Define 7" Case sind ja bereits 3 x 140mm Lüfter drin.

Reichen die aus, oder sollte ich noch ein paar verbauen? Ist ja zeitweise und vor allem zukünftig ganz schön viel Last auf der Maschine.

 

Habe ich ansonsten etwas für den ersten build für einen Client vergessen? Hier nochmal meine Liste: https://docs.google.com/spreadsheets/d/1jLXRjLGi6BdmvySJyZ5XW0Tp18FJ6i0cMIFFjP26dRk/edit?usp=sharing

 

Beste Grüße & großen Dank

Julian

Bildschirmfoto 2021-10-25 um 22.05.21.png

Link to comment
38 minutes ago, Julian Guttzeit said:

Würde zunächst erstmal einen Client bedienen. Sprich die 40G Karte einbauen und mit dem "40G QSFP+ auf 10G SFP+" Adapter auf 10G LAN gehen. Damit dann direkt in den iMac Pro. (So bin ich auch für die Zukunft gewappnet, wenn ich zwei Clients bedienen will oder mehr mit nem Switch.)

Ich dachte den iMac Pro hat 10GB-T Ports, also RJ45. Damit kommst Du mit dem Konverter-Kabel nicht weit. Das ist für ein SFP+ DACs.

Diese DUAL-Karte hat den Vorteil, dass Du sie auch auf Ethernet in der Firmware umstellen kannst und genau diese Version auch 4x10G Ethernet kann (allerdings wird sie bei Vollast etwas weniger liefern, da sie PCIe-Gen3 und x8 ist....das reicht "nur" für ca. 72-78Gbps (siehe https://de.wikipedia.org/wiki/PCI_Express)

 

Wenn Du noch nicht in den Switch investieren willst würde ich für einen Client nur eine "einfache" Karte + RJ45-Modul (das kannst Du am Switch für die 40G DUAL später wiederverwenden) nehmen.

Zum Beispiel: link - achte bei diesen Karten darauf für welche Slothöhe (Low-Profile oder Full-Profile) das Bracket dabei ist..bei gebrauchten gibt es oft nicht Beide....das muss zum Gehäuse passen...das Fractal hat Full-Profile Slots.

Dann ein 10GB-T Modul: https://www.fs.com/de/products/87588.html?attribute=77&id=274068

Da ist dann weniger Geld bei "rausgeschmissen" als mit dem QSFP+ Konverter....die 10G Karte kannst Du später immer noch recyclen oder als cold spare in den Schrank legen.

 

38 minutes ago, Julian Guttzeit said:

MB das "Gigabyte W480 Vision W". Das hat ja schon 10 SATA III Ports, Dual Ultra Fast M.2 mit den 4 x PCIe Gen3 Schnittstellen (bzw. 3 je nach Konfiguration). 4 x RAM Steckplätze. 

Naja, es hat nur PCIe-3gen, nicht 4gen....aber 4gen gibt es nur sehr teuer mfür die Anzahl an Lanes.

Ich habe die grosse ATX Version des MB rausgesucht, damit Du noch einen Slot für einen HBA hast, wenn Du mehr als 10 DIsks brauchst.

Leider eben, ist dann nur entweder ein PCIe-Slot oder ein M2-Slot weniger nutzbar.

Eigentlich war der Gedanke für 4 clients dann je Einem eine NVMe als Pool bereitzustellen. Das wird aber nur auf dieser Plattform klappen, solange Du den HBA noch nicht hast, also unter 11 HDDs bleibst um dann so also 2 M2 und je ein NVMe im PCIe-Adapter betreiben.

 

Ja, die beiden NVMe passen nativ in die M2 Slots im MB. Evtl. musst Du die Kühlung ausrichten und/oder je einen Kühlkörper nachrüsten (Achte auf die Nähe zu Bauteilen und PCIe Slot, damit der Kühlkörper nicht im Weg ist)...Oder die PCIe zu M2 Karte nehmen, die einen Kühlkörper hat.

 

38 minutes ago, Julian Guttzeit said:

CPU hab ich die stärkere gewählt die du herausgesucht hattest (Intel Xeon W-1290 / 3.2 GHz CPU - 10 Kerne 3.2 GHz - Intel LGA1200 - Intel Boxed).

Ich denke damit bist Du auf der sicheren Seite um die Performance auch über den Draht zu bringen.

Ich habe einen Pool im Raid1 aus 2x 1TB NVMe und mein i8100 mit 3.6GHz läuft bei einem Scrub oder re-balance (bei 3.2GB/sec) auf etwa 25% (4 Cores)

Wenn man das hochrechnet ist ein Core für die NVMe und ein Core für den 10G Link....dann hast Du immer noch 2 Cores "übrig" ;-)

 

38 minutes ago, Julian Guttzeit said:

4 x 32 Samsung DDR4 RAM für die 4 Steckplätze auf dem Board.

Hier habe ich kein Gefühl, was Du für einen Client allein wirklich brauchst. Das System läuft auch mit nur einem Modul. Nachrüsten kannst Du immer.

Wenn Du aber doch ein Kit willst, schau genau dafür nach...kann billiger sein, bzw sind die aus einer Charge und sind besser untereinander "verträglich" (dafür gehen sie dann wahrscheinlicher auch gleichzeitig kaputt ;-) )

 

38 minutes ago, Julian Guttzeit said:

Netzteil das "leise" --> "550 Watt be quiet! Straight Power".

Das hat schon 9x SATA und ist vollmodular. Ich meine man kann dann SATA Strom-/Modul-Kabel nachkaufen. 550W müssten für bis zu 16Disks reichen (20-25W braucht eine HDD beim Start)...das Define R7 schafft bis zu 14x 3.5HDD und dann noch 1-2 "irgendwo".

 

38 minutes ago, Julian Guttzeit said:

Im "Fractal Design Define 7" Case sind ja bereits 3 x 140mm Lüfter drin.

Reichen die aus, oder sollte ich noch ein paar verbauen? Ist ja zeitweise und vor allem zukünftig ganz schön viel Last auf der Maschine.

...für die 2 HDDs auf jeden Fall...für mehr als die Standard-Anzahl an HDDs (6 Stck) kannst Du einen Zusatzkäfig für Innen optional kaufen (8 Stck).

Ich würde mir die Lüfter ab Werk mal anhören...dann evtl. Weitere, leisere nachkaufen oder ersetzen, wenn die Zahl der Disks steigt.

 

38 minutes ago, Julian Guttzeit said:

Habe ich ansonsten etwas für den ersten build für einen Client vergessen? Hier nochmal meine Liste: https://docs.google.com/spreadsheets/d/1jLXRjLGi6BdmvySJyZ5XW0Tp18FJ6i0cMIFFjP26dRk/edit?usp=sharing

Monitor, Tastatur und Maus vorhanden? Nur für den Fall...das MB hat kein IPMI, aber die CPU einen IGP.

  • Like 1
Link to comment
42 minutes ago, Ford Prefect said:

Wenn Du noch nicht in den Switch investieren willst würde ich für einen Client nur eine "einfache" Karte + RJ45-Modul (das kannst Du am Switch für die 40G DUAL später wiederverwenden) nehmen.

 

Das macht Sinn! Erstmal verwende ich das System mit einem Client und bei Bedarf erweitere bzw. tausche ich die Netzwerkkarte dann dementsprechend aus. Dann arbeite ich selbst erstmal an der Maschine und ingeste die Projekte der Kollegen, wenn diese durch sind. Dann kann ich noch ein wenig Erfahrungen mit Unraid und dem System im allgemeinen sammeln.

 

48 minutes ago, Ford Prefect said:

Da ist dann weniger Geld bei "rausgeschmissen" als mit dem QSFP+ Konverter....die 10G Karte kannst Du später immer noch recyclen oder als cold spare in den Schrank legen.

 

Macht Sinn! Danke dir!

 

48 minutes ago, Ford Prefect said:

Ich habe die grosse ATX Version des MB rausgesucht, damit Du noch einen Slot für einen HBA hast, wenn Du mehr als 10 DIsks brauchst.

Leider eben, ist dann nur entweder ein PCIe-Slot oder ein M2-Slot weniger nutzbar.

 

Auch hier werde ich wohl nach und nach erweitern. Also erstmal die 10 Bays nicht ausreizen. Aber gut, dass ich mit dem Board noch die Möglichkeit per HBA habe!

 

52 minutes ago, Ford Prefect said:

Eigentlich war der Gedanke für 4 clients dann je Einem eine NVMe als Pool bereitzustellen. Das wird aber nur auf dieser Plattform klappen, solange Du den HBA noch nicht hast, also unter 11 HDDs bleibst um dann so also 2 M2 und je ein NVMe im PCIe-Adapter betreiben.

 

Ja, die beiden NVMe passen nativ in die M2 Slots im MB. Evtl. musst Du die Kühlung ausrichten und/oder je einen Kühlkörper nachrüsten (Achte auf die Nähe zu Bauteilen und PCIe Slot, damit der Kühlkörper nicht im Weg ist)...Oder die PCIe zu M2 Karte nehmen, die einen Kühlkörper hat.

 

Das mit der NVMe pro Client ist ne gute Idee! Würde ich zukünftig dann auch so konfigurieren. Ich denke aber erstmal reichen 2 NVMe's, die ich für mich zusammen packe. Wenn der zweite Client hinzu kommt würde ich die NVMe's aufteilen. Und bis drei Clients sollte das ja auch mit einer HBA noch klappen (wenn ich das richtig verstanden habe).

 

55 minutes ago, Ford Prefect said:

Hier habe ich kein Gefühl, was Du für einen Client allein wirklich brauchst. Das System läuft auch mit nur einem Modul. Nachrüsten kannst Du immer.

Wenn Du aber doch ein Kit willst, schau genau dafür nach...kann billiger sein, bzw sind die aus einer Charge und sind besser untereinander "verträglich" (dafür gehen sie dann wahrscheinlicher auch gleichzeitig kaputt ;-) )

 

Klar, hast du recht. Macht Sinn. Hab jetzt mal ein Kit raus gesucht. Gleich nen paar Scheine günstiger :D.

 

56 minutes ago, Ford Prefect said:

Das hat schon 9x SATA und ist vollmodular. Ich meine man kann dann SATA Strom-/Modul-Kabel nachkaufen. 550W müssten für bis zu 16Disks reichen (20-25W braucht eine HDD beim Start)...das Define R7 schafft bis zu 14x 3.5HDD und dann noch 1-2 "irgendwo".

 

Perfekt! Damit bin ich dann auch für alles soweit gerüstet was ich in naher Zukunft vor habe.

 

57 minutes ago, Ford Prefect said:

...für die 2 HDDs auf jeden Fall...für mehr als die Standard-Anzahl an HDDs (6 Stck) kannst Du einen Zusatzkäfig für Innen optional kaufen (8 Stck).

Ich würde mir die Lüfter ab Werk mal anhören...dann evtl. Weitere, leisere nachkaufen oder ersetzen, wenn die Zahl der Disks steigt.

 

Die Lüfter Situation checke ich dann mal ab!

 

59 minutes ago, Ford Prefect said:

Monitor, Tastatur und Maus vorhanden? Nur für den Fall...das MB hat kein IPMI, aber die CPU einen IGP.

 

Yes! Von den ganzen Raspi Projekten sind genügend Tastaturen und Mäuse am Start. Bildschirme genauso. Aber guter Hinweis :D.

 

 

Ich glaube dann bin ich soweit ready to rock! Dauert sicher hier und da ein bisschen, was die Lieferung angeht.. Aber umso höher ist die Vorfreude.

Danke dir wirklich vielmals Ford Prefect! Das war alles sehr lehrreich und hat mir stark geholfen, mich anhand deiner Anhaltspunkte zurecht zu finden. Was wie wo wichtig ist.. Und für welchen Case diese oder eher jene Lösung in betracht zu ziehen ist. Preislich haut das auch alles hin! Bin sehr gespannt wie sich das Setup schlagen wird!

 

Hier nochmal meine aktuelle Liste: https://docs.google.com/spreadsheets/d/1jLXRjLGi6BdmvySJyZ5XW0Tp18FJ6i0cMIFFjP26dRk/edit?usp=sharing

 

Beste Grüße

Julian

 

Link to comment
42 minutes ago, Julian Guttzeit said:

Das mit der NVMe pro Client ist ne gute Idee! Würde ich zukünftig dann auch so konfigurieren. Ich denke aber erstmal reichen 2 NVMe's, die ich für mich zusammen packe. Wenn der zweite Client hinzu kommt würde ich die NVMe's aufteilen. Und bis drei Clients sollte das ja auch mit einer HBA noch klappen (wenn ich das richtig verstanden habe).

Naja, Du wirst irgendwo an eine Grenze stossen. 10Gbps übers Netz sind "nur" 1GB/sec auf der Disk.. eine/diese NVMe Gen3x4 schafft etwas zwischen 0.8 bis 3.2GB/s.

Wie die Werte genau aussehen, musst Du ausprobieren...Dein UseCase ist schon etwas ungewöhnlich für unRaid.

 

42 minutes ago, Julian Guttzeit said:

Klar, hast du recht. Macht Sinn. Hab jetzt mal ein Kit raus gesucht. Gleich nen paar Scheine günstiger :D.

Das wird evtl sogar funktionieren, ist aber kein ECC-RAM ... sowas gehört sich eigentlich bei so einem grossen Storage und wertvollem Datenmaterial...sind ja keine wiederbeschaffbaren DVD oder BluRay-ISOs ;-)

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.