Jump to content

Hardware Konfiguration Check vor Kauf


Recommended Posts

Hallo Forum,

ich habe mich jetzt nach längerer Überlegung für ein Unraid Storage als Ersatz für ein Buffalo 19" 4-bay Storage im RAID5 entschieden.

Auf dem Storage laufen z.Z. 16 VM's über einen IBM ESXi Host mit 2xXeon CPU und 64GB RAM. Der Datenspeicher ist mit NFS an den Host verbunden. Das Storage kommt an seine IOPS Grenzen.

Die ESXi Hosts sollen nach der Storagemigration auf Proxmox migriert werden.

Folgende Hardware habe ich für unraid geplant:

Gehäuse: Fantec SRC-2080X07

Netzteil: Seasonic 500W  SS-500L2U

Board: SM X11SCA-F

CPU: Xeon E-2224 4C/4T

Kühler: Artic Alpine 12 CO

RAM: 2x Kingston silver premier DIMM 16GB KSM26ES8/16ME

HDD Array: 3x WD40EFRX (Parity,  ISO, Download, Daten, Media)

Cache Pool: 2x WDS100T1R0C 1TB NVME SSD

VM Pool: 2x WDS100T1ROA 1TB Sata SSD

Unraid plus Lizenz

 

Netzwerkanbind an den Host über NFS.

 

Ich würde gerne eure Meinung dazu hören ob das so passt. Insbesondere mit der Disk Zusammenstellung bin ich mir unsicher.

 

Danke

Michael

 

 

Edited by Yachti
Korrektur
Link to comment
  • Yachti changed the title to Hardware Konfiguration Check vor Kauf
1 hour ago, Yachti said:

Das Storage kommt an seine IOPS Grenzen.

...

HDD Array: 3x WD40EFRX (Parity,  ISO, Download, Daten, Media)

Cache Pool: 2x WDS100T1R0C 1TB NVME SSD

VM Pool: 2x WDS100T1ROA 1TB Sata SSD

"...Das Storage kommt an seine IOPS Grenzen..."
und dann willst Du WD40EFRX Sata bis zu 5400 RPM mit nur 64 MB Cache-Speicher einsetzen?

 

Hoffst Du dabei dann auf die überteuerten
 Western Digital Red SN700 NVMe NAS SSD (WDS100T1R0C)
die ebenfalls ziemlich teuren
 Western Digital WD Red SA500 NAS SATA SSD 1TB (WDS100T1R0A)?
oder wie soll da eine IOPS Verbesserung zustande kommen?

 

Ich verstehe noch nicht so ganz was Du für einen Engpass hast und wie Dir unraid dabei helfen soll.

Link to comment

 

Quote

"...Das Storage kommt an seine IOPS Grenzen..."
und dann willst Du WD40EFRX Sata bis zu 5400 RPM mit nur 64 MB Cache-Speicher einsetzen?

Die sind doch als reine Fileablage gedacht.

Probleme machen die VM's da geht die Disk Auslastung hoch beim lesen

2 hours ago, DataCollector said:

oder wie soll da eine IOPS Verbesserung zustande kommen?I

Dadurch das ich VM's die jetzt alle auf einem Raid5 laufen auf 2 SSD's auslagere und den Fileserver auf NFS shares.

Quote

Ich verstehe noch nicht so ganz was Du für einen Engpass hast und wie Dir unraid dabei helfen soll.

Dann habe ich anscheinend bei unraid noch Denkfehler oder es ist das falsche Storage. Das Buffalo hat eine Laufzeit von knapp über 5 Jahre und will es ersetzen.

Die Smartwerte der Disks sind alle noch OK

Bin für alternative Vorschläge um die Perfomance zu erhöhen offen.

Link to comment

HDD RAID5... vielleicht 100 IOPS?!

 

870 EVO SATA SSD 100k IOPS:

https://www.computerbase.de/2021-01/samsung-870-evo-ssd-test/#abschnitt_spezifikationen_von_870_evo_und_860_evo_im_vergleich

 

980 Pro NVMe SSD 1M IOPS:

https://www.computerbase.de/2021-03/samsung-980-ssd-test/#abschnitt_eckdaten_und_preise_im_ueberblick

 

Ich denke zwei 980 Pro mit jeweils 2TB im RAID1 sollten für VMs, Docker und Cache mehr als genug Leistung haben. Die WD RED SSDs sind jedenfalls Geldverschwendung.

 

7 hours ago, Yachti said:

Xeon E-2224 4C/4T

Geldverschwendung. Der i3-9100 kann das selbe für deutlich weniger Geld. Besser wäre aber bei der Anzahl VMs wohl eh was größeres. Allerdings ist der 6 oder 8 Kern nur selten gebraucht zu bekommen.

 

Ist vielleicht der Nachfolger günstiger zu bekommen? Also W-1250, W-1270 oder W-1290? Ich habe mir einen W-1290E für ~300 € bei eBay gekauft. 10 Kerne sind schon schick bei den ganzen VMs.

 

3 hours ago, Yachti said:

Die sind doch als reine Fileablage gedacht.

Denk dran, dass das unRAID Array schreibend sehr lahm ist. Kann man aber mit viel RAM kompensieren und lesend geht es eben mit dem was die einzelne HDD kann.

 

7 hours ago, Yachti said:

Gehäuse: Fantec SRC-2080X07

Netzteil: Seasonic 500W  SS-500L2U

Warum kein Gehäuse, wo ein normales Netzteil reinpasst? Da gibt es dann leisere und effizientere Netzteile.

 

7 hours ago, Yachti said:

RAM: 2x Kingston silver premier DIMM 16GB KSM26ES8/16M

Geh auf 2x 32GB. Du wirst die 128GB irgendwann sonst vermissen.

 

 

Link to comment

Hallo @Yachti

 

Vorab. Bitte entschuldige meine Nachfragen.

Ich verstehe noch nicht, wie Dein aktuelles Konstrukt aussieht.

Deshalb gehe ich vielleicht von falschen Annahmen aus.

 

2 hours ago, Yachti said:

Die sind doch als reine Fileablage gedacht.

Wenn diese langsamen Festplatten als reine Fileablage gedacht sind, wird davon also nicht im laufenden Betrieb ab und zu gelesen?

Okay. Dann sind diese 5400 Rpm Festplatten sinnvoll (wenn auch mit rund 132 Euro für 4TB weit überteuert für unraid, da unraid in der Regel die Festplatten wenig belastet und schlafen legt/Spindown. Aktuell ist der Preis für 4TB mit benannten 5 Jahren Herstellergarantie irgendwo bei 100 Euro).

 

Sobald Du aber diese Daten von den Festplatten lesen willst, musst Du mit Spinup Zeiten von bis zu 30 Sekunden pro Festplatte rechnen und verlierst so in 30 Sekunden sehr viele IOPS, die hätten durchgeführt werden können.

 

Der Festplatten/Array Anteil von unraid ist nicht wirklich das, was man bei einem highperformance Storagesystem sehen will. Es ist sehr energiesparsam, was man sich aber mit Wartezeit und Geschwindigkeitseinbußen erkauft.

Deswegen verzeihe bitte, wenn ich bei den IOPS so nachfrage.

 

2 hours ago, Yachti said:

Probleme machen die VM's da geht die Disk Auslastung hoch beim lesen

Du willst also einen eignene Pool mit den beiden SATA SSD erstellen und darauf die VMs laufen lassen.

 

Dazu noch einmal eine unwissende Frage zu Deinem IST Stand:

Dein "IBM ESXi Host mit 2xXeon CPU und 64GB RAM." ist das eine reine VM (warum steht dann da IBM drin?) oder ist es ein Hardwaresystem von IBM, welches  den EXSi Hyper beherbergt, der über NFS auf das externe Buffalo Storage 19" zugreift?

 

Ich interopretiere dieses Konstrukt mal als 2 getrennte Hardwaregeräte.

1. Deine IBM Workstation, die lokal die Rechenpower der 2 Xeons für VMs nutzt

2. das Buffalo 19" Storage System mit 4 Einschüben für Datenträger.

 

Sollte meine Interpretation korrekt sein: Was für ein Storage/Datenspeicher hast Du in der Workstation?

Mein Hintergedanke:

Wenn es Dir reicht irgendwo 8TB Nutzdaten ohne schnellen Zugriff auf Festplatten zu parken und eine Kapazität von 1TB (mutmaßlich raid1) SATA SSD für VM ausreicht, warum in der IBM nicht einfach diese 2 SATA SSD einbauen und den Buffalo beibehalten?

 

 

2 hours ago, Yachti said:

Dann habe ich anscheinend bei unraid noch Denkfehler oder es ist das falsche Storage. Das Buffalo hat eine Laufzeit von knapp über 5 Jahre und will es ersetzen.

Ich schätze ich verstehe Dein Konstrukt nur einfach nicht gut genug.

Du kannst selbstverständlich unraid nutzen (besser erst einmal ausprobieren), aber die SSDs generel können die IOPS performance gegenüber Festplatten start erhöhen.

 

Aber Deine angestrebten Kapazitäten (1Tb SATA SSD und 1TB NVMe SSD mutmaßlich jeweils als Raid1) erfordern doch nicht gleich einen ganzen neuen PC aufzusetzen und dann die Daten wieder auf Festplatten zu parken.

 

2 hours ago, Yachti said:

Bin für alternative Vorschläge um die Perfomance zu erhöhen offen.

Dafür verstehe ich Deinen IST Zustand noch nicht ausreichend.

 

Link to comment
21 minutes ago, DataCollector said:

Vorab. Bitte entschuldige meine Nachfragen.

alles gut, darum bin ich ja hier und vielen Dank erstmal für deine Unterstützung. Ich komme aus der Netzwerktechnik. Im Storage halt Halbwissen.

 

19 minutes ago, DataCollector said:

Wenn diese langsamen Festplatten als reine Fileablage gedacht sind, wird davon also nicht im laufenden Betrieb ab und zu gelesen?

genaus so ist es gedacht.

27 minutes ago, DataCollector said:

Du willst also einen eignene Pool mit den beiden SATA SSD erstellen und darauf die VMs laufen lassen.

ja genau

28 minutes ago, DataCollector said:

oder ist es ein Hardwaresystem von IBM, welches  den EXSi Hyper beherbergt, der über NFS auf das externe Buffalo Storage 19" zugreift?

genau so ist es.

29 minutes ago, DataCollector said:

Sollte meine Interpretation korrekt sein: Was für ein Storage/Datenspeicher hast Du in der Workstation?

keinen. Einen USB Stick für den Hypervisor. Der IBM ist ein x3650M4  7915E8G mit 2x E5-2630v2 CPU auch schon 5 Jahre alt.

Den IBM möchte ich im Step 2 durch einen neuen Host mit Proxmos Hypervisor ersetzten.

40 minutes ago, DataCollector said:

Wenn es Dir reicht irgendwo 8TB Nutzdaten ohne schnellen Zugriff auf Festplatten zu parken

die reichen aus. Mir würden auch 4TB  reichen

 

42 minutes ago, DataCollector said:

und eine Kapazität von 1TB (mutmaßlich raid1) SATA SSD für VM ausreicht

die reichen für die VM's momentaner Ist-Stand 854 GB. Hier wird aber noch optimiert durch Umstieg von Windows Server auf Linux.

 

44 minutes ago, DataCollector said:

warum in der IBM nicht einfach diese 2 SATA SSD einbauen und den Buffalo beibehalten

Ist alles in die Jahre gekommen, läuft 24/7 und möchte die Hardware ersetzten.

48 minutes ago, DataCollector said:

aber die SSDs generel können die IOPS performance gegenüber Festplatten start erhöhen.

Das ware ja auch mein Gedanke dabei. Ist es vielleicht besser die NVME SSD's für VM's zu nehmen und die Sata SSD's als Cache?

 

51 minutes ago, DataCollector said:

Dafür verstehe ich Deinen IST Zustand noch nicht ausreichend.

Vielleicht jetzt etwas klarer geworden.

 

Als Backup nutze ich Veeam und sichere täglich auf externe eSata

Link to comment
1 hour ago, mgutt said:

Ich denke zwei 980 Pro mit jeweils 2TB im RAID1 sollten für VMs, Docker und Cache mehr als genug Leistung haben. Die WD RED SSDs sind jedenfalls Geldverschwendung.

Danke für den Tip. Werde mir die alternativen mal anschauen.

 

1 hour ago, mgutt said:

Der i3-9100 kann das selbe für deutlich weniger Geld. Besser wäre aber bei der Anzahl VMs wohl eh was größeres.

Ich dachte das die 4 Cores für das unraid reichen  Die CPU Leistung für die VM's wird ja von dem Host zur Verfügung gestellt. Dasunraid ist gedacht als Datenspeicher für den Host zu dienen. Werde mir aber den i3-9100 mal anschauen. Sollten die 4 Cores nicht ausreichen muss ich auch hier nach Alternativen schauen.

 

1 hour ago, mgutt said:

Warum kein Gehäuse, wo ein normales Netzteil reinpasst? Da gibt es dann leisere und effizientere Netzteile.

mir gefiel das Fantec. Gebe zu das hierfür ein passendes Netzteil zu finden momentan schwierig ist. Hast Du einen Alternativvorschlag für mich?

1 hour ago, mgutt said:

Geh auf 2x 32GB. Du wirst die 128GB irgendwann sonst vermissen.

werde ich dann so machen. Danke

Link to comment
1 hour ago, mgutt said:

980 Pro NVMe SSD 1M IOPS:

bin mir nicht sicher ob die in dem SM Board laufen. Unterstützt PCI 3.0 x4. Der 2. nvme Slot ist shared mit 1xPCI 3.0 x4 Slot

1 hour ago, mgutt said:

870 EVO SATA SSD 100k IOPS:

danke für die Alternative hab mein Setup entsprechend angepasst

Link to comment
3 minutes ago, Yachti said:

keinen. Einen USB Stick für den Hypervisor. Der IBM ist ein x3650M4  7915E8G mit 2x E5-2630v2 CPU auch schon 5 Jahre alt.

Den IBM möchte ich im Step 2 durch einen neuen Host mit Proxmos Hypervisor ersetzten.

Also sollen es wieder 2 getrennte hardwaresysteme werden und unraid soll wirklich nur den Buffalo Storage ersetzen?

 

Nichts spricht dagegen neue Hardware zu nutzen. aber am flottesten (im Sinne von besseren IOPS) wird es wohl sein, die SSDs direkt in der leistungsfähigsten Hardware (Workstation) zu integrieren und die Systeme nicht getrennt zu nutzen.

Ein Mainboard mit 4 oder besser mehr SATA Anschlüssen, daran 2 oder mehr größeren SATA SSD für die Coldspare Daten, 2 NVMe für VM und Cache.

Das spart mutmaßlich Strom, sorgt für eine kompakte Workstation und weit erhöhte IOPS.

Wenn du also mit 4TB Nutzdatenplatz auskommst: 3x 2TB SSD SATA als Raid5verbund sind schneller und performanter als Dein bestehendes FestplattenRaid.

Mehr Platz = einfcach eine oder 2 weitere 2TB SSD dazu stecken. SATA Anschlüsse zu erweitern ist mit PCIe Steckplätzen ein überschaubares Problem. Und da Du bisher mit Festplatten auskamst, sind SSD selbst mit SATA Geschwindigkeiten von 250MByte/s pro SATA Port imemr noch eiN gewinn gegenüber Festplatten.

Du hattest zwar getrennte VM und Cachepools zu je 2x1TB angedacht, aber warum nicht 2* 2TB NVMe SSD (Raid1) für Cache und VM Pool gemeinsam?

Das hält den hardwareaufwand in überschaubaren Grenzen und ist bei vielen mainboards gut machbar.

 

Das alles ist kompakt und sehr stromsparend machbar.

Und dabei wurd enoch nicht einmal beruecksichtig wieviel CPU performance Du willst.

Das sind bisher Grundanforderungen, die wohl fast jedes Mainboard der letzten Paar Generationen sowieso abdeckt (4 oder mehr SATA. 1 oder mehr NVMe M.2 Steckplätze oder alternative die Möglichkeit NVMe2PCIe Adapter zu verwenden, ein bischen Ram, eine gewünschte und ESXi kompatible CPU/Grafikeinheit (reicht OnBoard?)). Bisher sehe ich nichts exotisches.

Und damit bist Du immer noch weitaus flotter als mit Deinem alten Storage.

 

Bei den geringen Datenmengen reicht für 1 oder 2 Backupgenerationen/-Instanzen die eine oder andere USB Festplatte oder so.

 

3 minutes ago, Yachti said:

Ist alles in die Jahre gekommen, läuft 24/7 und möchte die Hardware ersetzten.

Dann kauf ein Board, welches diese mindestanforderungen erfüllt (wohl fast alles von der Stange seit Intel 8.Gen oder auch Ryzen 2.gen sollte gehen).

Erst wenn ECC notwendig erscheint wird es kompliziert oder teuer.

Gibt es also noch Wünsche, die in irgendeiner Weise bisher unbeachtet sind?

Sollen es auch unbekannten Gründen zwingend 2 Hardwaresysteme sein?

 

3 minutes ago, Yachti said:

Das ware ja auch mein Gedanke dabei. Ist es vielleicht besser die NVME SSD's für VM's zu nehmen und die Sata SSD's als Cache?

Betrachte ich Deine urpsruenglichen Hardwareideen und die Preise laut Geizhals:

Viel zu teuer ohne bisher erkennbaren Sinn/Nutzen.

Du hast ECC Speicher benannt. Brauchst Du wirklich ECC oder ist das nur eine Idee, wegen dem Xeon?

Wenn keine besondere Anforderung 8und ECC nicht zwingend): Desktop/Standardmainboard (somit nicht unbedingt 300+x Euro).

4C/4T oder bessere CPUs sind heutzutage Brot und Butter. Das muß kein teurer Xeon sein.

Ein 2HE 8Hotswap Gehäuse für ein paar simple Festplatten (oder in meiner Idee nur ein paar SSDs): wofür? Laute Lüfter, lange gehäuse, meist ein rack erforderlich, schwer zu warten/maintenancen....

Gut gewähltes Standard PC Gehäuse sollte reichen. Wenn es wirklich nur 3 oder ein paar mehr SATA SSD für die Lagerdaten und 2 NVME werden, brauchst Du nicht einmal viel Platz oder extreme Kühlung.

 

Alles in einem Gerät vereint: schnellere Performance, stromsparender, einfacher zu handhaben.....

 

Vieleicht verstehst Du nun, warum ich Deinen Wunsch noch nicht verstehe.

 

3 minutes ago, Yachti said:

Als Backup nutze ich Veeam und sichere täglich auf externe eSata

Wenn es gewünscht ist, kann das ja auch so bleiben. eSATA ist kein Hexenwerk.

 

Link to comment
2 minutes ago, Yachti said:

danke für die Alternative hab mein Setup entsprechend angepasst

Das war nicht als Alternative gedacht, sondern ein Hinweis darauf wie lahm SATA SSDs im Verhältnis zu NVMe sind.

 

3 minutes ago, Yachti said:

bin mir nicht sicher ob die in dem SM Board laufen. Unterstützt PCI 3.0 x4. Der 2. nvme Slot ist shared mit 1xPCI 3.0 x4 Slot

Dann wird der PCIe Slot abgeschaltet. Ist das ein Problem?

 

23 minutes ago, Yachti said:

Ich dachte das die 4 Cores für das unraid reichen  Die CPU Leistung für die VM's wird ja von dem Host zur Verfügung gestellt. Dasunraid ist gedacht als Datenspeicher für den Host zu dienen.

Häh und wie soll der Host schnell genug auf die NVMe von unRAID zugreifen? Dann ist ja der begrenzende Faktor deine Netzwerkverbindung zwischen VM Server und unRAID Server?!

Link to comment
2 minutes ago, mgutt said:

Häh und wie soll der Host schnell genug auf die NVMe von unRAID zugreifen? Dann ist ja der begrenzende Faktor deine Netzwerkverbindung zwischen VM Server und unRAID Server?!

Ich verstehe diese Trennung der Funktionalitäten auf 2 Hardwaregeräte (auch) nicht.

 

Solange das Storage nur von der Workstation gebraucht wird: warum nicht alles in einem?

 

Selbst wenn die Workstation mit ihren aktuell 2 unbekannten Xeon im Betrieb performant ist, warum nicht einfach ein paar SSD da rein und fertig? Wenn sie aus ist wird ja auch das Storage nicht gebraucht. Also alles in ein System und wenn man es nicht braucht abschalten.

 

Die Virtualisierung per EXSi oder Proxmox, und den Platz für Daten als SSD direkt im System drin. Ich verstehe nicht, warum es unraid sein/werden soll oder warum man die Geräte unter der bisher/aktuell bekannten Anforderung weiterhin trennen sollte.

 

Theoretish könnte mutmaßlich sogar die bestehende Workstation problemlos auf-/ausgerüstet und weiter benutzt werden. Schließlich geht es ja wohl nur um die IOPs Erhöhung gegenüber bestehender Raid5 Festplattenkonstellation, welche über LAN/NFS angebunden ist. Dann braucht man weniger geld für die Maßnahme in die Hand zu nehmen und kann alles in größere oder schnellere SSD stecken. Allein 300+ Euro für das neeu Mainboard, 220+ Euro für die oben genannte CPU, dazu teurer neuer ECC Speicher, das 19" Gehäuse und dann noch die erwähnten überteuerten Fstplatten udn SSDs .... da kommen wir bei über 1000 Euro an.

Für 1000 Euro wären problemlos:

   4x 2TB SATA SSD MX500 drin ( Raid5 Nutzkapazität 6TB; Summe ca. 620 Euro) die an 4 SATA im Vergleich zum Festplattenraid5 "rennen".

   2x 2TB NVMe SSD Samsung 970 EVO plus (Raid1 Nutzkapazität 2TB; Summe 360 Euro) die nochmal schneller sind und für VM und Cache massig IOPS und Platz bieten.

 

Da die Workstation und das Storage aber wohl zu alt erscheint, kann an alles auch neu nehmen, aber auch da geht alles in einem System. Wenn man Workstation nicht braucht: abschalten. Stromsparender geht es dann wohl nicht.

 

Link to comment
4 minutes ago, DataCollector said:

Also sollen es wieder 2 getrennte hardwaresysteme werden und unraid soll wirklich nur den Buffalo Storage ersetzen?

Das ist der Plan, kann es aber noch überdenken

5 minutes ago, DataCollector said:

Ein Mainboard mit 4 oder besser mehr SATA Anschlüssen

Das von mir geplante MAinboard hat 8xSata und 2x Nvme

8 minutes ago, DataCollector said:

Das hält den hardwareaufwand in überschaubaren Grenzen und ist bei vielen mainboards gut machbar.

Deine Alternative klingt sehr gut. Ich werde es nochmal überdenken. Würde aber auch heißen auf den Proxmox Hypervisor verzichten und die VM's im unraid laufen lassen.

12 minutes ago, DataCollector said:

4C/4T oder bessere CPUs sind heutzutage Brot und Butter. Das muß kein teurer Xeon sein.

Für den Proxmox Host hate ich das gleich Mainboard und Xeon E-2246G 6C/12T geplant. Den könnte ich dann im unraid übernehmen

14 minutes ago, DataCollector said:

Wenn es gewünscht ist, kann das ja auch so bleiben. eSATA ist kein Hexenwerk.

Wollte zukünftig auf Veeam verzichten und alternativ einen Backup Server einsetzen. Hb das erwähnt um hinzuweisen das meine VM's gesichert werden

16 minutes ago, DataCollector said:

Alles in einem Gerät vereint: schnellere Performance, stromsparender, einfacher zu handhaben

Werde mal ein neues Setup erstellen. Danke. Ist doch gut mal andere Meinungen zu sehen.

18 minutes ago, DataCollector said:

Brauchst Du wirklich ECC oder ist das nur eine Idee, wegen dem Xeon?

genau das war der Grund

19 minutes ago, DataCollector said:

Du hattest zwar getrennte VM und Cachepools zu je 2x1TB angedacht, aber warum nicht 2* 2TB NVMe SSD (Raid1) für Cache und VM Pool gemeinsam?

 

War mir nicht bewusst, dass das möglich ist

Link to comment
Just now, Yachti said:

Das von mir geplante MAinboard hat 8xSata und 2x Nvme

Klar, kostet aber auch 300+ Euro.

 

Just now, Yachti said:

Deine Alternative klingt sehr gut.

Ich weiß nicht ob es "sehr gut ist", da ich eben überlegen würde alles zusammen zu fassen, sofern Du nicht noch (mir bisher unbekannte/nicht aufgefallene) Anwendungen hast.

Aber wie gesagt. ich sehe noch nichts, was nicht auch mit normaler (und günstigerer) Hardware von der Stange machbar sein sollte.

und so sehr ich von unraid begeistert bin, ob es für Dich passt musst Du entscheiden.

Du kennst Dich mit ESXi aus, möglicherweise bald auch gut mit Promox und dann sollte auch ZFS oder eine NAS VM oder so damit auch kein Problem sein.

 

Just now, Yachti said:

Würde aber auch heißen auf den Proxmox Hypervisor verzichten und die VM's im unraid laufen lassen.

Ich kenne ESXi oder proxmox nixht und habe auch mit Linux nixhts am Hut. Die Entscheidung kannst  nur Du treffen.

Aber ich dachte eher genau anders herum: Alles in ESXi oder Proxmox machen und gar kein externes Storage (unraid) für den laufenden Betrieb zu verwenden.

 

Backups kannst (und solltest) Du ja gerne auf ein getrenntes System machen, aber die Workstation kann zumindest alles, was Dein Storgage wohl können soll (laut bisheriger Anforderung) nebenher mit machen.

 

Anders sieht es aus, wenn Dein Storage unabhängig von der Workstation auch irgendetwas anderes machen & auch für andere Systeme jederzeit erreichbar und somit 24/7 bereit stehen soll.

Aber eine solche Anforderung habe ich dann bisher übersehen?

Link to comment
49 minutes ago, mgutt said:

Dann wird der PCIe Slot abgeschaltet. Ist das ein Problem?

Das war mir schon klar kein Problem. War auf die verlinkte SSD 980EVO bezogen, weil die PCI 4.0 x4 Interface hat

 

57 minutes ago, mgutt said:

Häh und wie soll der Host schnell genug auf die NVMe von unRAID zugreifen?

ja ok, wenn da die 4C/4T nicht reichen muss ich die CPU ändern. Mein Post war auf die zugewiesenen CPU Sockel in der VM bezogen. Habe ich die Missverstanden

Link to comment
9 minutes ago, Yachti said:

weil die PCI 4.0 x4 Interface hat

PCIe ist abwärtskompatibel

 

51 minutes ago, Yachti said:

Würde aber auch heißen auf den Proxmox Hypervisor verzichten und die VM's im unraid laufen lassen.

Ob du jetzt Proxmox oder unRAID für die VMs nimmst, ist ja dir überlassen. Was aber eben keinen Sinn macht, sich durch das Netzwerk begrenzen zu lassen. Dateien, die die VMs brauchen, sollten meiner Ansicht nach auf den VM Host, damit man die beste Performance hat. 

Link to comment
34 minutes ago, DataCollector said:

Du kennst Dich mit ESXi aus, möglicherweise bald auch gut mit Promox und dann sollte auch ZFS oder eine NAS VM oder so damit auch kein Problem sein.

Mit Proxmox habe ich bereits einen Testserver aufgesetzt. Wenn man mit ESXi klar kommt ist es kein Problem auf Proxmox umzusteigen wenn Linux kein Problem ist.

Es ist auch problemlos möglich eine Window VM oder Linux VM vom ESX zu Proxmox zu megrieren. Habe ich bereits getestet.

39 minutes ago, DataCollector said:

Ich weiß nicht ob es "sehr gut ist", da ich eben überlegen würde alles zusammen zu fassen, sofern Du nicht noch (mir bisher unbekannte/nicht aufgefallene) Anwendungen hast.

Nix besonderes, Windows Domaincontroller, WSUS, File Server, Debian Webanwendungen, Confluence, Proxmox Mail Gateway, Reverse Proxy

45 minutes ago, DataCollector said:

Anders sieht es aus, wenn Dein Storage unabhängig von der Workstation auch irgendetwas anderes machen & auch für andere Systeme jederzeit erreichbar und somit 24/7 bereit stehen soll.

Das hatte ich früher. Der Proxmox Testserver war früher ein ESXi als cold standby. Den habe ich nur ab und an für Updates hochgefahren und Migration getestet. Die Hardware wird von vsphere 6.7 nicht mehr unterstützt.

 

43 minutes ago, DataCollector said:

Aber ich dachte eher genau anders herum: Alles in ESXi oder Proxmox machen und gar kein externes Storage (unraid) für den laufenden Betrieb zu verwenden.

Spricht eigentlich nichts dagegen.

Ich werde darüber nochmal schlafen und lass euch meine Entscheidung wissen. Ihr habt mir sehr weiter geholfen und neue Denkanstösse gegeben. Danke nochmal

 

 

Link to comment
4 minutes ago, mgutt said:

PCIe ist abwärtskompatibel

wusste ich nicht. Danke

5 minutes ago, mgutt said:

Dateien, die die VMs brauchen, sollten meiner Ansicht nach auf den VM Host, damit man die beste Performance hat. 

hat @DataCollector auch so vorgeschlagen und macht für meine Umgebung sicherlich Sinn.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...