Bevorzugte Cache Methode


Tiras

Recommended Posts

Danke für deine schnelle Antwort. Da meine Parity Platte defekt ist - habe mit WD einen Check gemacht und der Wert steigt weiter an - nehme ich die letzte WD 5 TB mit CMR als Parität und möchte gerne folgendes konfigurieren:

 

Array:

  • 2 x 4 TB WD Red mit CMR
  • 2 x 5 TB Seagate SMR
  • 1 x 2 TB Toshiba
  • 1 x 5 TB WD als Parity

Cache:

  • 2 x 1 TB NVME (Cache für VMs)
  • 1  x 500 GB NVME (default Cache für MagentaCloud via rclone)
  • 1 x 128 GB NVME (appdata, system und transcode)

Für MagentaCloud brauche ich kein RAID 1, da die Daten mit der Cloud synchronisiert werden. Für die VMs brauche ich ebenfalls kein RAID 1, weil mit der VM Backup App wöchentlich ein Backup der XML und das Image auf eine im Array liegende HDD gemacht wird. Für die Backups stelle ich mir vorerst die 2 TB HDD vor, da die beiden 5 TB Platten für Plex, Bilder und Kamera Videos genutzt werden sollen. Die 4 TB dienen erstmal als Reserve. Was hälst du als Unraid Experte von dieser Konstellation?

Link to comment
2 minutes ago, Tiras said:

Cache:

  • 2 x 1 TB NVME (Cache für VMs)
  • 1  x 500 GB NVME (default Cache für MagentaCloud via rclone)
  • 1 x 128 GB NVME (appdata, system und transcode)

Warum nicht alles auf die 1TB NVMes? Insbesondere die 128GB scheint mir überflüssig zu sein und die 500GB hängen natürlich davon ab wie voll der 1TB Cache wird. Vielleicht lieber gleich 2x 2TB?!

 

Ich habe eine NVMe für alles und nutze eine SATA SSD als Backupziel der NVMe. Liegt aber eher daran, dass ich nur einen M.2 Slot habe.

 

EDIT: Ach du willst ein RAID0 bei den 2x 1TB machen und dann reicht der Speicherplatz immer noch nicht? Wie groß willst du bitte die VM Images machen?!

Link to comment
4 minutes ago, mgutt said:

EDIT: Ach du willst ein RAID0 bei den 2x 1TB machen und dann reicht der Speicherplatz immer noch nicht? Wie groß willst du bitte die VM Images machen?!

Ja, ich stelle mir ein RAID 0 vor, aber das wird wahrscheinlich wirklich zu viel. Wieso so viele NVME´s? Weil ich alles gerne trennen möchte. MagentaCloud wird mehr beansprucht als die 2 x 1 TB, da die VMs auch mal heruntergefahren werden (wegen Backup etc.). Die 128 GB wird über den M.2 Slot eingebunden, der über den SATA-Controller läuft und somit auf 600 MB/s begrenzt ist. Die 2 x 1 TB sind über eine QNAP Karte via PCIe x16 eingebunden. Die 500 GB NVME über den 1. M.2 Slot via PCIe x4. Ich erhoffe mir somit mehr Leistung bei der Datenübertragung.

Link to comment

Hallo Zusammen,

 

ich wollte in den anderen Threads kein Spam erzeugen, deswegen stelle ich hier noch einmal die Frage/n:

 

Ich möchte meine Docker und VMs auf der HDD speichern. Der Share "appdata" erhält den Cache "Cache_default" als "Prefer". Der Share "Virtualizations" erhält den Cache "Cache_vm" ebenfalls als "Prefer". 

Nach meinem Verständnis werden die Ordner/Dateien in diesen Shares durch den "Mover" nach der festgelegten Zeit auf die Caches transportiert und zukünftig von dort aus gestartet. 

Nun ist mir aufgefallen, dass neue Docker nicht mehr auf der HDD zusehen sind, sondern direkt auf dem Cache.

 

Ist es machbar, dass die Docker/Virtualizations zuerst auf der HDD sozusagen als Absicherung gespeichert werden, und zukünftig dann von dem Cache gestartet und immer synchronisiert werden? Meine Caches sind ausschließlich 2 x 1 TB Samsung Evo 970 Plus NVMe´s und ich hätte noch 2 freie Slots und 2 x 128 GB NVMe´s zur Verfügung.

 

Entschuldigt bitte für die Fragen in unterschiedlichen Threads.

 

Viele Grüße und danke für Eure Hilfe.

Edited by Tiras
Link to comment

Nein, "prefer" bedeutet, dass die Daten möglichst auf dem Cache verbleiben.
Fehlt Platz, werden sie auf das Array verschoben.
Ist wieder Platz vorhanden, werden sie zurück auf den Cache verschoben.

Ich würde Docker (appdata) und Vm's immer vom Cache, einen anderen Pool oder von einem unassigned device laufen lassen. Wegen besserer Performance.

Link to comment
6 hours ago, Tiras said:

Gigabyte x570 Gaming X

Das Board hat zwei voll nutzbare M.2 Slots. Wie kommst du darauf, dass der M.2 Slot des Chipsatzes limitiert sei? Der ist ebenfalls X4. Da geht zwar alles über 4 Lanes zur CPU, aber solange nicht alles was am Chipsatz hängt, parallel voll ausgelastet wird, ist da gar nichts limitiert. Wir sprechen hier immerhin von 4 GB/s. Deine 6 HDDs mit Ihren popeligen 1 GB/s, müssten da schon einen Parity Check machen, damit das in einem Benchmark zu sehen ist (und dann auch nur da).

 

6 hours ago, Tiras said:

QNAP Card: QNAP QM2-2P-384 - Speicher-Controller - PCIe 3.0 Low-Profile - PCIe 3.0 x8

Das ist ziemliche Geld- und Stromverschwendung. Dein Board unterstützt Bifurcation:

image.thumb.png.990dd41dc534ea4d7e268970e21649dc.png

 

Du kannst also eine ganz billige Bifurcation Karte wie diese verbauen:

https://www.idealo.de/preisvergleich/OffersOfProduct/6789513_-hyper-m-2-x16-v2-asus.html

 

Oder die:

https://www.idealo.de/preisvergleich/OffersOfProduct/5831481_-pcie-m-2-adapter-aoc-slg3-2m2-supermicro.html

 

Die von QNAP ist eine mit einem integrierten PCIe Switch Controller. Das verbaut man nur, wenn das Board kein Bifurcation kann.

 

10 hours ago, Tiras said:

Ich erhoffe mir somit mehr Leistung bei der Datenübertragung.

Hast du nicht. Nutze die zwei bereits vorhandenen M.2 Slots und du hast volle Bandbreite. Im Gegenteil. Die kleine 128GB wird so einen kleinen SLC Cache besitzen, dass die deutlich langsamer ist als die 1TB, insbesondere wenn die voll wird.

 

10 hours ago, Tiras said:

da die VMs auch mal heruntergefahren werden (wegen Backup etc.)

Du machst dir da zu viele Gedanken. Hattest du schon mal eine SATA SSDs im Einsatz und war die "super lahm"? Wohl kaum. Und die hat nur einen Kommunikationskanal. Eine NVMe hat 8. Im RAID0 wären es 16 (8 hin und 8 zurück = 2x 4 Lane-Paare). Die bekommst du nicht überlastet. Außer es ist eine Billig-QLC-NVMe ohne SLC Cache und ohne DRAM etc. Aber wenn du ein ganz normales Modell wie eine WD 750N, Samsung Evo oder Crucial P5 kaufst, bringst du die nicht mit einem bisschen VM oder Docker ans Limit. Da lacht die drüber.

 

Ganz viele NVMe machen meiner Ansicht nach nur Sinn, wenn man den VMs jeweils eine NVMe physisch durchschleifen möchte. Aber da noch extra was unterverteilen macht keinen Sinn. Darüber würde ich mir erst Gedanken machen, wenn du da wirklich was bemerkst.

 

Meine Empfehlung wäre daher:

 

1x 2TB NVMe und zeitnahe Backups

oder

2x 1TB NVMe im RAID0 und zeitnahe Backups

oder

2x 2TB NVMe im RAID1 und wöchentliche Backups

 

 

 

Link to comment
3 minutes ago, vakilando said:

Nein, "prefer" bedeutet, dass die Daten möglichst auf dem Cache verbleiben.
Fehlt Platz, werden sie auf das Array verschoben.
Ist wieder Platz vorhanden, werden sie zurück auf den Cache verschoben.

Ich würde Docker (appdata) und Vm's immer vom Cache, einen anderen Pool oder von einem unassigned device laufen lassen. Wegen besserer Performance.

Ok, würde dann in meinem Fall bedeuten, dass ich ein "Pool" - außerhalb des Arrays - "Cache/Pool_vms" erstelle, und diesen Cache/Pool dann dem Share "Virtualizations" zuweise. Dass gleiche Spiel mit dem "appdate" Share. Aber 128 GB Pool für den "appdata" Share scheint mir etwas zu viel, oder? Mein "appdata"- Share belegt zur Zeit knapp 4 GB.

Link to comment

Ja, so ähnlich habe ich es auch.
Einen Pool "Cache" für appdata und Cache und einen Pool "VMs" für die VMs.
Mein Cache-Pool ist 1 TB groß
Mein VMs-Pool ist 480 GB groß.

Wie groß deiner sein muss, kann ich dir nicht sagen, da es davon abhängig ist wie viele Docker laufen und was die im Cache speichern. Außerdem hängt es davon ab wie viele Daten du über den Cache Pool "schaufelst" und wie oft der mover läuft.
Man muss mit dem mover ggf. einfach ein bisschen experimentieren, testen und die Auslastung im Blick behalten.

Link to comment
6 minutes ago, mgutt said:

Das Board hat zwei voll nutzbare M.2 Slots. Wie kommst du darauf, dass der M.2 Slot des Chipsatzes limitiert sei? Der ist ebenfalls X4.

In einem Test unter Windows habe ich mit dem Tool "AS SSD Benchmark" habe ich diesen M2_B Slot alleine getestet und anschließend diesen Slot und parallel eine Samsung Evo 860 am SATA Port. Im 2. Test ist die NVMe (1 TB Samsung Evo 970 Pro) eingebrochen. Somit und aufgrund des nachfolgenden Screenshots schließe ich darauf.

image.thumb.png.1be4d3ecc343c007ad3e428355ad8a18.png

 

In einem 3. Test habe ich den M2_A, den M2_B und die SSD getestet. Der M2_A kam auf 2800+ MBit/s und die beiden anderen wie im 2. Test.

13 minutes ago, mgutt said:

Du kannst also eine ganz billige Bifurcation Karte wie diese verbauen:

https://www.idealo.de/preisvergleich/OffersOfProduct/6789513_-hyper-m-2-x16-v2-asus.html

Diese Einstellung habe ich gesehen, aber mich nicht damit auseinander gesetzt. Die Karte habe ich hier ebenfalls liegen, da dort 4 Slots zur Verfügung stehen und ich diese im PCIe x16 installiert habe. Blöd ist nur, dass nur die Karte im ersten Slot erkannt wird. Scheinbar ist diese Karte nicht mit meinem Mainboard kompatible. Ich habe hier eine NVMe auf allen Slots dieser Karte getestet und wie gesagt wurde sie nur im 1. Slot erkannt. Da ich ein defekt vermutet habe, hatte ich sie zum testen eingeschickt und die gleiche Karte mit der Antwort: Die karte funktioniert einwandfrei. Bitte prüfen Sie auf Hardwarekompatibilität. Aus diesem Grund habe ich die QNAP Karte - auch wenn sie um das 12 Fache gekostet hat - entschieden. Dafür wurde sie ohne Probleme erkannt und die Datenübertragung war im Windows Umfeld schon faszinierend. Bei einem Transfer bspw. zwischen dem Cache_default und Cache_vm erreiche ich eine Übertragungsrate zwischen 1,8 bis 2,2 GB/s je nach Temperatur.

 

In dem Thread "VM Performance schlecht" hast du mich auf die Idee gebracht, um in der Workstation mehr Leistung zu bekommen, ich dort einfach eine 128 GB NVMe durchschleife. Theoretisch gesehen sollte die Workstation noch mehr Power haben, selbst wenn sie im M2_B Slot verbaut ist, als jetzt wo die Image-Datei auf der Cache_vm liegt.

 

Ich bin aber kein Systemadministrator und mache das nicht Hauptberuflich sondern eher Hobby mäßig.

Link to comment
26 minutes ago, Tiras said:

Diese Einstellung habe ich gesehen, aber mich nicht damit auseinander gesetzt

Dann ist es auch kein Wunder, wenn die Karte nicht funktioniert. Die Quad Bifurcation Karte ist 4x X4 und im BIOS muss man das einstellen, ansonsten wird der X16 Slot einfach nur auf X4 gedrosselt und es wird nur eine NVMe erkannt.

 

Bifurcation ist Bifurcation. Wenn das nicht geht, wäre das ein Bug vom Mainboard. Die Karten besitzen sonst meiner Ansicht nach nichts, was irgendwie inkompatibel sein könnte.

 

32 minutes ago, Tiras said:

In einem Test unter Windows habe ich mit dem Tool "AS SSD Benchmark" habe ich diesen M2_B Slot alleine getestet und anschließend diesen Slot und parallel eine Samsung Evo 860 am SATA Port. Im 2. Test ist die NVMe (1 TB Samsung Evo 970 Pro) eingebrochen

Und was sagt Gigabyte dazu oder die einschlägigen Foren? Das kann doch nicht normal sein. Sicher, dass die NVMe nicht einfach zu heiß wurde und sich selbst gedrosselt hat?

 

Link to comment
1 hour ago, mgutt said:

Dann ist es auch kein Wunder, wenn die Karte nicht funktioniert. Die Quad Bifurcation Karte ist 4x X4 und im BIOS muss man das einstellen, ansonsten wird der X16 Slot einfach nur auf X4 gedrosselt und es wird nur eine NVMe erkannt.

 

Bifurcation ist Bifurcation. Wenn das nicht geht, wäre das ein Bug vom Mainboard. Die Karten besitzen sonst meiner Ansicht nach nichts, was irgendwie inkompatibel sein könnte.

 

Und was sagt Gigabyte dazu oder die einschlägigen Foren? Das kann doch nicht normal sein. Sicher, dass die NVMe nicht einfach zu heiß wurde und sich selbst gedrosselt hat?

 

Mein Mainboard ist in den Produkten nicht aufgelistet für diese Karte: https://www.asus.com/support/FAQ/1037507/

 

Ich müsste in meiner Support History schauen, ob die Antwort vom Gigabyte Support noch aufrufbar ist. Soweit ich mich aber erinnere, haben sie genau das bestätigt, was ich bereits gesagt habe. Dass nur der M2_A Slot ein x4 ist. Ich schaue nach im Ticketsystem nach der Antwort von Gigabyte.

Link to comment

So, ich habe gerade mal nachgeschaut und diesen Verlauf gefunden. Leider ist nur die letzte Antwort des Gigabyte Supports zu sehen, aber meine Antworten und Fragen sind zu sehen. Ich hatte gehofft, dass der gesamte Verlauf verfügbar ist. Sorry...

 

image.thumb.png.128e64f6e98adcdba060e4848b90b0b9.png

Link to comment
9 hours ago, Tiras said:

Mein Mainboard ist in den Produkten nicht aufgelistet

Asus listet dort nur Asus Mainboards auf 😉

 

9 hours ago, Tiras said:

So, ich habe gerade mal nachgeschaut und diesen Verlauf gefunden.

Du sprichst dort von Bifurcation, steckst die Karte dann aber in irgendeinen Slot?! 

 

Bifurcation funktioniert nur im obersten PCIEX16 Slot und auch nur, wenn der auf 4x X4 eingestellt wird. Alle anderen Slots hängen am Chipsatz und unterstützen kein Bifurcation (hätten dafür ja auch gar keine Lanes).

 

Wenn ich das richtig verstanden habe, geht die GPU nicht im PCIEX4 Slot, obwohl du das im BIOS eingestellt hast? Dann würde ich das Board solange zum Verkäufer zur Reparatur zurücksenden, bis du vom Kauf zurücktreten kannst und dann holst du dir eben ein Asus Board. Ich mein du kannst doch nicht stumpf akzeptieren, dass du ein fehlerhaftes Produkt erhältst und das mit noch mehr Geld ausgeben ausgleichst (QNAP Karte). Das muss einfach gehen.

 

IMG_20210801_091953.thumb.jpg.26ebf77e6c11deabeca40ad64fb641ac.jpg

 

Das mit der NVMe Bandbreite am Chipsatz ist ja noch so ein Punkt, der komisch ist.

Link to comment
15 hours ago, Tiras said:

ich wollte in den anderen Threads kein Spam erzeugen, deswegen stelle ich hier noch einmal die Frage/n:

 

Ich habe den Teil aus dem anderen Thread extrahiert und hier nun zusammengelegt. Wenn du magst kannst du den ersten Beitrag entsprechend anpassen.

 

14 hours ago, vakilando said:

Einen Pool "Cache" für appdata und Cache und einen Pool "VMs" für die VMs.
Mein Cache-Pool ist 1 TB groß
Mein VMs-Pool ist 480 GB groß.

Versprichst du dir davon eine bessere Performance oder war es eher eine finanzielle Entscheidung, weil ein 2TB Cache zu teuer geworden wäre? Weil ich frage mich warum man das unbedingt teilen will. So eine NVMe hat ja schließlich massig IOPS.

Link to comment
3 hours ago, mgutt said:

Asus listet dort nur Asus Mainboards auf 😉

Also meinst du, dass es funktionieren soll/muss/könnte? 

 

Wieso die GPU im 2. Slot nicht funktioniert hat, kann ich Dir leider nicht sagen. Nachdem ich von Gigabyte einen Download Link für eine spezielle BIOS Version erhalten habe, die nicht auf der Webseite verfügbar war, hat die Grafikkarte und die Einstellungen für Bifurication wieder funktioniert.

 

Du machst das nicht zufällig hauptberuflich, oder? Man merkt, dass du schon sehr viel Ahnung von dem Thema hast. An dieser Stelle mal ein Danke an dich für deine Hilfe.

 

Wie gesagt bekomme ich die Karte in den nächsten Tagen zurück und teste sie mit den von Dir genannten Einstellungen. Die GPU ist ja nicht mehr in diesem System, da ja ein der Ryzen 5 4650G Pro eine integrierte Grafik hat.

 

Ich weiß, dass ich in meinem System viele NVMe´s habe, aber das liegt wie gesagt daran, dass ich möglichst alles trennen möchte. Das bedeutet, dass die VMs für sich laufen sollen, so Sachen wie "appdata", "system", "MagentaCloud", "transcode" etc. sollten möglichst ebenfalls für sich laufen. Damit möchte ich erreichen, dass bei einem defekt einer NVMe nicht alle Daten verloren gehen, sondern das System weiterhin läuft.

 

Wieso ich für die VMs kein RAID 1 mache?

Das hatte ich vorher so. Die beiden 1 TB NVMe´s waren in einem Pool als BTRFS Dateisystem im RAID 1. Vom Gefühlt her war die Performance der VMs nicht so berauschend, weshalb ich den anderen Thread erstellt habe und Du mir da schon ziemlich weitergeholfen hast. Wie ich in dem Thread schon erwähnt habe, vermute ich, dass ich durch durchschleifen einer 128 GB NVMe in die Workstation noch mehr Leistung erzielen könnte. 

 

Wieso die 1 TB NVMe fast voll ist durch VMs?

  • Active Directory Server = 80 GB
  • MS SQL 2016 Server = 80 GB
  • Dynamics CRM v8.2 Server = 80 GB
  • Dynamics CRM v9.1 Server = 80 GB
  • SSRS Server = 80 GB
  • TFS 2017 Server = 80 GB
  • Workstation = 2 x 120 GB
  • Playground = 80 GB
  • Kunden VM = 80 GB

Windows Server OS nimmt min. 20 GB Speicherkapazität für das OS. Hinzu kommen Updates und diverse Dienste/Software. Ich bin am Überlegen, ob nicht 50 oder 60 GB ausreichen würden. Bei dem SQL, Dynamics CRM und TFS auf keinen Fall, da der SQL Server alleine 19 GB braucht. TFS liegt bei 14 GB.

 

Ich muss aber ehrlich gestehen, dass ich den Sinn eines Pools/Caches als "Prefer" nicht so ganz verstehe, wenn ich einen Pool/Cache erstellen kann und dem Share diesen als "Only" zuweisen kann. Die Daten sichere ich mir durch eine Backup Strategie auf den HDDs. Warum sollte ich also ein Pool/Cache in einem Share als "Prefer" haben?

16 hours ago, vakilando said:

Ich würde Docker (appdata) und Vm's immer vom Cache, einen anderen Pool oder von einem unassigned device laufen lassen. Wegen besserer Performance.

Welchen Performance Unterschied gibt es, wenn ein Share ein Pool/Cache oder ein Unassgned Device nutzt?

Link to comment
26 minutes ago, Tiras said:

Also meinst du, dass es funktionieren soll/muss/könnte? 

 

Auf jeden Fall. Bifurcation ist Bifurcation. Gigabyte hat selbst auch eine Karte, die ich aber noch nie irgendwo gesehen habe und die auch schlechter ist also die von Asus, weil die nicht zusätzlich 12V in 3.3V umwandelt:

https://www.gigabyte.com/de/Enterprise/Accessory/CMT2014-rev-10

 

Dh wenn vier NVMe zu viel Strom über 3.3V vom Board ziehen, gehen die die vermutlich einfach aus. So zumindest eine Aussage von einem User bei Computerbase. Gigabyte hat im Kleingedruckten auch extra erwähnt, dass es nur für Server-Boards gedacht sei. Also sie selbst haben gar kein offizielles Produkt für Consumer Boards mit Bifurcation. Damit können die sich aber nicht einfach aus der Affäre ziehen. Entweder bieten sie die Option laut Anleitung / BIOS an oder eben nicht.

 

29 minutes ago, Tiras said:

Du machst das nicht zufällig hauptberuflich, oder?

Ja, ich baue auch Unraid Server für meine Kunden und supporte diese.

 

29 minutes ago, Tiras said:

Wieso die 1 TB NVMe fast voll ist durch VMs?

Ok, ich erinnere mich. Sorry, wenn ich das nicht direkt im Gedächtnis hatte. Zu viele verschiedene Threads hier im Forum ;)

 

30 minutes ago, Tiras said:

Vom Gefühlt her war die Performance der VMs nicht so berauschend

Das war sie ja schon nicht wegen deiner CPU Kern Verteilung. Ist die Frage ob das überhaupt an der NVMe lag. Ist ja aber auch egal. Du kannst das natürlich so aufteilen, wie es dir am liebsten ist. Und klar, physisch durchschleifen ist noch mal besser in Sachen Performance.

 

31 minutes ago, Tiras said:

Ich muss aber ehrlich gestehen, dass ich den Sinn eines Pools/Caches als "Prefer" nicht so ganz verstehe, wenn ich einen Pool/Cache erstellen kann und dem Share diesen als "Only" zuweisen kann. Die Daten sichere ich mir durch eine Backup Strategie auf den HDDs. Warum sollte ich also ein Pool/Cache in einem Share als "Prefer" haben?

Prefer ist wie Only, nur dass der Mover bei Only aus ist. Dh wenn warum auch immer Dateien auf den HDDs erstellt wurden, dann werden die niemals auf den Cache Pool verschoben. Auch ein Nachteil bei Only ist, dass wenn die SSD vollläuft, dass es dann zum "Platte voll" Fehler kommt. Bei "Prefer" schreibt er einfach weiter auf den HDDs. Bei VM Images ist das kein Thema, weil das ja eine große Datei ist, die nicht neu erstellt wird. Das ist nur relevant bei Shares, wo man neue Dateien hochlädt. So gesehen ist Only also ein abgespecktes Prefer. Einen Vorteil habe ich in Only noch nicht gesehen, daher empfehle ich es auch keinem. Genauso wenig wie No.

 

 

Link to comment
Versprichst du dir davon eine bessere Performance oder war es eher eine finanzielle Entscheidung, weil ein 2TB Cache zu teuer geworden wäre? Weil ich frage mich warum man das unbedingt teilen will. So eine NVMe hat ja schließlich massig IOPS.
Zum einen hatte ich die 4 SSDs (2x1TB, 2x480GB) bereits da, zum anderen spielte der Gedanken mit die VMs vom Rest zu trennen.
Link to comment

In diesem Forum  habe ich gelesen, dass die CPU ebenfalls Bifurication unterstützen muss. Leider konnte ich in der Spezifikation zu meinem Ryzen 5 4650G Pro bei AMD keine Angaben zu Bifurication finden. Ich weiß, dass im BIOS meines Mainboards diese Option vorhanden ist und ich diese auch ändern kann. 

 

Kannst du dazu etwas sagen @mgutt

Link to comment
2 hours ago, Tiras said:

In diesem Forum  habe ich gelesen, dass die CPU ebenfalls Bifurication unterstützen muss

Es gibt meiner Ansicht nach kein separates "Feature", was das freischaltet. Wichtig ist nur, dass die CPU neben x8x8 auch x4x4x4x4 unterstützt. Eine gewisse Aufteilung kann "jede" CPU, da man sonst nicht mehrere PCIe Slots eines ATX Boards über die CPU verwenden könnte.

 

Zufälligerweise hatte ich Asrock mal gefragt welche Boards Bifurcation können, aber die haben dann auch nur mehr oder weniger aus der Anleitung vorgelesen:

Quote

Based on the specification, only Matisse and Pinnacle Ridge CPU support PCIE bifurcation to X4/X4/X4/X4 ... on X570M ...

 

Matisse = Ryzen 3xxxx

Pinnacle Ridge = Ryzen 2xxxx

 

Die Antwort ist damit leider unvollständig, da nichts zu Picasso (3xxxG/U), Vermeer (5xxx) oder Renoir (4xxxG/U) geschrieben wurde. 

 

Aber klar ist, dass es wenn, die ganze Plattform es kann und nicht nur einzelne CPU Modelle.

 

Beim MSI X570 Godlike kann man mehr oder weniger herauslesen, dass der 2xxxG kein X8X4X4 kann:

https://download.msi.com/archive/mnu_exe/mb/E7C34v1.2.pdf

image.png.9789bbd79ffa122cca4521cb46b7872b.png

image.thumb.png.1a824018ae8b5d97c8da0be03de82708.png

 

 

Aber in den technischen Daten wird zumindest der 4000G mit dieser Funktionalität erwähnt:

image.png.cc83bb5dda7bac735a6a1f92da3e6803.png

 

Jetzt müssen wir nur noch herausfinden welche X4X4X4X4 können, wobei du wissen musst, dass wenn die CPU X8X8 kann und das sollte denke ich quasi alle können, dann sollte zumindest ein Dual M.2 Bifurcation Adapter gehen.

 

EDIT: Hier wird bestätigt, dass der 3xxxG es auch nicht kann, da er sogar nur 8 Lanes für PCIE Slots übrig haben soll:

https://www.reddit.com/r/Amd/comments/h0t3jk/pcie_bifurcation_and_ryzen_g_pro/

image.png.2fdc7cf0bbd43bc274ada45bd6bcf73e.png

 

EDIT: Hier hat jemand das mit einem 4750G getestet:

https://www.hardwareluxx.de/community/threads/ein-e-ryzen-7-pro-4750g-desktop-workstation-entsteht.1274748/

Quote

- Asus Hyper M.2 x16 im PCIEx16 funktioniert auf allen 4 SSD-Plätzen => Bifurcation funktioniert mit 3 SSDs, 4 funktionieren (derzeit?) nicht.
(Bios sagt, es gingen nur der obere und die unteren beiden Plätze (also vmtl. x8x4x4 gemeint), ich kann aber zwei SSDs an beliebigen Plätzen einsetzen.
2. Test war mit 4x M.2, davon wurden alle 4 im Bios nach nem Kaltstart erkannt, aber nicht in Windows; dort nur 3 von den 4. Beim Reboot hats dann nicht mehr gepostet. (x4x4x4x4 >scheint< also Probleme zu machen)

 

Theoretisch geht es also, aber praktisch scheiterte es an unbekannten Dingen.

 

Hier hat jemand auch nur 3 NVMe geschafft:

https://tekdeeps.com/reviews-asus-rog-strix-b550-xe-gaming-wifi-and-ryzen-7-pro-4750g-introduction-of-motherboard-and-processor/

 

In der Anleitung von dem Board ist nur von 5xxx und 3xxx die Rede (was nicht 3xxxG einschließt):

image.png.f7eaa1fb8df37a78642a6793d7f1ef72.png

 

Was wissen wir nun:

Wenn es ein Ryzen mit iGPU können sollte, dann nur der 4xxxG (bzw der bald erscheinende 5xxxG).

 

Wie viele NVMe gehen sollten, wissen wir damit zwar noch nicht, aber es müsste auf jeden Fall mehr als eine NVMe gehen, denn bei zwei Leuten gingen 3 von 4 NVMe. Hat das Gigabyte Board ein Menü für RAID? Weil sowohl bei Asus als auch bei Asrock muss man den RAID Mode dafür aktivieren. Das hatte mir Asrock damals nämlich auch geschrieben:

Quote

With supported CPU, please follow below steps to enable this function. (attached photo)

1. BIOS\Advanced\AMD PBS\NVMe RAID mode to Enabled

2. Then set PCIe x16 Switch to 4X4

 

 

Link to comment

Ich habe gerade mal in den BIOS Einstellungen meines Mainboards geschaut und musste feststellen, dass die neuste BIOS Version nicht mehr Bifurication 4x4 unterstützt. In der Version F3 oder F4 war das noch möglich.

 

In einem Tutorial wurde gesagt, dass man bei Verwendung einer Asus M.2 Card im BIOS CSM deaktivieren muss und wie du ebenfalls schon gesagt hast, auf RAID Mode umstellen.

Beides habe ich eingestellt, aber leider bootet dann unRAID nicht mehr sobald ich CSM deaktiviere. 

 

Wenn es tatsächlich nur 8x4x4 möglich ist, dann bringt mir das leider nicht wirklich viel. Interessant wäre für mich wirklich, wenn alle NVMe´s auf dieser Karte max. 4 GB/s hätten, aber eine 1 TB NVMe mit 8 GB/s, die 2. 1 TB mit nur 4 GB/s und - wenn wirklich nur 3/4 möglich sind - die 128 GB NVMe mit 4 GB/s macht meiner Meinung nach nicht wirklich viel Sinn. Vielleicht würde es funktionieren, wenn ich die BIOS Version F3/F4 wieder installieren würde, oder was meinst du?

IMG_0909.JPEG

IMG_0910.JPEG

Link to comment
12 hours ago, mgutt said:

Die läuft dann auch nur mit 4 GB/s. Mehr kann sie ja auch nicht.

Genau das habe ich gemeint. Sie würde einen x8 Slot belegen, obwohl sie nicht dafür ausgelegt ist.

12 hours ago, mgutt said:

Aber wieso reicht dir das nicht? Du hast doch noch den M.2 Slot von der CPU. Also dann insgesamt 4.

Ja, dass ist richtig, aber da muss ich schauen, ob durch die Verwendung von Bifurication nicht - wie in anderen Foren oder Mainboard Herstellern beschrieben - ein SATA Controller oder eines der beiden M.2_A oder M.2_B Slot deaktiviert wird. 

Du hast recht, ich habe hier noch Möglichkeiten bspw. könnte ich die QNAP Karte mit den beiden Gigabyte NVMe´s in den 2. PCIe x4 und die Asus Karte mit den schnellen 1 TB NVMe´s (bis zu 3) in den PCIe x16 installieren. Zusätzlich hätte ich, wie du sagtest die beiden MB M.2 Slots, aber wie gesagt, wenn sie nicht deaktiviert werden wie bei manch anderen Mainboards.

Link to comment

Kurze Frage: Ich habe mir folgende Konstellation überlegt:

 

  1. 6 TB als Parity
  2. 2 x 4 TB + 1 x 2 TB als Array Disks
  3. 1. Pool aus 2 x 1 TB NVMe für VMs
  4. 2. Pool aus 3 x 5 TB HDD
  5. 3. Pool aus 2 x 128 GB NVMe

Array Disks dienen als Backup. Für jeden Anwendungszweck wird ein Share bspw. Bilder, Musik, Dokumente auf den Array Disks mit dem 2. Pool als "Prefer" erstellt. Das gleiche für die VMs. Ein Script synchronisiert die Daten täglich um 0:00 von den Pools auf das Array.

Der 3. Pool dient vielleicht als Default Cache oder für Docker und MagentaCloud - MagentaCloud wird auch mit dem Array synchronisiert - verwendet.

 

Gedanke dabei ist, dass ich ein schnelles und großes Volume für Daten habe, ich mich aber 1. um keine gleich große Parity kümmern muss und vor allem alle Daten im Array abgesichert sind. Die Shares / Ordner, die ich brauche erstelle ich im Array und move sie anschließend in die Pools.

 

Was haltet ihr von dieser Idee? Wäre das eine Backup methode?

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.