Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Das meine ich mit Platzprobleme: Also vom Prinzip hätte man bereits ein Problem zusätzliche M.2 NVMe reinzubekommen, wenn man nur 4 GPUs verbaut. Da müsste man schon darauf hoffen, dass so ein Adapterkabel passt: http://www.adt.link/product/R24SF.html
  2. Schon klar. Aber es gibt ja zwei Passwort Felder. Eines für den User und eines für Root. Also wäre dein Login für phpmyadmin root und das Passwort das was du bei MYSQL_ROOT_PASSWORD angeben hast.
  3. Dazu ergänzend: Da man auf dem Asus Board insgesamt 7 PCIe Slots hat, könnte man natürlich auch 2 NVMe in die Onboard-M.2-Slots packen und 2 weitere in jeweils einen PCIe Slot mit einem M.2 auf PCIe Adapter. Dann hätte man 4 NVMe, die man sauber an 4 VMs durchschleifen kann. So blieben noch 5 PCIe Slots für 4 GPUs. Schlussendlich musst du aber genau überlegen wie viele GPUs in das System sollen. Wenn wirklich 5 GPUs rein sollen, hast du wie gesagt Platzprobleme (und keinen Slot für die 5. NVMe oder man nutzt bei einer VM eine SATA SSD) und eine Wasserkühlung in der Dimension ist vermutlich so teuer, dass man fast schon über 3 Server nachdenken sollte. ^^ Oder man packt eine GPU / Gaming VM in den Office Server und hat dann 4 in dem Gaming Server. Das wäre vermutlich sogar besser. Man könnte dann auch mal eine Office VM mit einer starken GPU starten (wenn keiner spielt), ohne gleich den Gaming Server hochfahren zu müssen.
  4. Das ist die besagte Intel X Plattform. Ein normaler Consumer Core i9 läuft da nicht. Nur diese hier: https://www.asus.com/de/Motherboards-Components/Motherboards/All-series/WS-X299-PRO/HelpDesk_CPU/ Ist aber auch die Frage über welchen i9 wir reden. Früher war i9 immer nur Intel X CPUs mit dem Sockel 2066. Heute gibt es i9 auch bei der normalen Consumer-Linie mit 1151 Sockel und 1200. Letztere kannst du nicht gebrauchen. Also für dich kämen nur die in Frage: https://en.wikipedia.org/wiki/List_of_Intel_Core_i9_processors Die haben wie du siehst 48 Lanes (alle anderen nur 16). Ein x16 PCIe Slot braucht zB 16 Lanes. Das von mir vorgeschlagene Asus Board hat zB 1x x16 und 6x x8. Also insgesamt 64 Lanes. Die zusätzlichen Lanes sind "unecht". Diese kommen durch den Chipsatz. Also ein Teil der Slots ist vermutlich mit dem Chipsatz verbunden, wird aber von Asus leider nicht in der Anleitung erklärt.
  5. Wie gesagt. dGPUs kann man nicht teilen. Außer die Office VMs laufen nacheinander. Parallel aber auf keinen Fall. Dann nur mit einer iGPU und dem oben genannten Plugin. Was aber ok ist. Ich kann mir das schon gut vorstellen. Office / Storage / Docker Server mit einem Intel Xeon W-1270 (8 Kerne). Vielleicht sogar einem Intel Xeon W-1250 (6 Kerne). Die iGPU dann geteilt in zwei Office VMs. Dann den Gaming Server mit einer Intel X CPU und zB dem Board: https://www.asus.com/de/Commercial-Servers-Workstations/WS-C422-SAGE-10G/ In dem Fall würde ich alle bis auf den ersten Slot auf x8 laufen lassen (letzte Zeile) und in den ersten Slot eine Quad M.2 Bifurcation Karte installieren: Da bleiben dann noch genug Lanes / Slots für dGPUs. Allerdings brauchst du zwingend eine Wasserkühlung, damit du alle auf 1 Slot Höhe reduziert bekommst. Ansonsten dürfte es vom Platz her Probleme geben. Besonders wenn noch weitere Hardware durchgeschliffen werden soll. EDIT: Ok, das mit Bifurcation ist bereits ein Problem. Das unterstützt das Board schon mal nicht: https://www.win-raid.com/t6564f54-Request-ASUS-WS-X-SAGE-BIOS-MOD-for-Bifurcation.html Es gäbe aber die Möglichkeit eine aktive Quad M.2 Karte zu nehmen. Die geht auch ohne Bifurcation, kostet aber ~400 €. Ob man da die einzelnen NVMe Slots an die VMs durchschleifen kann ist aber fraglich. Ich befürchte eher nicht.
  6. Kann nicht sein. Wenn nur Intel X. Der normale i9 hat gerade mal Lanes für 1 GPU. Zwei, wenn man mit x8 pro GPU leben kann.
  7. Du kannst keinen i9 nehmen. Der hat nicht genug Lanes. Auch Ryzen kannst du vergessen. Du brauchst Intel X oder AMD TR. Wobei ich den Podcast auch angehört habe und daher von TR abraten würde.
  8. Du kannst keine GPU teilen. Nur Intel iGPU mit diesem Plugin (ohne Gewähr): https://forums.unraid.net/topic/108650-plugin-intel-gvt-g/ Und ja, für Office reichen 2 Kerne, aber eine GPU Beschleunigung macht schon Sinn, denn sonst überlastet YouTube die virtuelle GPU = CPU Kerne Das wäre eine Lösung. Einen für die Office VMs und einen für die Gaming VMs, den man auf Zuruf hochfährt. Denk dran, dass der bestimmt 3 Minuten fürs Hochfahren braucht (Unraid und dann im Anschluss die VMs).
  9. Dann hast du aber ein Lane Problem. Du bekommst keine 5 GPUs verbaut, außer bei AMD Epyc, aber da hat man keine Gaming Leistung.
  10. Ich würde vermutlich sogar auf den Xeon W-2175 oder W-2275 setzen wegen ECC RAM. Das in Kombi mit einem C422 Chipsatz, da der effizienter ist als der X299. Kommt aber drauf an was es da für Boards gibt. Gibt es da eines wo man auf Slot 1 eine Quad M.2 Bifurcation installieren kann und zusätzlich 4 GPUs?
  11. Das gilt für die Zeit wo sie an sind, aber die GPUs im Server bekommst du nicht aus. Also ~15W pro (Nvidia) GPU hast du 24/7. Dazu kommt das Monster-Netzteil, was auf die Gesamtleistung ausgelegt werden muss und daher unten rum auch wieder 10 bis 20W für Nichts verbrauchen wird. Also ein Titanium Nezzteil sollte es auf jeden Fall werden. Leider hat Corsair seine Low Load Effizienz noch nicht in der >1000W umgesetzt. Das wäre sonst ideal. Aber wie gesagt gehen nur Intel X CPUs. Du brauchst Kerne und keine Threads. Und 14 Kerne wären denke ich optimal. 4 Kerne pro VM und 2 Kerne für Unraid und Docker. Optimalerweise mit einer kleinen 4ten GPU für Unraid.
  12. Mit einem Core i9-10940X oder Core i9-9940X, drei GPUs, drei USB Controller und drei LAN Controllern, sollte das meiner Ansicht nach kein Ding sein. Aber was haut das an Strom raus. 200W im Leerlauf?
  13. Man installiert Unraid nicht. Unraid bootet einfach nur vom USB Stick. Siehe:
  14. Da ist doch ein Feld root password. Der User wird dann doch sicher "root" heißen.
  15. Auch dazu wirst du zahlreiche Videos auf YouTube finden.
  16. Keine Ahnung. nutze MariaDB. Hat der MySQL Container dafür keine Variablen?
  17. Hast du denn in phpmyadmin den Root User verwendet? Mal mit HeidiSQL probiert?
  18. Wie ist es denn mit der Temperatur wie schon angemerkt. Das könnte es auch sein. Halte mal einen Lüfter direkt drauf.
  19. Entweder schaust du dir ein paar Videos zu Unraid an oder du installierst es dir einfach mal. Großartig was erzählen bringt da eh nicht, weil ja keiner weiß was du an Apps nachher brauchst. Man kann nur sagen, dass es mir Unraid alles ziemlich einfach ist.
  20. Eine ziemliche Fehlkonstruktion (Display schlecht ablesbar und Batteriefach nur mit Gewalt zu öffnen), aber nach wie vor das günstigste und genaueste ist das Brennenstuhl: https://gutt.it/strommessgeraete-im-test/ Denk aber dran, dass beim Vergleichen meist nur eine SSD für die Messung angeklemmt wurde. Also jetzt keine 5 HDDs etc. Also 50W hast du dann wieder schnell erreicht.
  21. Naja dann hast du ja massig Optionen. Wegen dem Stromverbrauch hätte ich jetzt ein Intel System vorgeschlagen. Vielleicht sogar direkt was mit 2.5G Onboard. Was man hat, hat man.
  22. Naja in 2 HE sollte denke ich mal auch ein SFX Netzteil passen. Ist ja nur 63,5mm hoch. Du brauchst nur eben evtl eine Adapterplatte zum Festschrauben. Aber online bekommt man doch heute echt alles und sei es ein Adapterblech malen und sich laserschneiden lassen. Wäre mir auf jeden Fall lieber als diese Spezialnetzteile mit ihren mega lauten Lüftern. Wobei Supermicro Server-Netzteile ziemlich leise sein können muss ich sagen.
  23. Warum Intertech die anderen Größen überhaupt reinschreibt, muss man nicht verstehen. Das Case unterstützt Mini ITX und das wars. Alles andere sind so Sondermaße. Solche Boards findet man kaum bis gar nicht. Was heißt denn einige SATA Anschlüsse? Und warum kein mITX?
×
×
  • Create New...