Neuer Ryzen Server - Komponenten Diskussion/Rückfrage


Recommended Posts

On 2/3/2021 at 8:59 PM, mgutt said:

Zwei Varianten passend zum B550 AORUS MASTER:

 

Variante A

Wenn 2x M.2 reicht, kannst du beim B550 AORUS MASTER das einbauen:

http://www.iocrest.com/index.php?id=2070

1597723166425236.jpg.5c4cff01235ad4f4494a90dbbaf2a54c.jpg

 

Dann hättest du 11x SATA und 2x M.2. Durch SATA4+5 wird ein PCIe x4 Slot deaktiviert und dir bleiben noch ein x4 Slot für 10G und ein x8 für eine dGPU.

Fällt mir grad ein PCIE x16 > 4x die Adapterkarte = 20 SATA Ports

 

Auf meinem Board würde ich damit auf 32 Ports kommen 😱

 

Achja hat mal jemand USB GPU probiert, wenn die Lanes aktuell so Mangelware sind und keine UltraPower benötigt wird dann könnte man doch eine USB GPU verwenden?

Link to comment
25 minutes ago, Smolo said:

Bei den Lan Karten habe ich bis auf zwei spezielle Varianten nichts mit x4 gefunden die waren alle 8x? Die NVME Adapter brauch auch alle samt 8x wenn da zwei NVMEs drauf sollen.

 

Du sagtest, dass dir 2x NVMe reicht. Da das Board 3x NVMe hat, ging ich davon aus, dass du 2x davon verwendest. Oder brauchst du doch 4x NVMe?

 

Wenn die LAN Karte PCIe 3.0 unterstützt, wird sie auch mit x4 mit voller Bandbreite laufen. PCIe ist abwärtskompatibel. Und x4 hat 40 Gbit/s. Hier sind mehrere Erfahrungsberichte:

https://forums.servethehome.com/index.php?threads/pcie-2-0-3-0-4x-lane-10gb-sfp-card.9925/

 

 

 

Link to comment
16 minutes ago, Smolo said:

Achja hat mal jemand USB GPU probiert, wenn die Lanes aktuell so Mangelware sind und keine UltraPower benötigt wird dann könnte man doch eine USB GPU verwenden?

Für eine VM? Müsste dann aber denke ich mal USB-C sein, damit man die auch als primäre GPU verwenden kann?! 

 

Es gibt übrigens erste Versuche mit M.2 GPUs:

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54882-asrock-rack-m2-vga-grafikkarte-im-ssd-steckplatz.html

 

 

Link to comment
7 hours ago, mgutt said:

 

Du sagtest, dass dir 2x NVMe reicht. Da das Board 3x NVMe hat, ging ich davon aus, dass du 2x davon verwendest. Oder brauchst du doch 4x NVMe?

Das ist im Thread glaube ich untergegangen aber ich brauche min. 2 NVME für das Cache RAID 1 zwecks Ausfallsicherheit. Ich möchte mit dann aber noch min. 1 eigentlich ehr 2 nvme vorhalten um davon eine Standalone laufen lassen zu können bzw. 1 dann für Daten im Alltagsgebrauch im Array zu verwenden. (Die Preise der 2TB Crucial NVME haben nach meinem Posts hier wieder von 150 > 200€ angezogen) Am Ende sind 4x NVME einfach Zukunftstsuglicher für mein Szenario.

 

Quote

Wenn die LAN Karte PCIe 3.0 unterstützt, wird sie auch mit x4 mit voller Bandbreite laufen. PCIe ist abwärtskompatibel. Und x4 hat 40 Gbit/s. Hier sind mehrere Erfahrungsberichte:

https://forums.servethehome.com/index.php?threads/pcie-2-0-3-0-4x-lane-10gb-sfp-card.9925/

Danke das war eine wichtige Info die ich noch nicht gefunden habe. Man muss hier aber aufpassen das man auch entsprechend große Mechanische Anschlüsse hat die meistens Boards haben lediglich 2x größer x4 oder Schalten wegen SATA / NVME / x16 dann wieder die Ports komplett ab.

 

So wie das im Thread gelesen hab kann man theoretisch an die x1er Ports die Riserkarten auf x16 ranflantschen und dann würde es wieder funktionieren. Auf soviel Bastelarbeiten habe ich dann aber keine "Lust"

Link to comment
6 hours ago, mgutt said:

Für eine VM? Müsste dann aber denke ich mal USB-C sein, damit man die auch als primäre GPU verwenden kann?! 

 

Es gibt übrigens erste Versuche mit M.2 GPUs:

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54882-asrock-rack-m2-vga-grafikkarte-im-ssd-steckplatz.html

Ehr falls ich noch Transcoding nutzen mag etc. die Datenmengen sollten sich da theoretisch in Grenzen halten und die USB Ports liegen ja sowieso nur rum. Die Frage ist halt ob man so eine USB GPU in Unraid und co. Dann überhaupt zum integriert bekommt?

 

Ich habe gestern aber noch eine GT710 mit einem PCIE x1 Port gesehen das längst dann ja auch.

 

Ich muss schon sagen die Lernkurve zu den aktuellen Komponenten ist durch die beiden Threads hier extrem hoch. Wegen dem Nachwuchs war ich da ein paar Jahre relativ weit weg aber die Möglichkeiten sind abartig. Wenn die m2 GPU kommt macht so eine x16 Bifurcation Karte noch viel mehr Sinn. ;-)

 

Link to comment
53 minutes ago, Smolo said:

Man muss hier aber aufpassen das man auch entsprechend große Mechanische Anschlüsse hat

 

Auch in dem Link findest du zahlreiche Leute, die die Slots einfach aufdremeln. Ich werde auch nie verstehen, warum es immer noch Boards gibt, wo die Slots zu sind. Ich habe selbst auch schon einen mit einer Pfeile geöffnet.

 

56 minutes ago, Smolo said:

Am Ende sind 4x NVME einfach Zukunftstsuglicher für mein Szenario.

Ja dann geht das B550 auf keinen Fall. Schade. Dann geht nur X570 oder du nimmst erstmal das B550 und wechselst dann auf den neuen Chipsatz. Der müsste ja dieses Jahr kommen.

 

50 minutes ago, Smolo said:

Ich habe gestern aber noch eine GT710 mit einem PCIE x1 Port gesehen das längst dann ja auch.

Nicht fürs Transcoding:

https://www.elpamsoft.com/?p=Plex-Hardware-Transcoding

 

Nicht alle Nvidia haben auch eine potente Video-Einheit. Ich meine eine GTX 1050 ist Minimum.

 

 

Link to comment
5 hours ago, mgutt said:

 

Auch in dem Link findest du zahlreiche Leute, die die Slots einfach aufdremeln. Ich werde auch nie verstehen, warum es immer noch Boards gibt, wo die Slots zu sind. Ich habe selbst auch schon einen mit einer Pfeile geöffnet.

Absolut abgefahren, das würde mir bei einem neuen Board nie in den Sinn kommen. Mein alter Herr hat mal wegen der Wohnzimmerschrankwand zu Zeiten der Röhren von einem 3000DM Fernseher das Gehäuse zersägt und die Lautsprecher abgenommen so dass die Kiste noch in die Schrankwand passt. Das war wohl gemerkt bei einem neuen Gerät 🤣

 

Quote

Ja dann geht das B550 auf keinen Fall. Schade. Dann geht nur X570 oder du nimmst erstmal das B550 und wechselst dann auf den neuen Chipsatz. Der müsste ja dieses Jahr kommen.

Ich habe aktuell leider nicht die Zeit für die Experimente weil der Server eigentlich schon Produktiv laufen muss und er 2-4 Wochen Remote aufgestellt wird und ich das Gerät dann nicht mehr Anfassen kann/werde für 2-3 Jahre.

Auch wenn der BMC Chip jetzt bissel Stromverbrauch bedeutet werde ich damit jetzt einfach ins Rennen gehen. Das Board ist zwar sauteurer unter dem Strich aber sogar etwas günstiger als die Einzelkomponenten und zukunftssicherer.

 

Quote

Nicht fürs Transcoding:

https://www.elpamsoft.com/?p=Plex-Hardware-Transcoding

 

Nicht alle Nvidia haben auch eine potente Video-Einheit. Ich meine eine GTX 1050 ist Minimum

 

Hm für H265 Encoding schaut es ja schlimm aus, da braucht es wirklich eine große GPU alias 1050 und die haben wieder x16. D.h. wenn mir 50% Transcoding Power reicht muss ich dann den einen 8er Port auffeilen oder Risercard verwenden. Und hab mir schon gedacht das es besser ist aktuell noch auf x264 Encoding bei den 4k Streams zu setzen^^

 

Link to comment
On 2/8/2021 at 8:43 AM, mgutt said:

Ja, muss man im BIOS für jeden einzelnen SATA Port aktivieren.

So die letzte Woche war etwas viel Stress in der Firma aber nun konnte ich mich wieder dem Thema widmen. Ich dachte okay schaust halt noch mal nach was im BIOS so abgeht vielleicht hast doch was übersehen aber leider war nichts zu finden. Nach etwas Recherche musste ich leider feststellen das dieses Mainboard aktuell keinen Hot-Swap / Hot-Plug Support besitzt 🙄😱

 

Die ganze ASRock Rack Nummer nervt mich mittlerweile ziemlich sofern da jetzt nichts zufriedenstellendes vom Support kommt muss man diesem Mainboard eindeutig eine Abfuhr erteilen und ich werde dann wohl oder übel doch das Mainboard wechseln. 470€ für ein Server Mainboard ohne Hot-Swap Support kann man sich gar nicht ausdenken sowas 🤐

Edited by Smolo
Link to comment

Hi, ganz kurz:

- Hab das X570D4I-2T, was eigentlich identisch zum D4U ist.

 

- 10G: X550-2t -> Eine der besten 10G Chipsätze, kann virtualisieren, funktioniert 1A mit Proxmox, google mal nach "virtual function". Das ist deutlich schneller und besser als Virtio kram oder irgendwelche anderen Software Virtualisierte Nic's. Virtio Nic's haben z.B. Hardware offloading bugs in FreeBSD VM's, da gibts eh kein richtiges HW Offloading, weil Software nics...

Also kurz gesagt, alleine schon wegen dem x550 nic ist das Asrock Rack D4U oder D4I seinen preis mehr als wert.

 

- IPMI: ist absoluter müll bei dem board, erfüllt aber seinen zweck, sprich html5 Console, oder ipmi remote auslesen mit icinga/grafana und dashboard für Temperatur/Fanspeed etc...

 

- ECC: ECC Funktioniert und ist sehr wichtig für 24/7 betrieb!!! 3200mhz geht eventuell auch mit 4 Dimms, ich glaub die CPU regelt das sowieso und nicht das board, da der speichercontroller in der CPU ist. Was wichtig ist, das es unbuffered ECC ist. Immer Samsung B-Die nehmen, auf keinen fall was micron basiertes nehmen! (Gilt generell für alle AMD Cpus) Ich meine aber, das fast alle kingston module auf samsung setzen. Ob 3200 oder 2666 ist egal, takten sich doch eh notfalls runter, denk ich. Ich benutze Samsung 2666 ecc mit 32GB/riegel.

Zum thema ECC, es funktioniert! habs mit injection getestet. Sogar der report funktioniert in Proxmox, wenn etwas korrigiert wird.

Leider wirst du davon nichts mitbekommen, da beim boot fehlermeldungen kommen und der Kernel 5.4 ECC eh nicht erkennt auf ner Ryzen 5xxx CPU.

Geht aber alles ab Kernel 5.10. (Wie gesagt, unwichtig welcher kernel, ECC wird in hardware korrigiert, Kernel 5.10 brauchst du nur um infos zu bekommen...)

Multibit fehler werden nicht korrigiert, kann der Ryzen nicht, ist aber nicht tragisch, hab noch nie welche gesehen im Alltag (bin serveradmin als beruf). Wogegen 1-bit fehler ausnahmslos auf jeder hardware vorkommen. Bei normalem PC ists egal, da das nichts ausmacht (reboot), wohingegen server 1 jahr+ laufen und sich das summiert -> ohne ecc wirkt sich das nach genug laufzeit auf system aus = absturz oder schlimmeres.

 

- Ryzen 4650G vs 5600X -> Ich bin nicht sicher ob die Ryzen mit gpu vom Asrock D4U unterstützt werden. Jedenfalls würde ich sowieso zu 5600X greifen. Im alltag bringt dir die GPU nichts, oder nicht genug um nen 5600X auszugleichen. Falls du dann doch eine brauchst, gibts mehrere möglichkeiten, am besten dann ne S7150 (google nach MxGPU). Funktioniert mit Proxmox, brauchst keine 10000€ lizenzen etc... Notfalls ne billige irgendwas GPU nehmen und durchreichen.

 

- Beim fakt "Asrock Rack" selbst muss ich zustimmen. Da ist irgendwie alles kake, keine bios updates, kein guter support, Der x570 chipsatz + Lan Controller wird heiß ohne ende... Naja...

Jedoch gibts da leider auch keine alternative. Zumindest im ITX bereich. Bei ATX wirst du aber auch nichts besseres finden. Die boards sind den Preis aber trotzdem wert, weil x550 + ipmi.

Für x570+Lan chip, montierst du einfach 2 Noctua A10 drauf und gut ist.

 

----

Dann noch zum Setup:

Definitiv Proxmox, LXC Container sind ein traum.

Docker lässt du auch auf LXC Container laufen, kannst auch auf Proxmox direkt laufen lassen + Portainer.

Und KVM für windows/freebsd & co.... KVM ist immer schneller/besser als esxi z.B., benutze beides in der firma. Esxi ist halt unzerstörbar (aka stabil), updates kein problem etc... und Proxmox ist leider ab und zu anfällig, vor allem viel Spaß beim update, wenn Debian 11 z.B. kommt.

 

Was aber am wichtigsten ist, Proxmox kann ZFS, brauchst du für deine Nas/VM Server kombi (all in 1)....

ZFS Pool aus allen deinen Festplatten mit Z1/2, bitte mit einem arc2/Log device, sonst ist die performance unter aller sau. arc2/Log kann eine SSD sein.

Warum eine SSD? Weil 2 Verschwendung wären. Warum alle eine Separate SSD für Zil & Log empfehlen? -> Weil der cache der ssd alle ~5-10s "geflusht" wird wenn was draufgeschrieben wird, das macht aber keinen unterschied für arc2, da nicht vom cache der ssd gelesen wird. -> Weil der "flush" die ssd zwingt alles vom ssdcache zum persitenten speicher der ssd zu schieben.

Kurz gefasst: arc2/log auf einer SSD -> Kein problem!

Jedoch bitte niemals eine SSD für mehrere ZFS pools verwenden, das feature kommt aber auch bald (aka persistent cache/log).

Du wirst aber nie mehrere pools brauchen, da es auf einem System keinen sinn macht. Braucht mann nur für Replikation oder falls du mehrere arten von Storage im System hast.

- arc2/log, brauchst du nur für HDD Pools!!! Ganz wichtig, da HDD's einfach schrecklich langsam sind was iops angeht. Bei ZFS Z1/2 unumgänglich! Bei ZFS Mirror oder Raid 10 HDD Pools weniger wichtig!

Bei SSD pools (egal ob sata oder nvme) brauchst du kein arc2/log.

Kurz gefasst: Nur HDDS mit ZFS Z1/2 ist es ein muss! SSDs mit ZFS Z1/2 profitieren auch, jedoch nicht so spürbar.

- Falls die die wahl/option hast ein ZFS Raid 10 zu machen, würde ich das immer aus performance gründen bevorzugen.

 

Warum nicht FreeNAS (Kann auch NAS+Virtualisieren) -> Weil FreeBSD und Freebsd ist kake, viel spaß mit aktuellem hardware support und bugs gibts da auch ne menge. Linux ist einfach aktiver, viel mehr entwickler, besser gepflegt etc... Freebsd ist in der zeit stehen geblieben, denke das es da einfach an entwicklern fehlt....

 

Esxi -> kostenlose version ohne vcenter kann eigentlich garnichts. Nichtmal lacp und von Storage brauch ich garnicht anzufangen, da geht nur vmfs. Ohne hardware raid oder Nas server sinnlos.

Und performance technisch auch keine chance gegen KVM. Der einzige vorteil ist halt Stabilität + updates.

 

Hilfreiche Links:

https://www.reddit.com/r/Proxmox/comments/cm81tc/tutorial_enabling_sriov_for_intel_nic_x550t2_on/

https://forum.proxmox.com/threads/communication-issue-between-sriov-vm-vf-and-ct-on-pf-bridge.68638/

 

Noch was wichtiges:

Falls du nicht vorhast FreeBSD/Pfsense/Opnsense zu virtualisieren, oder nicht 100% aus deinem 10GB/s Netzwerk rausholen willst, brauchst du auch "Virtual Funktion" nicht. Normaller VirtIO nic, tuts auch. (Auch in freebsd, wenn hardware offloading deaktiviert wird)

 

Hier mein home/spielserver mit dem ich absolut zufrieden bin:

preview

 

Bitte ignoriert meine gramatik, ist nur alles schnell geschrieben um dem threadersteller zu helfen.

Alles gut & Viel Spas 🙂

Edited by Rama
Fehlerkorrektur
  • Thanks 1
Link to comment

@Rama

Er findet jetzt schon den Verbrauch nicht sonderlich prickelnd und du fängst mit Proxmox, S7150, LXC Container, ZFS und RAID10 an. Am Ende lässt man dann noch eine Ubuntu VM für Docker laufen, weil man mit LXC nicht klar kommt.

 

Ich persönlich sehe Promox oder ESXi privat gar nicht. Aber muss natürlich jeder selbst entscheiden.

Link to comment

@Rama

Danke für den Input ich muss mich noch durch den langen Text kämpfen da waren wieder einige neue Themen dabei. Aktuell werde ich aber wohl bei Unraid bleiben das macht momentan für mich den besten Gesamteindruck für meinen Anwendungsfall.

 

Hat dein Board bereits den Hot Swap Support? Das ist für mich ein Killerkriterium ansonsten wäre ich ja von der Ausstattung und Verbrauch ja noch halbwegs zufrieden mit dem Board.

 

@mgutt

Bin übrigens noch nicht weiter gekommen der Support schweigt grad Aufgrund des Neujahrsfestes in Asien nur die Niederländer haben mich darüber informiert.

 

Die Addonkarte m.2 > Sata von ASRock Rack soll übrigens im Q2 verfügbar sein bzw. werden.

Edited by Smolo
Link to comment

Ah, ja, also Bifurcation kann das board, 4x4 2x8 etc...

Und hot-swap ist doch ein AHCI feature, ehrlich gesagt hatte ich noch keine biose wo ich das explizit einstellen musste, zumindest nie auf server hardware xD

Bei unseren boards muss ich mal nachschauen und testen, kann ich heute nacht machen, wenn alle pennen (weil sonst säg ich allen das netz weg XD)

 

Hast du schon getestet mit nem rescan, nach nem tausch?

aka:

$ echo "- - -" | tee /sys/class/scsi_host/host*/scan

ist die hardcore version für alles durchscannen, aber du kannst ja auch rausfinden was du genau scannen musst, mit:

 

bisschen empfehlenswerter:

Um rauszufinden, ob deine festplatte sda/sdb/sdc etc ist nimm:

$ cat /sys/block/sda/device/model

$ cat /sys/block/sdb/device/model

$ cat /sys/block/sdc/device/model

.....

...

(dann bekommst du das modell der festplatte und weist obs sda/sdb etc ist....)

dann mit:

$ readlink /sys/block/sda (sda ist nur beispiel)

bekommst du folgenden output (nur beispiel):

/devices/pci0000:00/0000:00:01.2/0000:20:00.0/0000:21:09.0/0000:2b:00.0/ata2/host1/target1:0:0/1:0:0:0/block/sda

(host 1 ist wichtig)

und dann machst du halt

$ echo "- - -" > /sys/class/scsi_host/host1/scan

Sollte es immernoch nicht gehen, mach noch einen:

$ echo 1 > /sys/class/scsi_device/1:0:0:0/device/rescan

(1:0:0:0 ist beispiel, siehst du ja auch oben mit readlink, nach target)

 

Sollte dann in fdisk/gdisk/was auch immer, sichtbar werden.

 

LG

Edited by Rama
Link to comment
17 hours ago, mgutt said:

@Rama

Er findet jetzt schon den Verbrauch nicht sonderlich prickelnd und du fängst mit Proxmox, S7150, LXC Container, ZFS und RAID10 an. Am Ende lässt man dann noch eine Ubuntu VM für Docker laufen, weil man mit LXC nicht klar kommt.

 

Ich persönlich sehe Promox oder ESXi privat gar nicht. Aber muss natürlich jeder selbst entscheiden.

 

Jup, hab bisschen weit ausgeholt 🙂

Aber Proxmox mit LXC/KVM etc ist doch super cool... Kannst vms zum spielen erstellen und was auch immer für betriebssysteme/Software etc testen...

Oder nen Samba server auf LXC (gibt ja kein overhead, weil LXC und nicht KVM -> Services in LXC Container laufen ja direkt aufm host mit weniger rechten ohne emulation dazwischen)

Oder nen Plex/Jellyfish/Opnsense/was auch immer, im Anhang par screenshots.

Nur für filestorage ist der Server+Board total übertrieben xD

Wieso dann nicht einfach nen Atom onboard irgendwas cpu/board mit 10g + 64GB ram? (Viel ram wegen ZFS arc halt)

Ohne ZFS reicht dann auch 1GB ram riegel locker aus xD

 

Zum verbrauch, hab da nen Shelly Powerplug, an dem der Server angeschlossen ist. Also gemessen wird vor dem netzteil....

60W ist doch nix xD

Willst du weniger, aka 10-20W, dann PicoPSU + onboard cpu/board billig combo... nur fürs filesharing wirst du da 0 performance unterschied haben xD

 

LG

Bildschirmfoto 2021-02-19 um 17.17.38.png

Bildschirmfoto 2021-02-19 um 17.19.47.png

Bildschirmfoto 2021-02-19 um 17.21.20.png

Bildschirmfoto 2021-02-19 um 17.23.21.png

Link to comment

Ich hab noch einen zweiten Thread da steht das Anwendungsszenario genauer drin.  Thread ;-)


Das System hat VMs und reichlich Contrainer und wird auch für die Heimautomatisierung verwendet. Ich habe auch zwischen Proxmox und Unraid überlegt will aber kein klassisches Raid mehr einsetzen wegen der blöden Festplatten Kombi und dem Strom.

 

Das System wird so aufgebaut das alles was permanent läuft von SSDs kommt so dass die normalen Platten nur für spezielle Zugriffe bzw. Backup etc. anspringen. Aktuell liege ich bei 35w mit 10G. Das sind dann 160€ zu 80€ im Jahr oder 13€ zu 6€ Monat Stromverbrauch unterschied zu deinem System ;-) Sofern es nicht notwendig ist sehe ich es total blödsinnig an die HDDs laufen zu lassen weil die einfach langsam sind, verschleißen und unnötig Strom ziehen.

 

Ich muss aber sagen das mir Proxmox schon auch zu sagt ;-) Was ist denn der letzte Screen für App/Ui?

Edited by Smolo
Link to comment
25 minutes ago, Rama said:

Aber Proxmox mit LXC/KVM etc ist doch super cool... Kannst vms zum spielen erstellen und was auch immer für betriebssysteme/Software etc testen...

Ich muss einfach mal fragen: Du weißt, dass du hier im Unraid Forum bist und Unraid auch "super coole" VMs und Docker Container ermöglicht? ^^

 

kuI46WY.thumb.png.bd13088d4251fcd99e2eaa080c7e668f.png

 

Im Kern ist es aber ein Cold und Hot Storage OS.

 

33 minutes ago, Rama said:

Zum verbrauch, hab da nen Shelly Powerplug, an dem der Server angeschlossen ist. Also gemessen wird vor dem netzteil....

60W ist doch nix xD

Das ist wohl Ansichtssache. Mir wäre das mit den paar HDDs viel zu viel. Aber ich fahre auch mittlerweile mit 10 Platten. Da läge ich mit ZFS und Proxmox im Leerlauf schon bei 100W.

Link to comment
6 hours ago, mgutt said:

Ich muss einfach mal fragen: Du weißt, dass du hier im Unraid Forum bist und Unraid auch "super coole" VMs und Docker Container ermöglicht? ^^

Ups xD

 

Sorry, hatte mal unraid anvisiert, aber zu den Zeiten für Proxmox entschieden, wegen fehlendem ZFS.

Ich glaub jetzt hat unraid ZFS xD

Vielleicht steige ich irgendwann um, muss mal testen und so. Aber unraid forum ist mir völlig entgangen xD

Im Kern jedoch, basiert auf Linux, kann ZFS evtl, ist für mich das gleiche wie proxmox, nur andere Gui xD

Der eine kann kein LXC, der andere kann kein Docker, kann man aber beides nachinstallieren 🙂

Wenn unraid jetzt Kernel 5.10 hat (statt proxmox 5.4), ist das natürlich schöner wegen ECC, was ich am anfang beschrieben hab.

 

6 hours ago, mgutt said:

Das ist wohl Ansichtssache. Mir wäre das mit den paar HDDs viel zu viel. Aber ich fahre auch mittlerweile mit 10 Platten. Da läge ich mit ZFS und Proxmox im Leerlauf schon bei 100W.

 

Ja, kann ja den Ryzen im ECO Mode laufen lassen, könnt ihr ja auch, spart noch etwas. Nur keine ahnung ob dieser ECO mode stabil mit Linux Läuft.

Aber ich denke wir haben nen anderen usecase, ich hab bei mir halt 6 Lüfter + 3 HDD's + 3 SSD's + ne 10GB/s nic die von sich aus 20W braucht + board das stromsparen eh nicht kennt xD

Der Server Läuft bei mir halt aufm Dachboden, nicht weil er laut ist oder so, sondern weil dort 10GB's anschluss ist xD

(Dort stand halt der alte steinzeit server früher, der kake laut war, rackserver HP-DL Irgendwas, deswegen gibts dort 10GB)

 

Und festplatten aus/anschalten wenn sie im leerlauf sind etc... Die idee ist gut, aber die verschleisen sehr viel schneller dadurch. Müsst ihr jedenfalls selber entscheiden, hat vor und nachteile, wie alles xD

Ich würde es jedenfalls nicht mit ZFS machen xD

Und ja, sorry, ich bin ZFS fan, und für was neues lernen und langzeiterfahrung sammeln, zu alt xD

 

Und zu Ryzen selbst, ist mein erster, bin eigentlich auch hardcore intel, vor allem wegen hackintosh etc...

Aber der Zen3 ist halt schon schön xD

 

Jedenfalls check ich später wegen hotplug, kann leider noch nicht 😞

Link to comment

Ah, btw, ne S7150 mit MxGPU, @Smolo

Funktiert 100% auch mit unraid, sind nur paar module zum kompilieren und laden...

 

Usecase ist halt einfach, das du grafik hardware beschleunigung in allen deinen VM's + Docker bekommst....

Kannst die 16x virtualisieren, sprich aus einer, werden 16 grafikkarten, die du dann ganz normal durchreichen kannst....

 

Windows Remote desktop (RemoteFX) oder alternativ über Parsec + Plex/Jellyfish hardware encoding + was auch immer, hab mal den anderen thread gesehen.

Jedenfalls ne überlegung wert. Und die 7150 ist sehr günstig im vergleich zu aktuellen grafkkarten am markt xD

 

Dann noch als 2weit GPU eine Nvidia RTX 3080 xD Für shadowplay/parsec und du hast deinen traumserver xD

 

EDIT:

Spaß beiseite, bau dein system erstmal ohne Grafikkarte, dann schau obs dir passt. Ohne grafikkarte wirds auch schnell und gut.

 

Und dann hab ich noch was zum Stromverbrauch gelesen im anderen Thread.

Ich hab 2 x570 boards. Keins davon kommt unter 50W xD

Selbst mit ausgeschalteten festplatten.

Die einzige möglichkeit da unter 50W zu kommen, ist mit ECO Mode und ohne grafikkarte!!

Weil selbst die Graka im idle 15-20W zieht!

Und der x570 chipsatz wird heiß, der zieht definitiv mehr als 7W, ohne lüfter geht er schnell an die 80c.

 

Also nur zum vergleich, alle intel chipsätze, werden nichtmal warm und ne intel kombi ist definitiv stromsparender, egal welche intel kombi xD

Naja, und vom preis/performance her, gibts da auch keinen unterschied. Für mich war der kaufargument halt ECC. Und bei intel gibts im Consumer bereich kein ECC, nur im Xeon bereich, der jedoch immer 2 generationen oder so, hinter consumer hinterher hängt.

 

Also kurz gefasst, die einzige alternative für mich persönlich, wäre der Xeon Silver 4210R oder Xeon W-1290P wenn ich zu intel greifen würde.

Wird stromsparender, hat ähnliche performance, ist jedoch teuerer....

Ohne ECC, gibts da ein haufen auswahl, aber ohne ecc und 24/7 ist halt ein nogo 🙂

 

LG xD

Edited by Rama
Link to comment

Okay, konnte jetzt testen!

Alles im Produktiven betrieb getestet (aka vms sind auf dem ZFS Pool gelaufen, hab aber vorher zur sicherheit backups gemacht)

 

Jedenfalls:

- Im bios gibts nichts zum einstellen, hab alles durchgeschaut, nichts mit hotplug/hotswap dabei.

- Funktioniert aber trotzdem absolut perfekt. (Kein rescan erforderlich oder sonstwas, nichtmal warten ist nötig)

 

SSD einfach rausgezogen -> Linux hat instant erkannt das SSD weg ist. -> ZFS selbst hat aber so 10 Sekunden gebraucht, bis er realisiert hat, das keine platte da ist. -> Also alles perfekt.

 

SSD wieder angeschlossen -> Linux + ZFS haben instant erkannt das SSD wieder da ist -> ZFS hat resilvering gestartet -> Alles perfekt!

 

Also mehr hotswap geht nicht xD

Hätte das im nachhinein auch einfach heute mittag testen können, aber gut xD

 

Paar bilder mit festplatte raus/rein + was zfs so treibt...

 

LG

Bildschirmfoto 2021-02-20 um 04.04.34.png

Bildschirmfoto 2021-02-20 um 04.07.05.png

IMG_20210220_035907.jpg

IMG_20210220_040752.jpg

Link to comment
4 hours ago, Rama said:

SSD einfach rausgezogen -> Linux hat instant erkannt das SSD weg ist. -> ZFS selbst hat aber so 10 Sekunden gebraucht, bis er realisiert hat, das keine platte da ist. -> Also alles perfekt.

 

SSD wieder angeschlossen -> Linux + ZFS haben instant erkannt das SSD wieder da ist -> ZFS hat resilvering gestartet -> Alles perfekt!

 

Also mehr hotswap geht nicht xD

Das ist allerdings kein Hot Swap. Das die Platte erkannt wird wenn du sie wieder reinhängst ist vollkommen normal. Bei Hot Swap geht es darum eine neue Platte einzusetzen das ist natürlich weniger relevant bei deinem kleinen Gehäuse bei einer großen Konfiguration ist es aber problematisch wenn man zuerst das System Neubooten muss um eine alte Platte ersetzen zu können.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.