domrockt

Members
  • Posts

    309
  • Joined

  • Last visited

Everything posted by domrockt

  1. in Short, yes exactly like GVT-g The main IGPU is unassigned for VFIO and is in use by docker 00:02.0 VGA compatible controller: Intel Corporation Raptor Lake-S GT1 [UHD Graphics 770] (rev 04) the VF's are bound to VFIO and can be used in VM's
  2. notfalls kannst du dir auf Amazon ein m.2 auf pcie 4x Slot adapter kaufen und klemmst den SAS Controller einfach da ran. diese hier haben ein offenes Ende. https://www.amazon.de/gp/product/B09C1BK164/ref=ppx_yo_dt_b_search_asin_title?ie=UTF8&th=1
  3. https://geizhals.at/asus-prime-z690-p-d4-csm-90mb18p0-m0eayc-a2637165.html?hloc=at 1x PCIe 5.0 x16, 1x PCIe 4.0 x16 (x4), 2x PCIe 3.0 x16 (x4), 1x PCIe 3.0 x1 die Slots sind alle lange genug um alle Arten von Karten sicher zu verbauen. alle Vorredner haben recht! für 10Gbe reicht einer von den PCIe 3.0 x16 (x4), für deine SAS karte nimmst du den zweiten PCIe 3.0 x16 (x4), falls du keine dedizierte GPU einbauen möchtest hast du noch den 1x PCIe 5.0 x16, mit der Möglichkeit für 8x8x und 4x4x4x4 für ein extrem schnelles NVME array oder auch optane
  4. Ich bin in einer Stunde zuhause und finde sicher etwas. Ich editiere das dann hier in den Post. der Umzug ist genau so wie du es dir vorstellst. altes Board raus, neues ran alle Festplatten wieder anschließen, Stick rein und es geht einfach los
  5. eine T400 kostet ca 150€ eine P400 kostet ca 50€ GIGABYTE B760M 70€ Ebay i3 12100 mit IGPU 105€ auf Geizhals 16 GB Ram 20€ die 12th und 13th gen IGPUs fressen sich regelrecht durch Plex verkauf deine alte CPU und Mainboard und RAM als combo für 70€ VB auf Kleinanzeigen lass dich auf den letzten Preis von 50€ ein und der Tag gehört Dir. *edit* was machst Du mit der VM? Weil man kann bei der 12/13th gen die igpu splitten für docker und VMs.
  6. für "guten" sound kannste auch nen USB Sound Controller durchreichen und gv-t für die Parsec, RDP oÄ nutzen. Falls aber wirklich ein Monitor angeschlossen werden soll dann nimm ne gebrauchte nvidia 1050, 1650 die sind "brauchbar" und sparsam und bezahlbar und verbrauchen nur einen PCIe slot. Mac in a Box würde ich mit der IGPU machen oder mach dich mal über den reset bug bei AMD schlau, Mac läuft am besten mit AMD GPUs. Wenn du mal aufrüstest kann man die noch für Plex benutzen.
  7. i bought 3 of them 2 are here 1 is on its way. i use an chinese 16x to 8x4x4x adapter to m2 to u.2 cables pretty jank but it works just finde i bought mine used they have around 1PB write&read so for my usage as good as new
  8. nope it is not like you imagine!! You have a real IGPU that is device 00.02.00 this is automaticly used by Unraid as a docker IGPU you need the Intel TOP plugin to work with Plex. your two VF's igpus can be passed trough to VM's and need to be stubbed like you have.
  9. Jain wir bauen zZ unser Haus da kommt ne PV drauf, im Moment nehm ich die Stromkosten einfach hin aber alles in allem ists mein Hobby. im l1 Forum geht das Gerücht um nen sriov Hack rum, Wendel hat’s gestreut.. Meine Arc soll deinem steamheadless docker befeuern und transcoden und *fingerscrossed* sriov können
  10. Oh sehr gut 👍 dann hat sich das erledigt die Geduld habe ich natürlich noch 😅 ja definitiv nur zZ steckt ne Arc 770 im Server und langweilt sich in einer VM weil sie nur dort läuft..
  11. Meine Frage war, "Hallo zusammen, benutzt hier noch jemand den custom Kernel von Thor so ab version 6.2 und wenn ja auch mit Mellanox karten? " darauf hätte ich gerne eine Antwort, darauf hin habe ich erläutert warum ich die Frage stelle. Es ist schonmal gut zu wissen, dass ich einen "Feature Request" erstellen kann. Mach ich doch schon, eine Lösung zu meiner Erklärung war nicht Bestandteil der frage an die community. "when its done" wäre ja super, ich tue mich schwer ein feature für einen nicht offiziel unterstützen Kernel zu requesten?! daher ouroboros.
  12. Hallo zusammen, benutzt hier noch jemand den custom Kernel von Thor so ab version 6.2 und wenn ja auch mit Mellanox karten? Ich habe zu dem Thema schon einen Github issue request geöffnet und es läuft ein wenig schleppend mit den antworten. Wenn ich den Kernel installiere kann der Treiber von meinen Mellnaox karten nicht mehr gestartet werden. Die karten werden erkannt und sind im Devicetab aber sie bekommen keinen ethX zugeteilt und werden im CLI als "error while getting interface flags no such device" deklariert. Ich möchte den Kernel gerne nutzen um meine Arc 770 als docker GPU zu nutzen aber auf meine NICS nicht verzichten. Thor meint bis jetzt dass "By what you are saying sounds like the mainline driver is busted...." das der Fall sein könnte. grüße Dom
  13. Yea Parsec is not working at the moment. i dont know why. Moonlight with Sunshine works / Steam inhouse streaming works / Gaming in general works. Your Mainboard HDMI needs to be plugged or at least has an HDMI Dummy Plug.
  14. what do you have in your i915sriov.conf? i have this and nothing more # disable autoload old i915 module on boot blacklist i915
  15. i have no luck so far when i install the custom Thor kernel my Mellanox Nic is not detected anymore, i mean its there in the devices tab but not recognized as usable NIC🥲 can anyone relate? i opened an Issue on Github, maybe its because the NICs are from NVidia
  16. if you consider theoretical 15,5 GByte/s slow then yes
  17. 1) Yes 2) something like this https://www.broadcom.com/products/storage/host-bus-adapters/sas-nvme-9600w-16e about 500 Dollar ish and you can look here for PLX chips https://c-payne.com/index.php?route=product/product&path=66&product_id=86
  18. 1) Mainboard Bios, enable sriov there 2) install the sriov plugin 3) make a user script with (echo 4 means 4 Virtual GPUs) #!/bin/bash echo 4 > /sys/devices/pci0000\:00/0000\:00\:02.0/sriov_numvfs 4)make it run on array start 5) set 4 VFs in the Plugin 6)reboot 7) bind as many as you wish in the system devices Tab 8)reboot
  19. No you need to tick how much you want to use in VM‘s Tick the Box and reboot as usual then create a VM and check those box or boxes if you need more than one in your VM
  20. works perfectly, thank you very much for that fast adapting and creating there will be good times.
  21. Hello, did you put an new 2tb in the Array? Then the resilver will „Kick“ in here is what to do https://docs.unraid.net/legacy/FAQ/replacing-a-data-drive/
  22. I used the docker from the User "fiR3W4LL" you all can find it in the CA and i cant stress enough its a PITA to work with this docker. Yes you are right about that @ich777 good that i did not teached myselfe to create Unraid dockercontainer 🙃
  23. i got this thing to work on my Server its a PITA but i gues i can reconstruct my steps for that. there is a docker on Unraid but like i said its a PITA
  24. Ok first things first, i get the gist of what the code does maybe an educated gues but i made it work with you guys/gals help. 😅 All this on 6.12.4 So i have an 25gbe dual nic its Mellanox Technologies MT27710 Family [ConnectX-4 Lx] I did 1) Use this command in the Terminal: wget 'https://raw.githubusercontent.com/andre-richter/vfio-pci-bind/master/vfio-pci-bind.sh'; mv vfio-pci-bind.sh /boot/config/ 2) Use this comman in the Terminal echo 4 > /sys/class/net/eth0/device/sriov_numvfs echo 4 > /sys/class/net/eth2/device/sriov_numvfs eth0 and eth2 are my 2 NIC's with this comman i get the Ids from the VFs in the Tools ---> System Devices like so, 15b3:1016 0000:02:01.2 15b3:1016 0000:02:01.3 15b3:1016 0000:02:01.4 15b3:1016 0000:02:01.5 15b3:1016 0000:02:00.2 15b3:1016 0000:02:00.3 15b3:1016 0000:02:00.4 15b3:1016 0000:02:00.5 3) made a user script make it run on start of the array, echo 4 > /sys/class/net/eth0/device/sriov_numvfs echo 4 > /sys/class/net/eth2/device/sriov_numvfs sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:01.2 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:01.3 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:01.4 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:01.5 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:00.2 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:00.3 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:00.4 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1016 0000:02:00.5 /usr/local/sbin/vfio-pci >>/var/log/vfio-pci 4) its done next step on my second Unraid server i have an 100GbE Mellanox x4 and its SRIOV capable but it seems to be deactivated lets see how i activate it via Unraid, i think there are some hints in this thread. *edit* *done* install the Mellanox Plugin open a Terminal and use this command You need to use your NIC ID and you can use any VFs amount your Card allows. mstconfig -d 01:00.0 set SRIOV_EN=1 NUM_OF_VFS=4 now my 100GbE NIC is SRIOV activated then rinse and repeat the steps above 1)- 4) i spun up a VM and voila the NIC is already installed the other not installed is the virtual one from Unraid 😁