domrockt

Members
  • Posts

    309
  • Joined

  • Last visited

Everything posted by domrockt

  1. sind deine Nics gekühlt? die überhitzen schnell und gerne und drosseln. ich hab gerade 32GB mkv von ner samsung 980Pro 7000mb/s ----> 100GBe ----> 3x Kioxia CD6 13000mb/s Übertragung und Windows macht 1,4Gb/s draus 😂 das ist die gelebte Realität mit Windows Server A 13700k Main PC B 13900k und hier mehrere Kerne über ISCSI mit crystaldiskmark, du siehst die normale übertragung vs syntethisch mit mehr kernen
  2. da sind doch deine 10Gbit 😀 Also uffbasse, iperf3 ist per se ein Single Thread Test das P8 schaltet mehrere Übertragungen gleichzeitig und verteilt die auf mehr CPU Kerne. Das bedeutet wenn du daten von PC A nach B überträgst hält dich die Singlecoreleistung zurück. würdest du Programme wie chowezcopy benutzen die auch mehrere Kerne benutzen kommst auch auf die 10gbit. Alles in allem aber Windows smb Begrenzung mit Linux sähe das anders aus. Der Ryzen packts ganz gut mit 6Gbit aber dein Xeon wegen dem älteren IPC eben nicht ganz. Es wird noch viel verrückter wenn du mal die 10Gbit überschreitest 😅 ich steck mit beiden Armen tief in dem Kram... Ich muss meine Signatur überarbeiten (*edit* ist überarbeitet*edit*) weil mein Ryzen 4600G auch nicht stark genug ist um 100GBit im ansatzt auszufahren. hab die 100Gbe karte jetzt im Main Server und die 3 Kioxias auch.
  3. also Haupt PC MSI B450M-A also Ryzen, sehr gut. Server das z10pa also nen xeon oÄ 2011-3, sehr gut. Die PCI slots passen auch so. Guuut, ich tippe auf den switch!!! Was hast du bei den Jumboframes in dem Tab da eingestellt? der switch muss auch auf 9000 eingestellt sein bzw zumindest die 10GB Ports in use. Alle beteiligten Wege müssen auf 9000 Jumboframe stehen teste mal mit iperf3 -c IPvomserver -P8 "Das ist meine Syslinux Config in Unraid: default menu.c32 menu title Lime Technology, Inc. prompt 0 timeout 50" das sind alles dasselbe Bild 😀
  4. Good Morning, the reviews look good they can suistaine more than 300GB without breaking a sweat and no speed penalty when the cache is full https://www.computerbase.de/2021-01/samsung-870-evo-ssd-test/ the german PC magazine computerbase is supporting the 2TB variant for no throttleing. They are fine for your usecase.
  5. Wenn du die features von ZFS nutzt ist ZFS klar ne gute Wahl. Mein Server läuft bis auf meine Docker komplett auf ZFS aber zu deinem SMB Problem.. Ja deine Verbindung ist auf dem Weg zwischen NIC--> Kabel ---> switch -----> Kabel -----> NIC anscheinend nicht richtig die Rechner in deiner Signatur sind das die die bei der 300mb datenübertragung involviert sind? zwichen welchen von denen findet die Übertragung statt? Der HP mit dem AMD Turion II Neo N54L, 2C/2T, 2.20GHz, 2MB Cache, 25W TDP, Codename "Geneva" ist sicherlich ein massiver Flaschenhals das Teil ist ein Relikt 😀 *edit* bin alle Nachrichten nochmal durch.. Ich lese nichts über dein Netzwerk. Gib ruhig mal infos was du da einsetzt welchen switch hast du? Welche Kabel benutzt du? In welchen Rechnern hast du die Mellanoxe verbaut? Main: [WORKLOG] • unRAID Plus • Intel Core i3-9100 • Gigabyte C246M-WU4 • 64GB Kingston DDR4-2666 ECC • Intel X710-DA2 • Fractal Define R5 • Seasonic FOCUS GX-550 • VM & Docker: WD Red SN700 500GB • Cache: 1x WD Red SN700 1TB • Parity: 1x Seagate Exos X16 12TB • Data: 2x Seagate IronWolf Pro 12TB • Storj: 1x Seagate Exos X16 14TB • Lancache: 1x Crucial MX500 1TB Backup: • unRAID Basic • HP Microserver N54L • AMD Turion II Neo N54L • 8GB Kingston DDR3-1333 ECC • HP 332T • Cache: 2x Mushkin Chronos 90GB • Parity: 1x WD Gold 6TB • Data: 1x Seagate IronWolf 4TB Portable: • unRAID Basic • Gigabyte Brix GB-BACE-3000 • Intel Celeron N3000 • 8GB Kingston DDR3-1600 • AX88179 USB-NIC • 1x Intel DC S3700 200GB •
  6. domrockt

    So, 6.13 when?

    But cant run any of my mellanox nics, sadly.
  7. Jupp wie ich dachte also ins Array gehören nur eine Art von Laufwerk, entweder nur SATA SSD oder nur NVME oder nur HDD vorallem wenn man eine Paritätsplatte nutzt. ins Array langsame und große HDDs alle SSD gebündelt nach Art in einen eigenen cache pool Ich würde einen Pool mit nvmes erstellen für docker und VMs einen pool mit SSDs als schreibcache für das Array der Grundgedanke den Lime Technology, Inc. hat ist wie folgt ich möchte 500GB Bilder und Videos vom Handy auf mein UNRAID NAS schieben also schließe ich mein Handy an den PC und lade alles auf meinen PC mein PC ist an meinem schnellen 10GBit LAN ich öffne einen share und verschiebe alles darauf im Unraid landen die daten mit 10gbit speed auf meinem SSD cache und nachts wenn ich den server nicht nutze schiebt der mover den kram auf mein Parität gesichertes array mit 200-300mb sek (nur HHds) Hat jemand ein normales Unraid am laufen? ich bin da ein schlechtes bsp ?
  8. Disk1 bis disk5 bitte genauer beschreiben ist disk 5 ne hdd und 1-4 SSDs? und die prität Festplatte? Hdd o ssd? wo ist da die evo? das Paritätslaufwerk gibt die Array Geschwindigkeit vor. teste mal deine smb Geschwindigkeit von extern ssd auf deinen Cache Pool
  9. ja diese Alderlake IGPUs fressen sich durch Plex freut mich viel Spaß damit, sieht alles gut aus.
  10. @LeoT das sieht nach software transcoding aus, moment ich schau mal nach was ich gemacht habe. Plex lifetime pass gekauft? hast du einen HDMI dummy plug am HDMI oder ein HDMI kabel angeschlossen? der Port muss belegt sein. welchen docker benutzt du? Ich benutzte plexinc/pms-docker // Plex-Media-Server von plexinc In der docker config dann Host Path 2: /tmp Key 1: dein plexpass code AMD or Intel Device: /dev/dri/ in den plex einstellungen dann das im Bios kann man wählen zwichen IGPU oder verbauter GPU und es gibt ne option für beides aktiv, Multimonitor oÄ
  11. Wenn dann immer von SSD zu SSD testen ( können beide SSDs überhaubt 1000mb/s) Sind die HDDs im cachepool ? oder im Unraidarray? (eine HDD schafft zwichen 180mb/s und 280mb/s) mtu auf 9000? also im Windows Gerätemanager, im "switch", im Unraid. (alles das beteiligt ist) 10Gig "am" Stück wird nur mit großen Files möglich (Filme) wenn du ein Spiele Ordner überträgst schwankt es sehr stark (kommt auf das übertragende File an) Hier sind guides denen ich gefolgt bin um auch höhere Geschwindigkeiten zu erreichen, der link gehört zum Video. https://digitalspaceport.com/unraid-zfs-pools-configuration-and-benchmarking-unraid-6-12/
  12. the "no longer appears" Part is not true, its confusing enough but all cars are visible 00:02.0 <-- is the real IGPU when i bind it to VFIO the VFs disapear. i did not bind it
  13. That sentence is giving me a Mixed bag of informations. i mean you could use parsec, RDP, Moonlight and so on for Desktop Streaming. you will always have the igpu power even when using just VNC when you have passed it to an VM an HDMI cable is not mandatory to use vGPU power.
  14. I used that with GPU-P a while ago the Main HDMI was in use by the Main GPU and i have passed trough that usb hdmi dongle to my HyperV VM as Long i stayed within the specs of that dongle it was fine.
  15. undo everything you did before and just follow this guide. add another userscript to delay your VM autostart #!/bin/bash sleep 45 virsh start "Your VM Name Here"
  16. not with my knowledge this userscript would need to start with unraid at boot 3) make a user script with (echo 4 means 4 Virtual GPUs) #!/bin/bash echo 4 > /sys/devices/pci0000\:00/0000\:00\:02.0/sriov_numvfs just delay your VM autostart to 60 Seconds and your VM will start with the VFs
  17. no no not an simple adapter/converter it needs to be of sorts i posted its a dummyplug but with an actual hdmi port. https://www.wavlink.com/en_us/product/WL-UG3501H.html
  18. yea that error is normal have that too but its still working. as far as i understand the error comes because the VFIO command comes from the userscript the binding happens AFTER starting the array.
  19. hab die vergessene Zeile hinzueditiert, sry 😅 einfach wieder bei Punkt 1) anfangen copy&paste
  20. yes but you could pass trough an usb to hdmi dongle and use that as Display Output. wavlink USB 3.0 zu HDMI Adapter... https://www.amazon.de/dp/B076SX73LY?ref=ppx_pop_mob_ap_share Like an Laptop per se had this Running with my windows paravirtualizing Adventures. i splittet my old 3090 in two and used that dongle in the hyperV VM
  21. @Fabian Hammer terminal aufmachen 1) mkdir -p /tmp/mellanox && cd /tmp/mellanox <---- reinkopieren und enter 2) wget http://www.mellanox.com/downloads/firmware/fw-ConnectX2-rel-2_9_1200-MNPH29D_A2-A5-FlexBoot-3.3.400.bin.zip <--------- reinkopieren und enter ( Quelle firmware https://network.nvidia.com/support/firmware/connectx2en/ ) 3) unzip *.zip && rm -rf *.zip <---- reinkopieren und enter 4) mstflint -d 03:00.0 -i *.bin burn <--- in deinem fall reinkopieren und enter FERTIG FALLS deine Karte eine DELL/Lenovo oder ähnlich gebrandet ist musst statt Punkt 4) den Punkt 5) machen. 5) mstflint -d 03:00.0 -i *.bin -allow_psid_change burn 6) Reboot nicht vergessen Hab erst am Sonntag meine Firmwares erneuert und das branding entfernt. *edit* den upsi nachgebessert *edit*
  22. @Fabian Hammer terminal aufmachen mkdir -p /tmp/mellanox && cd /tmp/mellanox <---- reinkopieren und enter wget firmwarelink <----- findest du auf der nvidia seite <----- HIER MACHST DU WAS FALSCH deine Mellanox hat einen Namen zb CX312B MCX312B-XCCT welche hast du genau?? !!!!! Ich denke eine von denen hier https://network.nvidia.com/support/firmware/connectxen/ aber welche genau? wget firmwarelink <--------- die kopierte adresse vom link nach wget enter unzip *.zip && rm -rf *.zip <----- reinkopieren und enter mstflint -d 03:00.0 -i *.bin burn <--- in deinem fall reinkopieren und enter