DataCollector Posted November 8, 2023 Share Posted November 8, 2023 (edited) 9 hours ago, Fabian Hammer said: Habt ihr vielleicht noch Tipps (auch wenn es vielleicht nicht hier rein gehört aber mehrere Interessieren könnte) wie ich in Unraid die Übertragungsgeschwindigkeit erhöhe? Aktuell Geschwindigkeit zum übertragen mittels SMB/FTP "nur" 254-300MB/s. Egal ob von HDD oder SSD. Also eine heutige HDD liest doch sowieso peak mit max 280MByte/s. Also von einer HDD kann es nicht schneller gelesen und übertragen werden. Bei der SSD stellt sich die Frage, welche Type (ob die überhaupt mehr könnte), wie sie angeschlossen ist und ob die sich vielleicht mit anderen Komponenten oder gleichzeit zugreifende anderere Software in die Quere kommt. Auch vermisse ich die Info ob Du von der SSD liest oder darauf schreibst und ob diese Werte erreicht werden, wenn die SSD schon einige Sekunden beschrieben wurde. Edited November 8, 2023 by DataCollector Quote Link to comment
DataCollector Posted November 8, 2023 Share Posted November 8, 2023 5 hours ago, Fabian Hammer said: Übertragen wurde ein Film von etwa 8Gb von SSD auf SSD. Das sagt jetzt zur Fehlersuche nicht viel aus. Von unraid ssd lesend auf ext PC SSD dort schreibend? Von ext. PC ssd lesend auf unraid SSD schreibend? Quote Link to comment
Fabian Hammer Posted November 8, 2023 Share Posted November 8, 2023 (edited) 8 minutes ago, DataCollector said: Also eine heutige HDD liest doch sowieso peak mit max 280MByte/s. Also von einer HDD kann es nicht schneller gelesen und übertragen werden. Bei der SSD stellt sich die Frage, welche Type (ob die überhaupt mehr könnte), wie sie angeschlossen ist und ob die sich vielleicht mit anderen Komponenten oder gleichzeit zugreifende anderere Software in die Quere kommt. Auch vermisse ich die Info ob Du von der SSD liest oder darauf schreibst und ob diese Werte erreicht werden, wenn die SSD schon einige Sekunden beschrieben wurde. Gelesen wird von einer SSD Samsung 850 EVO mit 2TB und geschrieben auf eine 1TB NVME. Die SSD ist eine Arry Platte und nur für Medien als Lagerstätte. Die NVME im PC ist die Systemfestplatte. Angebunden sind die Festplatten in Unraid mittels HBA Controller Card. Genauer: Broadcom 9207-8i SAS2308 6G SATA SAS HBA PCIe x8 Hoffe, das hilft weiter 😅 Edited November 8, 2023 by Fabian Hammer Quote Link to comment
DataCollector Posted November 8, 2023 Share Posted November 8, 2023 (edited) 3 minutes ago, Fabian Hammer said: Gelesen wird von einer SSD Samsung 850 EVO mit 2TB und geschrieben auf eine 1TB NVME. Die SSD ist eine Arry Platte und nur für Medien als Lagerstätte. Die NVME im PC ist die Systemfestplatte. Die Samsung 850 Evo sollte die Datenmenge eigentlich problemlos im unraid lesen und mit max. Geschwindigkeit (unter 600MByte/s) bereitstellen können. Passiert an dem Kontroller an dem die Samsung angeschlossen ist zeitgleich noch etwas anderes? Hast Du mal den reinen Durchsatz der Netzwerkverbindung selber getestet (iperf oder so)? Edited November 8, 2023 by DataCollector Quote Link to comment
Fabian Hammer Posted November 8, 2023 Share Posted November 8, 2023 (edited) 7 minutes ago, DataCollector said: Die Samsung 850 Evo sollte die Datenmenge eigentlich problemlos im unraid lesen und mit max. Geschwindigkeit (unter 600MByte/s) bereitstellen können. Passiert an dem Kontroller an dem die Samsung angeschlossen ist zeitgleich noch etwas anderes? Hast Du mal den reinen Durchsatz der Netzwerkverbindung selber getestet (iperf oder so)? Es sind halt noch andere Festplatten angeschlossen - und Docker Container laufen zudem. Siehe auch noch angehängtes Bild. iperf noch nicht getestet - kann ich aber gerne noch machen 😀 Edited November 8, 2023 by Fabian Hammer Quote Link to comment
domrockt Posted November 8, 2023 Share Posted November 8, 2023 (edited) Disk1 bis disk5 bitte genauer beschreiben ist disk 5 ne hdd und 1-4 SSDs? und die prität Festplatte? Hdd o ssd? wo ist da die evo? das Paritätslaufwerk gibt die Array Geschwindigkeit vor. teste mal deine smb Geschwindigkeit von extern ssd auf deinen Cache Pool Edited November 8, 2023 by domrockt Quote Link to comment
Fabian Hammer Posted November 8, 2023 Share Posted November 8, 2023 42 minutes ago, domrockt said: Disk1 bis disk5 bitte genauer beschreiben ist disk 5 ne hdd und 1-4 SSDs? und die prität Festplatte? Hdd o ssd? wo ist da die evo? das Paritätslaufwerk gibt die Array Geschwindigkeit vor. teste mal deine smb Geschwindigkeit von extern ssd auf deinen Cache Pool Ok, dass die Parity die Geschwindigkeit vorgibt wusste ich bis Dato nicht. Anbei die Festplatten: Quote Link to comment
DataCollector Posted November 8, 2023 Share Posted November 8, 2023 (edited) 1 hour ago, Fabian Hammer said: Ok, dass die Parity die Geschwindigkeit vorgibt wusste ich bis Dato nicht. Anbei die Festplatten: Die Parität gibt die Geschwindigkeit beim Schreiben vor. Wenn Du den Datendisks im Array liest sollten die flotter als beim Schreiben sein. Aber ich würde auch erst einmal versuchen das Ganze vom dem Pool mit den beiden Crucial BX500 1TB SATA zu testen. Wenn Du in unraid im "Main" Tab oben rechts auf das blaue Symbol klickst werden Dir im "Main" Tab auch die jeweiligen Geschwindigketen der Laufwerke angezeigt. Da ist gerade dann, wenn Du Geschwindigkeitstests machst etwas hilfreicher. Und nur so nebenbei: Du verwendest btrfs im Pool anscheinend als Raid1. Kann man machen, aber ich würde dann die Daten darauf (sofern sie Dir wichtig erscheinen) auch ab und zu backuppen, da btrfs ab und zu bei diversen Leuten unter unraid Probleme bereitet hat. Edited November 8, 2023 by DataCollector Quote Link to comment
domrockt Posted November 8, 2023 Share Posted November 8, 2023 (edited) Jupp wie ich dachte also ins Array gehören nur eine Art von Laufwerk, entweder nur SATA SSD oder nur NVME oder nur HDD vorallem wenn man eine Paritätsplatte nutzt. ins Array langsame und große HDDs alle SSD gebündelt nach Art in einen eigenen cache pool Ich würde einen Pool mit nvmes erstellen für docker und VMs einen pool mit SSDs als schreibcache für das Array der Grundgedanke den Lime Technology, Inc. hat ist wie folgt ich möchte 500GB Bilder und Videos vom Handy auf mein UNRAID NAS schieben also schließe ich mein Handy an den PC und lade alles auf meinen PC mein PC ist an meinem schnellen 10GBit LAN ich öffne einen share und verschiebe alles darauf im Unraid landen die daten mit 10gbit speed auf meinem SSD cache und nachts wenn ich den server nicht nutze schiebt der mover den kram auf mein Parität gesichertes array mit 200-300mb sek (nur HHds) Hat jemand ein normales Unraid am laufen? ich bin da ein schlechtes bsp ? Edited November 8, 2023 by domrockt Quote Link to comment
Fabian Hammer Posted November 9, 2023 Share Posted November 9, 2023 (edited) Ich würde nun gerne die besten Ratschläge von euch einmal umsetzen. Jedoch habe ich noch eine Frage offen: Ist eine Parity in Unraid denn nun überhaupt notwendig? Habe meine Config nun mal geändert und werde nach dem Parity-Check nochmals testen: Edited November 9, 2023 by Fabian Hammer Quote Link to comment
jj1987 Posted November 9, 2023 Share Posted November 9, 2023 1 hour ago, Fabian Hammer said: Ist eine Parity in Unraid denn nun überhaupt notwendig? Technisch, im Sinne von "ohne startet UNRAID nicht" - Nein, geht auch ohne Aber du hast halt dann kein Netz und doppelten Boden. Geht eine Platte hopps sind die Daten weg. Da du sicherlich ein Backup Konzept hast, dann zu verschmerzen (was im Umkehrschluss aber NICHT heißt mit Parity bräuchte man kein Backup...) Quote Link to comment
Fabian Hammer Posted November 9, 2023 Share Posted November 9, 2023 3 minutes ago, jj1987 said: Technisch, im Sinne von "ohne startet UNRAID nicht" - Nein, geht auch ohne Aber du hast halt dann kein Netz und doppelten Boden. Geht eine Platte hopps sind die Daten weg. Da du sicherlich ein Backup Konzept hast, dann zu verschmerzen (was im Umkehrschluss aber NICHT heißt mit Parity bräuchte man kein Backup...) Aber die Pool Datenträger werden doch in der Parity eh nicht gesichert oder? HDDs hab ich nur eine - alles andere sind SSDs - was ja nicht mit HDDs ins Array sollen aus Performance Gründen. Quote Link to comment
jj1987 Posted November 9, 2023 Share Posted November 9, 2023 9 minutes ago, Fabian Hammer said: Aber die Pool Datenträger werden doch in der Parity eh nicht gesichert oder? Nö Die Parity sichert das Array (die jeweilige Disk taucht ja auch unter Array auf). Wenn der mover die Daten vom Pool ins Array schiebt, Dan sichert wieder die Parity. Aber alles was im Pool liegt ist "ungeschützt" (daher auch die Empfehlung den Pool als "RAID1" zu erstellen) Quote Link to comment
Fabian Hammer Posted November 9, 2023 Share Posted November 9, 2023 (edited) 51 minutes ago, jj1987 said: Nö Die Parity sichert das Array (die jeweilige Disk taucht ja auch unter Array auf). Wenn der mover die Daten vom Pool ins Array schiebt, Dan sichert wieder die Parity. Aber alles was im Pool liegt ist "ungeschützt" (daher auch die Empfehlung den Pool als "RAID1" zu erstellen) Die wichtigsten Daten im Pool ist ja das RAID1. Das andere sichere ich mit rsync auf mein ZimaBoard - HDD. ZFS als Pool Dateisystem im RAID1 ist schon ok oder? 😅 Edited November 9, 2023 by Fabian Hammer Quote Link to comment
Fabian Hammer Posted November 9, 2023 Share Posted November 9, 2023 ipferf gab mir nun folgenden Wert aus - Parity Check läuft jedoch noch: Ist das gut oder schlecht? Quote Link to comment
DataCollector Posted November 9, 2023 Share Posted November 9, 2023 (edited) 55 minutes ago, Fabian Hammer said: ipferf gab mir nun folgenden Wert aus - Parity Check läuft jedoch noch: Ist das gut oder schlecht? Also wenn Du eine durchgehenden 10GBLan Verbindung hast, sind diese Werte um die 2,57 - 2,9 GBit/s mies. Das sollte dann knapp unter 10GBit/s sein. Deine bemerkten Performanceprobleme über SMB haben also nicht wirklich etwas mit HDD oder SSD oder so zu tun, Dein Netzwerk selber bremst. Dann können auch SSDs an den Endstellen nichts verbessern. Warte Deinen Paritychek ab und teste es noch einmal, wenn Dein System Ruhe hat. Es gibt einige Mainboards, bei denen die PCIe Slots nicht alle durchgehend vollwertig benutzbar sind udn sich deren Performance gegenseitig beeinflußt. Vielleicht listest Du die Hardware (und welche Steckkarte in welchem Slot steckt) beider System einmal genau auf. Eventuell findet sich da ja auch schon ein Problem? Hier meine Anzeige von einem zum anderen unraidsystem. Beide mit Mellanox -x3 Karten ausgestattet und per DAC mit einem Mikrotik CRS312-4C+8XG-RM Switch verbunden. Als iperf3 Server habe ich mein 2nd-System Shipon genommen, als Client mein 1st System Tessa (Hardwaredetails sind in meiner Signatur). Screenshot1 Server Shipon: Screenshot2 Client Tessa: Edited November 9, 2023 by DataCollector Quote Link to comment
Fabian Hammer Posted November 9, 2023 Share Posted November 9, 2023 (edited) Verbaut ist folgendes Mainboard: https://www.asus.com/de/commercial-servers-workstations/z10pad8/ Vielleicht hast du zu dem Mainboard noch einen Tip (BIOS) wenn du es kennst. Mit im Vorfeld genannten HBA Controller. Ansonsten keine Steckkarte als die Mellanox verbaut. Ich teste nach dem Parity nochmals und Berichte. Edited November 9, 2023 by Fabian Hammer Quote Link to comment
DataCollector Posted November 9, 2023 Share Posted November 9, 2023 (edited) On 11/9/2023 at 6:45 PM, Fabian Hammer said: Verbaut ist folgendes Mainboard: https://www.asus.com/de/commercial-servers-workstations/z10pad8/ Vielleicht hast du zu dem Mainboard noch einen Tip (BIOS) wenn du es kennst. Mit im Vorfeld genannten HBA Controller. Ansonsten keine Steckkarte als die Mellanox verbaut. Ich teste nach dem Parity nochmals und Berichte. Irgendwie vermisse ich die notwenigen weiteren Details: Ist das Mainboard im unraid System oder dem zuspielenden PC? In welchem Slot sitzt die Mellanox-X3 Karte? In welchem Slot sitzt der LSI HBA? Steckt noch eine PCIe Karte drin (was für eine und wo)? Das ist wichtig, da gerade dieses Mainboard PCIe Slots mit unterschiedlichen Stand und in gewisser Abhängigkeit zueinander zu besitzen scheint: Slot Location 1 : PCI-E x8 (Gen2 X4 Link) Slot Location 2 : PCI-E x8 (Gen3 X8 Link) Slot Location 3 : PCI-E x16 (Gen3 X16 Link), Auto switch to x8 link if slot 4 is occupied Slot Location 4 : PCI-E x8 (Gen3 X8 Link) Slot Location 5 : PCI-E x16 (Gen3 X16 Link), Auto switch to x8 link if slot 6 is occupied * Slot Location 6 : PCI-E x8 (Gen3 X8 Link), MIO supported Und nein, ich kenne und habe das Mainboard nicht und kann zum BIOS somit nicht mehr sagen, als ich im Internet recherchieren kann. Edited November 10, 2023 by DataCollector Typos Quote Link to comment
domrockt Posted November 9, 2023 Share Posted November 9, 2023 (edited) 14 hours ago, Fabian Hammer said: ZFS als Pool Dateisystem im RAID1 ist schon ok oder? Wenn du die features von ZFS nutzt ist ZFS klar ne gute Wahl. Mein Server läuft bis auf meine Docker komplett auf ZFS aber zu deinem SMB Problem.. Ja deine Verbindung ist auf dem Weg zwischen NIC--> Kabel ---> switch -----> Kabel -----> NIC anscheinend nicht richtig die Rechner in deiner Signatur sind das die die bei der 300mb datenübertragung involviert sind? zwichen welchen von denen findet die Übertragung statt? Der HP mit dem AMD Turion II Neo N54L, 2C/2T, 2.20GHz, 2MB Cache, 25W TDP, Codename "Geneva" ist sicherlich ein massiver Flaschenhals das Teil ist ein Relikt 😀 *edit* bin alle Nachrichten nochmal durch.. Ich lese nichts über dein Netzwerk. Gib ruhig mal infos was du da einsetzt welchen switch hast du? Welche Kabel benutzt du? In welchen Rechnern hast du die Mellanoxe verbaut? Main: [WORKLOG] • unRAID Plus • Intel Core i3-9100 • Gigabyte C246M-WU4 • 64GB Kingston DDR4-2666 ECC • Intel X710-DA2 • Fractal Define R5 • Seasonic FOCUS GX-550 • VM & Docker: WD Red SN700 500GB • Cache: 1x WD Red SN700 1TB • Parity: 1x Seagate Exos X16 12TB • Data: 2x Seagate IronWolf Pro 12TB • Storj: 1x Seagate Exos X16 14TB • Lancache: 1x Crucial MX500 1TB Backup: • unRAID Basic • HP Microserver N54L • AMD Turion II Neo N54L • 8GB Kingston DDR3-1333 ECC • HP 332T • Cache: 2x Mushkin Chronos 90GB • Parity: 1x WD Gold 6TB • Data: 1x Seagate IronWolf 4TB Portable: • unRAID Basic • Gigabyte Brix GB-BACE-3000 • Intel Celeron N3000 • 8GB Kingston DDR3-1600 • AX88179 USB-NIC • 1x Intel DC S3700 200GB • Edited November 9, 2023 by domrockt Quote Link to comment
Fabian Hammer Posted November 10, 2023 Share Posted November 10, 2023 (edited) So sind meine Karten im Server angeschlossen: Hier noch mein Switch (Trendnet TL2-F7120): Mainboard im PC ist ein MSI B450M-A Pro MAX und am PCI-E x16 hängt dort die Mellanox. Das ist die Netzwerkeinstellung in Unraid: Das ist meine Syslinux Config in Unraid: default menu.c32 menu title Lime Technology, Inc. prompt 0 timeout 50 Habe nun noch bei BIOS vom Server auf Default Settings gestellt und den Windows Server Treiber von Mellanox auf meinem Windows 11 PC installiert. Hier von PC zu Server: Und nochmals andersrum: Edited November 10, 2023 by Fabian Hammer Quote Link to comment
Fabian Hammer Posted November 10, 2023 Share Posted November 10, 2023 Habe nun nochmals einen Test gemacht. Wenn in iperf3 der PC der Empfänger ist, habe ich die 10Gbit aber wenn der PC sendet, kommen am Server nur noch etwa 500 Mbits an. Bild kommt noch nach. Quote Link to comment
domrockt Posted November 10, 2023 Share Posted November 10, 2023 (edited) also Haupt PC MSI B450M-A also Ryzen, sehr gut. Server das z10pa also nen xeon oÄ 2011-3, sehr gut. Die PCI slots passen auch so. Guuut, ich tippe auf den switch!!! Was hast du bei den Jumboframes in dem Tab da eingestellt? der switch muss auch auf 9000 eingestellt sein bzw zumindest die 10GB Ports in use. Alle beteiligten Wege müssen auf 9000 Jumboframe stehen teste mal mit iperf3 -c IPvomserver -P8 "Das ist meine Syslinux Config in Unraid: default menu.c32 menu title Lime Technology, Inc. prompt 0 timeout 50" das sind alles dasselbe Bild 😀 Edited November 10, 2023 by domrockt Quote Link to comment
Fabian Hammer Posted November 10, 2023 Share Posted November 10, 2023 (edited) @domrockt Switch - Ports: Settings des Jumbo-Frames: Unraid Tipps & Tweaks Settings: Das ist das Ergebnis vom PC mit deinem Befehl "iperf3 -c IPvomserver -P8": iperf3 -c 192.168.178.21 -P8 Connecting to host 192.168.178.21, port 5201 [ 5] local 192.168.178.65 port 58674 connected to 192.168.178.21 port 5201 [ 7] local 192.168.178.65 port 58680 connected to 192.168.178.21 port 5201 [ 9] local 192.168.178.65 port 58690 connected to 192.168.178.21 port 5201 [ 11] local 192.168.178.65 port 58704 connected to 192.168.178.21 port 5201 [ 13] local 192.168.178.65 port 58712 connected to 192.168.178.21 port 5201 [ 15] local 192.168.178.65 port 58714 connected to 192.168.178.21 port 5201 [ 17] local 192.168.178.65 port 58716 connected to 192.168.178.21 port 5201 [ 19] local 192.168.178.65 port 58732 connected to 192.168.178.21 port 5201 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 76.7 MBytes 643 Mbits/sec 0 327 KBytes [ 7] 0.00-1.00 sec 226 MBytes 1.90 Gbits/sec 0 725 KBytes [ 9] 0.00-1.00 sec 76.8 MBytes 644 Mbits/sec 0 379 KBytes [ 11] 0.00-1.00 sec 115 MBytes 966 Mbits/sec 0 468 KBytes [ 13] 0.00-1.00 sec 76.9 MBytes 645 Mbits/sec 0 356 KBytes [ 15] 0.00-1.00 sec 227 MBytes 1.90 Gbits/sec 0 851 KBytes [ 17] 0.00-1.00 sec 225 MBytes 1.89 Gbits/sec 0 844 KBytes [ 19] 0.00-1.00 sec 113 MBytes 952 Mbits/sec 0 488 KBytes [SUM] 0.00-1.00 sec 1.11 GBytes 9.54 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 1.00-2.00 sec 75.2 MBytes 631 Mbits/sec 0 342 KBytes [ 7] 1.00-2.00 sec 225 MBytes 1.89 Gbits/sec 0 803 KBytes [ 9] 1.00-2.00 sec 74.4 MBytes 624 Mbits/sec 0 461 KBytes [ 11] 1.00-2.00 sec 112 MBytes 940 Mbits/sec 0 468 KBytes [ 13] 1.00-2.00 sec 74.3 MBytes 623 Mbits/sec 0 387 KBytes [ 15] 1.00-2.00 sec 224 MBytes 1.88 Gbits/sec 0 998 KBytes [ 17] 1.00-2.00 sec 225 MBytes 1.89 Gbits/sec 0 930 KBytes [ 19] 1.00-2.00 sec 113 MBytes 947 Mbits/sec 0 513 KBytes [SUM] 1.00-2.00 sec 1.10 GBytes 9.42 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 2.00-3.00 sec 74.3 MBytes 623 Mbits/sec 0 397 KBytes [ 7] 2.00-3.00 sec 222 MBytes 1.87 Gbits/sec 0 897 KBytes [ 9] 2.00-3.00 sec 74.0 MBytes 621 Mbits/sec 0 614 KBytes [ 11] 2.00-3.00 sec 115 MBytes 962 Mbits/sec 0 468 KBytes [ 13] 2.00-3.00 sec 75.2 MBytes 631 Mbits/sec 0 437 KBytes [ 15] 2.00-3.00 sec 224 MBytes 1.88 Gbits/sec 0 1.55 MBytes [ 17] 2.00-3.00 sec 222 MBytes 1.87 Gbits/sec 0 930 KBytes [ 19] 2.00-3.00 sec 114 MBytes 956 Mbits/sec 0 513 KBytes [SUM] 2.00-3.00 sec 1.09 GBytes 9.40 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 3.00-4.00 sec 74.8 MBytes 627 Mbits/sec 0 416 KBytes [ 7] 3.00-4.00 sec 225 MBytes 1.89 Gbits/sec 0 1000 KBytes [ 9] 3.00-4.00 sec 74.7 MBytes 627 Mbits/sec 0 919 KBytes [ 11] 3.00-4.00 sec 112 MBytes 943 Mbits/sec 0 468 KBytes [ 13] 3.00-4.00 sec 74.3 MBytes 623 Mbits/sec 0 437 KBytes [ 15] 3.00-4.00 sec 224 MBytes 1.88 Gbits/sec 0 2.46 MBytes [ 17] 3.00-4.00 sec 224 MBytes 1.88 Gbits/sec 0 930 KBytes [ 19] 3.00-4.00 sec 113 MBytes 944 Mbits/sec 0 513 KBytes [SUM] 3.00-4.00 sec 1.09 GBytes 9.41 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 4.00-5.00 sec 75.7 MBytes 635 Mbits/sec 0 440 KBytes [ 7] 4.00-5.00 sec 224 MBytes 1.88 Gbits/sec 0 1000 KBytes [ 9] 4.00-5.00 sec 75.0 MBytes 629 Mbits/sec 0 919 KBytes [ 11] 4.00-5.00 sec 113 MBytes 946 Mbits/sec 0 468 KBytes [ 13] 4.00-5.00 sec 75.6 MBytes 634 Mbits/sec 0 460 KBytes [ 15] 4.00-5.00 sec 224 MBytes 1.88 Gbits/sec 0 2.46 MBytes [ 17] 4.00-5.00 sec 224 MBytes 1.88 Gbits/sec 0 1017 KBytes [ 19] 4.00-5.00 sec 112 MBytes 944 Mbits/sec 0 567 KBytes [SUM] 4.00-5.00 sec 1.10 GBytes 9.42 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 5.00-6.00 sec 74.4 MBytes 624 Mbits/sec 0 440 KBytes [ 7] 5.00-6.00 sec 225 MBytes 1.89 Gbits/sec 0 1000 KBytes [ 9] 5.00-6.00 sec 75.0 MBytes 629 Mbits/sec 0 919 KBytes [ 11] 5.00-6.00 sec 112 MBytes 936 Mbits/sec 0 468 KBytes [ 13] 5.00-6.00 sec 74.8 MBytes 627 Mbits/sec 0 460 KBytes [ 15] 5.00-6.00 sec 224 MBytes 1.88 Gbits/sec 0 2.46 MBytes [ 17] 5.00-6.00 sec 225 MBytes 1.89 Gbits/sec 0 1017 KBytes [ 19] 5.00-6.00 sec 112 MBytes 940 Mbits/sec 0 567 KBytes [SUM] 5.00-6.00 sec 1.10 GBytes 9.41 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 6.00-7.00 sec 74.9 MBytes 628 Mbits/sec 0 440 KBytes [ 7] 6.00-7.00 sec 224 MBytes 1.88 Gbits/sec 0 1000 KBytes [ 9] 6.00-7.00 sec 75.0 MBytes 629 Mbits/sec 0 919 KBytes [ 11] 6.00-7.00 sec 112 MBytes 941 Mbits/sec 0 468 KBytes [ 13] 6.00-7.00 sec 74.6 MBytes 625 Mbits/sec 0 460 KBytes [ 15] 6.00-7.00 sec 225 MBytes 1.89 Gbits/sec 0 2.46 MBytes [ 17] 6.00-7.00 sec 224 MBytes 1.88 Gbits/sec 0 1017 KBytes [ 19] 6.00-7.00 sec 112 MBytes 940 Mbits/sec 0 567 KBytes [SUM] 6.00-7.00 sec 1.09 GBytes 9.40 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 7.00-8.00 sec 74.9 MBytes 629 Mbits/sec 0 440 KBytes [ 7] 7.00-8.00 sec 225 MBytes 1.89 Gbits/sec 0 1000 KBytes [ 9] 7.00-8.00 sec 75.0 MBytes 629 Mbits/sec 0 919 KBytes [ 11] 7.00-8.00 sec 115 MBytes 961 Mbits/sec 0 566 KBytes [ 13] 7.00-8.00 sec 74.8 MBytes 628 Mbits/sec 0 460 KBytes [ 15] 7.00-8.00 sec 224 MBytes 1.88 Gbits/sec 0 2.46 MBytes [ 17] 7.00-8.00 sec 222 MBytes 1.87 Gbits/sec 0 1.51 MBytes [ 19] 7.00-8.00 sec 111 MBytes 932 Mbits/sec 0 847 KBytes [SUM] 7.00-8.00 sec 1.10 GBytes 9.41 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 8.00-9.00 sec 74.9 MBytes 628 Mbits/sec 0 440 KBytes [ 7] 8.00-9.00 sec 224 MBytes 1.88 Gbits/sec 0 1.22 MBytes [ 9] 8.00-9.00 sec 75.0 MBytes 629 Mbits/sec 0 919 KBytes [ 11] 8.00-9.00 sec 112 MBytes 940 Mbits/sec 0 566 KBytes [ 13] 8.00-9.00 sec 74.7 MBytes 627 Mbits/sec 0 488 KBytes [ 15] 8.00-9.00 sec 224 MBytes 1.88 Gbits/sec 0 2.46 MBytes [ 17] 8.00-9.00 sec 224 MBytes 1.88 Gbits/sec 0 1.51 MBytes [ 19] 8.00-9.00 sec 112 MBytes 944 Mbits/sec 0 847 KBytes [SUM] 8.00-9.00 sec 1.09 GBytes 9.40 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ 5] 9.00-10.00 sec 73.9 MBytes 620 Mbits/sec 0 440 KBytes [ 7] 9.00-10.00 sec 224 MBytes 1.88 Gbits/sec 0 1.22 MBytes [ 9] 9.00-10.00 sec 73.8 MBytes 619 Mbits/sec 0 919 KBytes [ 11] 9.00-10.00 sec 112 MBytes 937 Mbits/sec 0 566 KBytes [ 13] 9.00-10.00 sec 74.6 MBytes 626 Mbits/sec 0 488 KBytes [ 15] 9.00-10.00 sec 225 MBytes 1.89 Gbits/sec 0 2.46 MBytes [ 17] 9.00-10.00 sec 224 MBytes 1.88 Gbits/sec 0 1.51 MBytes [ 19] 9.00-10.00 sec 112 MBytes 944 Mbits/sec 0 847 KBytes [SUM] 9.00-10.00 sec 1.09 GBytes 9.39 Gbits/sec 0 - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.00 sec 750 MBytes 629 Mbits/sec 0 sender [ 5] 0.00-10.00 sec 748 MBytes 627 Mbits/sec receiver [ 7] 0.00-10.00 sec 2.19 GBytes 1.88 Gbits/sec 0 sender [ 7] 0.00-10.00 sec 2.19 GBytes 1.88 Gbits/sec receiver [ 9] 0.00-10.00 sec 749 MBytes 628 Mbits/sec 0 sender [ 9] 0.00-10.00 sec 746 MBytes 625 Mbits/sec receiver [ 11] 0.00-10.00 sec 1.10 GBytes 947 Mbits/sec 0 sender [ 11] 0.00-10.00 sec 1.10 GBytes 945 Mbits/sec receiver [ 13] 0.00-10.00 sec 750 MBytes 629 Mbits/sec 0 sender [ 13] 0.00-10.00 sec 748 MBytes 627 Mbits/sec receiver [ 15] 0.00-10.00 sec 2.19 GBytes 1.88 Gbits/sec 0 sender [ 15] 0.00-10.00 sec 2.19 GBytes 1.88 Gbits/sec receiver [ 17] 0.00-10.00 sec 2.19 GBytes 1.88 Gbits/sec 0 sender [ 17] 0.00-10.00 sec 2.18 GBytes 1.88 Gbits/sec receiver [ 19] 0.00-10.00 sec 1.10 GBytes 944 Mbits/sec 0 sender [ 19] 0.00-10.00 sec 1.10 GBytes 941 Mbits/sec receiver [SUM] 0.00-10.00 sec 11.0 GBytes 9.42 Gbits/sec 0 sender [SUM] 0.00-10.00 sec 10.9 GBytes 9.40 Gbits/sec receiver iperf Done. Edited November 10, 2023 by Fabian Hammer Quote Link to comment
Fabian Hammer Posted November 10, 2023 Share Posted November 10, 2023 Ist vielleicht noch irgendwo ein Setting im Switch dass ich einstellen muss weil es sonst drosselt? Quote Link to comment
domrockt Posted November 10, 2023 Share Posted November 10, 2023 (edited) 26 minutes ago, Fabian Hammer said: [SUM] 0.00-10.00 sec 10.9 GBytes 9.40 Gbits/sec da sind doch deine 10Gbit 😀 Also uffbasse, iperf3 ist per se ein Single Thread Test das P8 schaltet mehrere Übertragungen gleichzeitig und verteilt die auf mehr CPU Kerne. Das bedeutet wenn du daten von PC A nach B überträgst hält dich die Singlecoreleistung zurück. würdest du Programme wie chowezcopy benutzen die auch mehrere Kerne benutzen kommst auch auf die 10gbit. Alles in allem aber Windows smb Begrenzung mit Linux sähe das anders aus. Der Ryzen packts ganz gut mit 6Gbit aber dein Xeon wegen dem älteren IPC eben nicht ganz. Es wird noch viel verrückter wenn du mal die 10Gbit überschreitest 😅 ich steck mit beiden Armen tief in dem Kram... Ich muss meine Signatur überarbeiten (*edit* ist überarbeitet*edit*) weil mein Ryzen 4600G auch nicht stark genug ist um 100GBit im ansatzt auszufahren. hab die 100Gbe karte jetzt im Main Server und die 3 Kioxias auch. Edited November 10, 2023 by domrockt Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.