Mellanox Firmware Tools


h0schi

Recommended Posts

9 hours ago, Fabian Hammer said:

Habt ihr vielleicht noch Tipps (auch wenn es vielleicht nicht hier rein gehört aber mehrere Interessieren könnte) wie ich in Unraid die Übertragungsgeschwindigkeit erhöhe?

Aktuell Geschwindigkeit zum übertragen mittels SMB/FTP "nur" 254-300MB/s.

Egal ob von HDD oder SSD.

 

Also eine heutige HDD liest doch sowieso peak mit max 280MByte/s.

Also von einer HDD kann es nicht schneller gelesen und übertragen werden.

 

Bei der SSD stellt sich die Frage, welche Type (ob die überhaupt mehr könnte), wie sie angeschlossen ist und ob die sich vielleicht mit anderen Komponenten oder gleichzeit zugreifende anderere Software in die Quere kommt.

Auch vermisse ich die Info ob Du von der SSD liest oder darauf schreibst und ob diese Werte erreicht werden, wenn die SSD schon einige Sekunden beschrieben wurde.

Edited by DataCollector
Link to comment
8 minutes ago, DataCollector said:

 

Also eine heutige HDD liest doch sowieso peak mit max 280MByte/s.

Also von einer HDD kann es nicht schneller gelesen und übertragen werden.

 

Bei der SSD stellt sich die Frage, welche Type (ob die überhaupt mehr könnte), wie sie angeschlossen ist und ob die sich vielleicht mit anderen Komponenten oder gleichzeit zugreifende anderere Software in die Quere kommt.

Auch vermisse ich die Info ob Du von der SSD liest oder darauf schreibst und ob diese Werte erreicht werden, wenn die SSD schon einige Sekunden beschrieben wurde.

Gelesen wird von einer SSD Samsung 850 EVO mit 2TB und geschrieben auf eine 1TB NVME.

Die SSD ist eine Arry Platte und nur für Medien als Lagerstätte.

Die NVME im PC ist die Systemfestplatte.

 

Angebunden sind die Festplatten in Unraid mittels HBA Controller Card.

Genauer:

Broadcom 9207-8i SAS2308 6G SATA SAS HBA PCIe x8

 

Hoffe, das hilft weiter 😅

Edited by Fabian Hammer
Link to comment
3 minutes ago, Fabian Hammer said:

Gelesen wird von einer SSD Samsung 850 EVO mit 2TB und geschrieben auf eine 1TB NVME.

Die SSD ist eine Arry Platte und nur für Medien als Lagerstätte.

Die NVME im PC ist die Systemfestplatte.

Die Samsung 850 Evo sollte die Datenmenge eigentlich problemlos im unraid lesen und mit max. Geschwindigkeit (unter 600MByte/s) bereitstellen können.

Passiert an dem Kontroller an dem die Samsung angeschlossen ist zeitgleich noch etwas anderes?

Hast Du mal den reinen Durchsatz der Netzwerkverbindung selber getestet (iperf oder so)?

Edited by DataCollector
Link to comment
7 minutes ago, DataCollector said:

Die Samsung 850 Evo sollte die Datenmenge eigentlich problemlos im unraid lesen und mit max. Geschwindigkeit (unter 600MByte/s) bereitstellen können.

Passiert an dem Kontroller an dem die Samsung angeschlossen ist zeitgleich noch etwas anderes?

Hast Du mal den reinen Durchsatz der Netzwerkverbindung selber getestet (iperf oder so)?

Es sind halt noch andere Festplatten angeschlossen - und Docker Container laufen zudem.

 

Siehe auch noch angehängtes Bild.

 

iperf noch nicht getestet - kann ich aber gerne noch machen 😀

Screenshot_20231108-174513.png

Edited by Fabian Hammer
Link to comment

Disk1 bis disk5 bitte genauer beschreiben ist disk 5 ne hdd und 1-4 SSDs?

 

und die prität Festplatte? Hdd o ssd?

 

wo ist da die evo?

 

das Paritätslaufwerk gibt die Array Geschwindigkeit vor.

 

 

teste mal deine smb Geschwindigkeit von extern ssd auf deinen Cache Pool 

Edited by domrockt
Link to comment
42 minutes ago, domrockt said:

Disk1 bis disk5 bitte genauer beschreiben ist disk 5 ne hdd und 1-4 SSDs?

 

und die prität Festplatte? Hdd o ssd?

 

wo ist da die evo?

 

das Paritätslaufwerk gibt die Array Geschwindigkeit vor.

 

 

teste mal deine smb Geschwindigkeit von extern ssd auf deinen Cache Pool 

Ok, dass die Parity die Geschwindigkeit vorgibt wusste ich bis Dato nicht.

 

Anbei die Festplatten:

Screenshot_20231108-203813.png

Link to comment
1 hour ago, Fabian Hammer said:

Ok, dass die Parity die Geschwindigkeit vorgibt wusste ich bis Dato nicht.

 

Anbei die Festplatten:

 

 

Die Parität gibt die Geschwindigkeit beim Schreiben vor.

Wenn Du den Datendisks im Array liest sollten die flotter als beim Schreiben sein.

 

Aber ich würde auch erst einmal versuchen das Ganze vom dem Pool mit den beiden Crucial BX500 1TB SATA zu testen.

Wenn Du in unraid im "Main" Tab oben rechts auf das blaue Symbol klickst werden Dir im "Main" Tab auch die jeweiligen Geschwindigketen der Laufwerke angezeigt. Da ist gerade dann, wenn Du Geschwindigkeitstests machst etwas hilfreicher.

 

Und nur so nebenbei: Du verwendest btrfs im Pool anscheinend als Raid1.

Kann man machen, aber ich würde dann die Daten darauf (sofern sie Dir wichtig erscheinen) auch ab und zu backuppen, da btrfs ab und zu bei diversen Leuten unter unraid Probleme bereitet hat.

 

 

Edited by DataCollector
Link to comment

Jupp wie ich dachte also ins Array gehören nur eine Art von Laufwerk, entweder nur SATA SSD oder nur NVME oder nur HDD vorallem wenn man eine Paritätsplatte nutzt.

 

ins Array langsame und große HDDs 

 

alle SSD gebündelt nach Art in einen eigenen cache pool 

 

Ich würde einen Pool mit nvmes erstellen für docker und VMs

 

einen pool mit SSDs als schreibcache für das Array 

 

 

der Grundgedanke den Lime Technology, Inc. hat ist wie folgt

 

ich möchte 500GB Bilder und Videos vom Handy auf mein UNRAID NAS schieben

 

also schließe ich mein Handy an den PC und lade alles auf meinen PC 

mein PC ist an meinem schnellen 10GBit LAN

ich öffne einen share und verschiebe alles darauf

 

 

im Unraid landen die daten mit 10gbit speed auf meinem SSD cache und nachts wenn ich den server nicht nutze schiebt der mover den kram auf mein Parität gesichertes array mit 200-300mb sek (nur HHds)

 

 

 

Hat jemand ein normales Unraid am laufen? ich bin da ein schlechtes bsp :D  ?

 

 

 

Edited by domrockt
Link to comment
1 hour ago, Fabian Hammer said:

Ist eine Parity in Unraid denn nun überhaupt notwendig?

Technisch, im Sinne von "ohne startet UNRAID nicht" - Nein, geht auch ohne

Aber du hast halt dann kein Netz und doppelten Boden. Geht eine Platte hopps sind die Daten weg. Da du sicherlich ein Backup Konzept hast, dann zu verschmerzen (was im Umkehrschluss aber NICHT heißt mit Parity bräuchte man kein Backup...)

 

Link to comment
3 minutes ago, jj1987 said:

Technisch, im Sinne von "ohne startet UNRAID nicht" - Nein, geht auch ohne

Aber du hast halt dann kein Netz und doppelten Boden. Geht eine Platte hopps sind die Daten weg. Da du sicherlich ein Backup Konzept hast, dann zu verschmerzen (was im Umkehrschluss aber NICHT heißt mit Parity bräuchte man kein Backup...)

 

Aber die Pool Datenträger werden doch in der Parity eh nicht gesichert oder?

 

HDDs hab ich nur eine - alles andere sind SSDs - was ja nicht mit HDDs ins Array sollen aus Performance Gründen.

Link to comment
9 minutes ago, Fabian Hammer said:

Aber die Pool Datenträger werden doch in der Parity eh nicht gesichert oder?

Die Parity sichert das Array (die jeweilige Disk taucht ja auch unter Array auf).

Wenn der mover die Daten vom Pool ins Array schiebt, Dan sichert wieder die Parity. Aber alles was im Pool liegt ist "ungeschützt" (daher auch die Empfehlung den Pool als "RAID1" zu erstellen)

Link to comment
51 minutes ago, jj1987 said:

Die Parity sichert das Array (die jeweilige Disk taucht ja auch unter Array auf).

Wenn der mover die Daten vom Pool ins Array schiebt, Dan sichert wieder die Parity. Aber alles was im Pool liegt ist "ungeschützt" (daher auch die Empfehlung den Pool als "RAID1" zu erstellen)

Die wichtigsten Daten im Pool ist ja das RAID1.

 

Das andere sichere ich mit rsync auf mein ZimaBoard - HDD.

 

ZFS als Pool Dateisystem im RAID1 ist schon ok oder? 😅

Edited by Fabian Hammer
Link to comment
55 minutes ago, Fabian Hammer said:

ipferf gab mir nun folgenden Wert aus - Parity Check läuft jedoch noch:
Ist das gut oder schlecht?

 

Also wenn Du eine durchgehenden 10GBLan Verbindung hast, sind diese Werte um die 2,57 - 2,9 GBit/s mies.

Das sollte dann knapp unter 10GBit/s sein.

Deine bemerkten Performanceprobleme über SMB haben also nicht wirklich etwas mit HDD oder SSD oder so zu tun, Dein Netzwerk selber bremst. Dann können auch SSDs an den Endstellen nichts verbessern.

Warte Deinen Paritychek ab und teste es noch einmal, wenn Dein System Ruhe hat.

Es gibt einige Mainboards, bei denen die PCIe Slots nicht alle durchgehend vollwertig benutzbar sind udn sich deren Performance gegenseitig beeinflußt.

Vielleicht listest Du die Hardware (und welche Steckkarte in welchem Slot steckt) beider System einmal genau auf. Eventuell findet sich da ja auch schon ein Problem?

 

 

Hier meine Anzeige von einem zum anderen unraidsystem. Beide mit Mellanox -x3 Karten ausgestattet und per DAC mit einem Mikrotik CRS312-4C+8XG-RM Switch verbunden.

Als iperf3 Server habe ich mein 2nd-System Shipon genommen, als Client mein 1st System Tessa (Hardwaredetails sind in meiner Signatur).

 

Screenshot1 Server Shipon:

iperf-Shipon-Server-.png

 

Screenshot2 Client Tessa:

iperf-Tessa-.png

Edited by DataCollector
Link to comment
On 11/9/2023 at 6:45 PM, Fabian Hammer said:

Verbaut ist folgendes Mainboard:

https://www.asus.com/de/commercial-servers-workstations/z10pad8/

 

Vielleicht hast du zu dem Mainboard noch einen Tip (BIOS) wenn du es kennst.

 

Mit im Vorfeld genannten HBA Controller.

Ansonsten keine Steckkarte als die Mellanox verbaut.

 

Ich teste nach dem Parity nochmals und Berichte.

 

 

Irgendwie vermisse ich die notwenigen weiteren Details:

Ist das Mainboard im unraid System oder dem zuspielenden PC?

In welchem Slot sitzt die Mellanox-X3 Karte?

In welchem Slot sitzt der LSI HBA?

Steckt noch eine PCIe Karte drin (was für eine und wo)?

 

Das ist wichtig, da gerade dieses Mainboard PCIe Slots mit unterschiedlichen Stand und in gewisser Abhängigkeit zueinander zu besitzen scheint:

Slot Location 1 : PCI-E x8 (Gen2 X4 Link)
Slot Location 2 : PCI-E x8 (Gen3 X8 Link)
Slot Location 3 : PCI-E x16 (Gen3 X16 Link), Auto switch to x8 link if slot 4 is occupied
Slot Location 4 : PCI-E x8 (Gen3 X8 Link)
Slot Location 5 : PCI-E x16 (Gen3 X16 Link), Auto switch to x8 link if slot 6 is occupied *
Slot Location 6 : PCI-E x8 (Gen3 X8 Link), MIO supported

 

Und nein, ich kenne und habe das Mainboard nicht und kann zum BIOS somit nicht mehr sagen, als ich im Internet recherchieren kann.

Edited by DataCollector
Typos
Link to comment
14 hours ago, Fabian Hammer said:

ZFS als Pool Dateisystem im RAID1 ist schon ok oder?

 

Wenn du die features von ZFS nutzt ist ZFS klar ne gute Wahl. Mein Server läuft bis auf meine Docker komplett auf ZFS

unraid.thumb.png.425cbbc9739548228b0db6c29666c7b7.png

 

 

aber zu deinem SMB Problem.. Ja deine Verbindung ist auf dem Weg zwischen NIC--> Kabel ---> switch -----> Kabel -----> NIC anscheinend nicht richtig 

 

die Rechner in deiner Signatur sind das die die bei der 300mb datenübertragung involviert sind? zwichen welchen von denen findet die Übertragung statt?

Der HP mit dem AMD Turion II Neo N54L, 2C/2T, 2.20GHz, 2MB Cache, 25W TDP, Codename "Geneva" ist sicherlich ein massiver Flaschenhals das Teil ist ein Relikt 😀

 

*edit*

bin alle Nachrichten nochmal durch.. Ich lese nichts über dein Netzwerk. Gib ruhig mal infos was du da einsetzt :D welchen switch hast du? Welche Kabel benutzt du? In welchen Rechnern hast du die Mellanoxe verbaut? 

 

Main: [WORKLOG]

• unRAID Plus • Intel Core i3-9100 • Gigabyte C246M-WU4 • 64GB Kingston DDR4-2666 ECC 

• Intel X710-DA2 • Fractal Define R5 • Seasonic FOCUS GX-550 

• VM & Docker: WD Red SN700 500GB

• Cache: 1x WD Red SN700 1TB 

• Parity: 1x Seagate Exos X16 12TB 

• Data: 2x Seagate IronWolf Pro 12TB 

• Storj: 1x Seagate Exos X16 14TB 

• Lancache: 1x Crucial MX500 1TB

 

 

Backup:

• unRAID Basic • HP Microserver N54L • AMD Turion II Neo N54L • 8GB Kingston DDR3-1333 ECC • HP 332T

• Cache: 2x Mushkin Chronos 90GB

• Parity: 1x WD Gold 6TB 

• Data: 1x Seagate IronWolf 4TB

 

Portable:

• unRAID Basic • Gigabyte Brix GB-BACE-3000 • Intel Celeron N3000 • 8GB Kingston DDR3-1600 

• AX88179 USB-NIC • 1x Intel DC S3700 200GB • 

Edited by domrockt
Link to comment

So sind meine Karten im Server angeschlossen:
image.png.a68203455bb979932c7797952688c3c0.png

Hier noch mein Switch (Trendnet TL2-F7120):image.thumb.png.91577b5bdc88dc850c0ec8ca641ebfd9.png

Mainboard im PC ist ein MSI B450M-A Pro MAX und am PCI-E x16 hängt dort die Mellanox.

Das ist die Netzwerkeinstellung in Unraid:image.thumb.png.2b65d5405d87be3042572c46be3a5ad6.png

Das ist meine Syslinux Config in Unraid:

default menu.c32
menu title Lime Technology, Inc.
prompt 0
timeout 50


Habe nun noch bei BIOS vom Server auf Default Settings gestellt und den Windows Server Treiber von Mellanox auf meinem Windows 11 PC installiert.
Hier von PC zu Server:
image.png.3541456c2a566dcda58a5a36b75d3ed7.png

Und nochmals andersrum:
image.png.5d3ff7208a19703b4e569438a23e30b5.png

Edited by Fabian Hammer
Link to comment

also Haupt PC MSI B450M-A also Ryzen, sehr gut.

Server das z10pa also nen xeon oÄ 2011-3, sehr gut.

 

Die PCI slots passen auch so.

 

Guuut, ich tippe auf den switch!!! Was hast du bei den Jumboframes in dem Tab da eingestellt? der switch muss auch auf 9000 eingestellt sein bzw zumindest die 10GB Ports in use. 

 

Alle beteiligten Wege müssen auf 9000 Jumboframe stehen

 

teste mal mit iperf3 -c IPvomserver -P8 

 

 

"Das ist meine Syslinux Config in Unraid:

default menu.c32
menu title Lime Technology, Inc.
prompt 0
timeout 50"

 

das sind alles dasselbe Bild 😀

Edited by domrockt
Link to comment

@domrockt
Switch - Ports:
image.thumb.png.32d2b250a665e12c2a916443d43fa9ae.png

Settings des Jumbo-Frames:
image.png.048e74871cb5cfbf347f897429bb2b18.png

Unraid Tipps & Tweaks Settings:
image.thumb.png.3915ee1a5325e4b6d6c8e2ee4aeb5261.png

Das ist das Ergebnis vom PC mit deinem Befehl "iperf3 -c IPvomserver -P8":
iperf3 -c 192.168.178.21 -P8
Connecting to host 192.168.178.21, port 5201
[  5] local 192.168.178.65 port 58674 connected to 192.168.178.21 port 5201
[  7] local 192.168.178.65 port 58680 connected to 192.168.178.21 port 5201
[  9] local 192.168.178.65 port 58690 connected to 192.168.178.21 port 5201
[ 11] local 192.168.178.65 port 58704 connected to 192.168.178.21 port 5201
[ 13] local 192.168.178.65 port 58712 connected to 192.168.178.21 port 5201
[ 15] local 192.168.178.65 port 58714 connected to 192.168.178.21 port 5201
[ 17] local 192.168.178.65 port 58716 connected to 192.168.178.21 port 5201
[ 19] local 192.168.178.65 port 58732 connected to 192.168.178.21 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  76.7 MBytes   643 Mbits/sec    0    327 KBytes       
[  7]   0.00-1.00   sec   226 MBytes  1.90 Gbits/sec    0    725 KBytes       
[  9]   0.00-1.00   sec  76.8 MBytes   644 Mbits/sec    0    379 KBytes       
[ 11]   0.00-1.00   sec   115 MBytes   966 Mbits/sec    0    468 KBytes       
[ 13]   0.00-1.00   sec  76.9 MBytes   645 Mbits/sec    0    356 KBytes       
[ 15]   0.00-1.00   sec   227 MBytes  1.90 Gbits/sec    0    851 KBytes       
[ 17]   0.00-1.00   sec   225 MBytes  1.89 Gbits/sec    0    844 KBytes       
[ 19]   0.00-1.00   sec   113 MBytes   952 Mbits/sec    0    488 KBytes       
[SUM]   0.00-1.00   sec  1.11 GBytes  9.54 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   1.00-2.00   sec  75.2 MBytes   631 Mbits/sec    0    342 KBytes       
[  7]   1.00-2.00   sec   225 MBytes  1.89 Gbits/sec    0    803 KBytes       
[  9]   1.00-2.00   sec  74.4 MBytes   624 Mbits/sec    0    461 KBytes       
[ 11]   1.00-2.00   sec   112 MBytes   940 Mbits/sec    0    468 KBytes       
[ 13]   1.00-2.00   sec  74.3 MBytes   623 Mbits/sec    0    387 KBytes       
[ 15]   1.00-2.00   sec   224 MBytes  1.88 Gbits/sec    0    998 KBytes       
[ 17]   1.00-2.00   sec   225 MBytes  1.89 Gbits/sec    0    930 KBytes       
[ 19]   1.00-2.00   sec   113 MBytes   947 Mbits/sec    0    513 KBytes       
[SUM]   1.00-2.00   sec  1.10 GBytes  9.42 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   2.00-3.00   sec  74.3 MBytes   623 Mbits/sec    0    397 KBytes       
[  7]   2.00-3.00   sec   222 MBytes  1.87 Gbits/sec    0    897 KBytes       
[  9]   2.00-3.00   sec  74.0 MBytes   621 Mbits/sec    0    614 KBytes       
[ 11]   2.00-3.00   sec   115 MBytes   962 Mbits/sec    0    468 KBytes       
[ 13]   2.00-3.00   sec  75.2 MBytes   631 Mbits/sec    0    437 KBytes       
[ 15]   2.00-3.00   sec   224 MBytes  1.88 Gbits/sec    0   1.55 MBytes       
[ 17]   2.00-3.00   sec   222 MBytes  1.87 Gbits/sec    0    930 KBytes       
[ 19]   2.00-3.00   sec   114 MBytes   956 Mbits/sec    0    513 KBytes       
[SUM]   2.00-3.00   sec  1.09 GBytes  9.40 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   3.00-4.00   sec  74.8 MBytes   627 Mbits/sec    0    416 KBytes       
[  7]   3.00-4.00   sec   225 MBytes  1.89 Gbits/sec    0   1000 KBytes       
[  9]   3.00-4.00   sec  74.7 MBytes   627 Mbits/sec    0    919 KBytes       
[ 11]   3.00-4.00   sec   112 MBytes   943 Mbits/sec    0    468 KBytes       
[ 13]   3.00-4.00   sec  74.3 MBytes   623 Mbits/sec    0    437 KBytes       
[ 15]   3.00-4.00   sec   224 MBytes  1.88 Gbits/sec    0   2.46 MBytes       
[ 17]   3.00-4.00   sec   224 MBytes  1.88 Gbits/sec    0    930 KBytes       
[ 19]   3.00-4.00   sec   113 MBytes   944 Mbits/sec    0    513 KBytes       
[SUM]   3.00-4.00   sec  1.09 GBytes  9.41 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   4.00-5.00   sec  75.7 MBytes   635 Mbits/sec    0    440 KBytes       
[  7]   4.00-5.00   sec   224 MBytes  1.88 Gbits/sec    0   1000 KBytes       
[  9]   4.00-5.00   sec  75.0 MBytes   629 Mbits/sec    0    919 KBytes       
[ 11]   4.00-5.00   sec   113 MBytes   946 Mbits/sec    0    468 KBytes       
[ 13]   4.00-5.00   sec  75.6 MBytes   634 Mbits/sec    0    460 KBytes       
[ 15]   4.00-5.00   sec   224 MBytes  1.88 Gbits/sec    0   2.46 MBytes       
[ 17]   4.00-5.00   sec   224 MBytes  1.88 Gbits/sec    0   1017 KBytes       
[ 19]   4.00-5.00   sec   112 MBytes   944 Mbits/sec    0    567 KBytes       
[SUM]   4.00-5.00   sec  1.10 GBytes  9.42 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   5.00-6.00   sec  74.4 MBytes   624 Mbits/sec    0    440 KBytes       
[  7]   5.00-6.00   sec   225 MBytes  1.89 Gbits/sec    0   1000 KBytes       
[  9]   5.00-6.00   sec  75.0 MBytes   629 Mbits/sec    0    919 KBytes       
[ 11]   5.00-6.00   sec   112 MBytes   936 Mbits/sec    0    468 KBytes       
[ 13]   5.00-6.00   sec  74.8 MBytes   627 Mbits/sec    0    460 KBytes       
[ 15]   5.00-6.00   sec   224 MBytes  1.88 Gbits/sec    0   2.46 MBytes       
[ 17]   5.00-6.00   sec   225 MBytes  1.89 Gbits/sec    0   1017 KBytes       
[ 19]   5.00-6.00   sec   112 MBytes   940 Mbits/sec    0    567 KBytes       
[SUM]   5.00-6.00   sec  1.10 GBytes  9.41 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   6.00-7.00   sec  74.9 MBytes   628 Mbits/sec    0    440 KBytes       
[  7]   6.00-7.00   sec   224 MBytes  1.88 Gbits/sec    0   1000 KBytes       
[  9]   6.00-7.00   sec  75.0 MBytes   629 Mbits/sec    0    919 KBytes       
[ 11]   6.00-7.00   sec   112 MBytes   941 Mbits/sec    0    468 KBytes       
[ 13]   6.00-7.00   sec  74.6 MBytes   625 Mbits/sec    0    460 KBytes       
[ 15]   6.00-7.00   sec   225 MBytes  1.89 Gbits/sec    0   2.46 MBytes       
[ 17]   6.00-7.00   sec   224 MBytes  1.88 Gbits/sec    0   1017 KBytes       
[ 19]   6.00-7.00   sec   112 MBytes   940 Mbits/sec    0    567 KBytes       
[SUM]   6.00-7.00   sec  1.09 GBytes  9.40 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   7.00-8.00   sec  74.9 MBytes   629 Mbits/sec    0    440 KBytes       
[  7]   7.00-8.00   sec   225 MBytes  1.89 Gbits/sec    0   1000 KBytes       
[  9]   7.00-8.00   sec  75.0 MBytes   629 Mbits/sec    0    919 KBytes       
[ 11]   7.00-8.00   sec   115 MBytes   961 Mbits/sec    0    566 KBytes       
[ 13]   7.00-8.00   sec  74.8 MBytes   628 Mbits/sec    0    460 KBytes       
[ 15]   7.00-8.00   sec   224 MBytes  1.88 Gbits/sec    0   2.46 MBytes       
[ 17]   7.00-8.00   sec   222 MBytes  1.87 Gbits/sec    0   1.51 MBytes       
[ 19]   7.00-8.00   sec   111 MBytes   932 Mbits/sec    0    847 KBytes       
[SUM]   7.00-8.00   sec  1.10 GBytes  9.41 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   8.00-9.00   sec  74.9 MBytes   628 Mbits/sec    0    440 KBytes       
[  7]   8.00-9.00   sec   224 MBytes  1.88 Gbits/sec    0   1.22 MBytes       
[  9]   8.00-9.00   sec  75.0 MBytes   629 Mbits/sec    0    919 KBytes       
[ 11]   8.00-9.00   sec   112 MBytes   940 Mbits/sec    0    566 KBytes       
[ 13]   8.00-9.00   sec  74.7 MBytes   627 Mbits/sec    0    488 KBytes       
[ 15]   8.00-9.00   sec   224 MBytes  1.88 Gbits/sec    0   2.46 MBytes       
[ 17]   8.00-9.00   sec   224 MBytes  1.88 Gbits/sec    0   1.51 MBytes       
[ 19]   8.00-9.00   sec   112 MBytes   944 Mbits/sec    0    847 KBytes       
[SUM]   8.00-9.00   sec  1.09 GBytes  9.40 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   9.00-10.00  sec  73.9 MBytes   620 Mbits/sec    0    440 KBytes       
[  7]   9.00-10.00  sec   224 MBytes  1.88 Gbits/sec    0   1.22 MBytes       
[  9]   9.00-10.00  sec  73.8 MBytes   619 Mbits/sec    0    919 KBytes       
[ 11]   9.00-10.00  sec   112 MBytes   937 Mbits/sec    0    566 KBytes       
[ 13]   9.00-10.00  sec  74.6 MBytes   626 Mbits/sec    0    488 KBytes       
[ 15]   9.00-10.00  sec   225 MBytes  1.89 Gbits/sec    0   2.46 MBytes       
[ 17]   9.00-10.00  sec   224 MBytes  1.88 Gbits/sec    0   1.51 MBytes       
[ 19]   9.00-10.00  sec   112 MBytes   944 Mbits/sec    0    847 KBytes       
[SUM]   9.00-10.00  sec  1.09 GBytes  9.39 Gbits/sec    0             
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   750 MBytes   629 Mbits/sec    0             sender
[  5]   0.00-10.00  sec   748 MBytes   627 Mbits/sec                  receiver
[  7]   0.00-10.00  sec  2.19 GBytes  1.88 Gbits/sec    0             sender
[  7]   0.00-10.00  sec  2.19 GBytes  1.88 Gbits/sec                  receiver
[  9]   0.00-10.00  sec   749 MBytes   628 Mbits/sec    0             sender
[  9]   0.00-10.00  sec   746 MBytes   625 Mbits/sec                  receiver
[ 11]   0.00-10.00  sec  1.10 GBytes   947 Mbits/sec    0             sender
[ 11]   0.00-10.00  sec  1.10 GBytes   945 Mbits/sec                  receiver
[ 13]   0.00-10.00  sec   750 MBytes   629 Mbits/sec    0             sender
[ 13]   0.00-10.00  sec   748 MBytes   627 Mbits/sec                  receiver
[ 15]   0.00-10.00  sec  2.19 GBytes  1.88 Gbits/sec    0             sender
[ 15]   0.00-10.00  sec  2.19 GBytes  1.88 Gbits/sec                  receiver
[ 17]   0.00-10.00  sec  2.19 GBytes  1.88 Gbits/sec    0             sender
[ 17]   0.00-10.00  sec  2.18 GBytes  1.88 Gbits/sec                  receiver
[ 19]   0.00-10.00  sec  1.10 GBytes   944 Mbits/sec    0             sender
[ 19]   0.00-10.00  sec  1.10 GBytes   941 Mbits/sec                  receiver
[SUM]   0.00-10.00  sec  11.0 GBytes  9.42 Gbits/sec    0             sender
[SUM]   0.00-10.00  sec  10.9 GBytes  9.40 Gbits/sec                  receiver

iperf Done.
 

Edited by Fabian Hammer
Link to comment
26 minutes ago, Fabian Hammer said:

[SUM]   0.00-10.00  sec  10.9 GBytes  9.40 Gbits/sec

 

da sind doch deine 10Gbit 😀

Also uffbasse, iperf3 ist per se ein Single Thread Test das P8 schaltet mehrere Übertragungen gleichzeitig  und verteilt die auf mehr CPU Kerne. Das bedeutet wenn du daten von PC A nach B überträgst hält dich die Singlecoreleistung zurück.

 

würdest du Programme wie chowezcopy benutzen die auch mehrere Kerne benutzen kommst auch auf die 10gbit. 

Alles in allem aber Windows smb Begrenzung mit Linux sähe das anders aus.

 

Der Ryzen packts ganz gut mit 6Gbit aber dein Xeon wegen dem älteren IPC eben nicht ganz.

 

Es wird noch viel verrückter wenn du mal die 10Gbit überschreitest 😅 ich steck mit beiden Armen tief in dem Kram...

 

Ich muss meine Signatur überarbeiten (*edit* ist überarbeitet*edit*) weil mein Ryzen 4600G auch nicht stark genug ist um 100GBit im ansatzt auszufahren.

hab die 100Gbe karte jetzt im Main Server und die 3 Kioxias auch. 

Edited by domrockt
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.