nicx

Members
  • Posts

    35
  • Joined

  • Last visited

nicx's Achievements

Newbie

Newbie (1/14)

2

Reputation

  1. I tried the same with no luck. And if I check the ntp config on the unraid server I can see that its restricted to 127.0.0.1.
  2. @jonathanm I stumbled across a similar question: I would have liked to use the built-in NTPD server, but it seems this is limited to the local IP, so it is not usable by other clients. Unfortunately this can't be adjusted via GUI. For this reason, this Docker solution could be useful. Or does anyone have an idea how to open the integrated NTPD server without more complex customizations?
  3. hier nochmal ein kurzer Test mit den 250GB Samsung 850 Evo SATA SSD und sysctl vm.dirty_bytes=100000000: root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 77.6048 s, 138 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 70.3208 s, 153 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 71.5436 s, 150 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.52136 s, 194 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 4.4092 s, 244 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 4.45699 s, 241 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 4.45771 s, 241 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.13349 s, 209 MB/s root@nas:~# Mein grundsätzliches Fazit: Ich muss mir überlegen ob ich nicht einfach ein wenig investiere und statt 4* 250GB Evo für Data und 1* 250GB Evo für Parity dann auf 1* 1TB Pro für Data und 1* 1TB Pro für Parity umswitche. Zusätzlicher Vorteil im zweiten Fall: Weniger SSDs für den Beginn, und daher erst einmal kein zusätzlicher SATA-Controller benötigt. Ergo geringerer Stromverbrauch. Wenn das System "wachsen" soll dann wird das aber früher oder später nötig, da nur 3 SATA Ports auf dem Mainboard zur Verfügung stehen (und der dritte belegt wäre doch die 3TB WD Backup HDD) . @mgutt Wäre denn rein aus Performancesicht auch dein Vorschlag mit 1* 1TB Pro als Parity und 4* 250GB Evo als Daten SSDs sinnvoll? Also wie würde sich das denn voraussichtlich auswirken?
  4. Sorry, Modell habe ich ergänzt. Es sind Samsung 850 Pro 1TB SATA SSDs. Und du hast recht, ich hab vergessen das Caching runter zu setzen. Nun hier die Performance Werte mit sysctl vm.dirty_bytes=100000000: root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 20.7396 s, 518 MB/s root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 20.712 s, 518 MB/s root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 20.7638 s, 517 MB/s root@Tower:~#
  5. Ein kurzer Test mit den 1TB Samsung 850 Pro SSDs (sowohl Party als auch Daten-Disk) ergibt folgendes Bild: root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 17.1165 s, 627 MB/s root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 17.1138 s, 627 MB/s root@Tower:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 17.1058 s, 628 MB/s root@Tower:~# Das ist wirklich mal eine krasse Speed Ok, für mich ist es damit recht klar dass das Bottleneck die SSDs sind. Sind halt einfach nicht "Pro".
  6. Hier mal die Testergebnisse mit count=1G: root@nas:~# root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.343877 s, 3.1 GB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.14304 s, 209 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.08903 s, 211 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.13674 s, 209 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.10374 s, 210 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.346902 s, 3.1 GB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.02571 s, 214 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 6.11291 s, 176 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.89215 s, 182 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 6.09679 s, 176 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.345798 s, 3.1 GB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 6.46925 s, 166 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 7.11701 s, 151 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 7.30008 s, 147 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 7.30834 s, 147 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 7.80251 s, 138 MB/s root@nas:~# Dabei ist mir nun aufgefallen dass die Performance mit jedem Test abnimmt, ist richtig schön zu sehen. dazu kommt dass ich all meine Tests mit den Disks stets in der gleichen Reihenfolge durchgeführt habe, also erst disk1, dann disk2 und zuletzt disk3. Also nochmal alle Files gelöscht, 10min pausiert, und gleich mal mit disk3 gestartet: root@nas:~# rm /mnt/disk1/test.img root@nas:~# rm /mnt/disk2/test.img root@nas:~# rm /mnt/disk3/test.img root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 0.3305 s, 3.2 GB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.01092 s, 214 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 4.89985 s, 219 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.2154 s, 206 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.14711 s, 209 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=1G 8192+0 records in 8192+0 records out 1073741824 bytes (1.1 GB, 1.0 GiB) copied, 5.19081 s, 207 MB/s root@nas:~# und mit count=10G: root@nas:~# rm /mnt/disk3/test.img root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 48.3488 s, 222 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 124.092 s, 86.5 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 51.329 s, 209 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 51.551 s, 208 MB/s root@nas:~# Daraus schlussfolgere ich, das es nicht an einer spezifischen SSD liegt (also z.b. die disk3 irgendein Problem hat), aber wie du sagst @mgutt entweder mit den Lasttest eine Komponente heisser (und dadurch unperfomanter) wird, oder irgend eine grundsätzliche SSD-integrierte Logik (wahrscheinlich auf der Parity SSD) zur Verlangsamung führt. Die eklatanten einzelnen Aussreisser nach unten auf <50MB/s kann ich mir nach wie vor nicht erklären... eventuell läuft hier auch noch irgendein andere Operation auf den SSDs die mir dazwischenfunkt. Rein von den Temperaturen der SSDs steigen diese auf um die 50-55 Grad an sobald ich ausgiebig teste. Deinen Tip mit dem Lüfter werde ich mal ausprobieren Zudem habe ich auch noch 2 Stück 1TB Samsung 850 Pro SSD, diese werde ich mal zu einem Vergleich einbauen und testen. Ich denke wenn Lüfter- und ProSSD-Tests vorliegen, dann sehen wir wohin der Hase läuft Danke auf jeden Fall schon mal @mgutt für deine Tips!
  7. Nach einigen weiteren Tests mit sowohl dem Marvell als auch dem ASM Controller habe ich festgestellt, das meine ersten Tests mit dem Marvell Controller wohl nicht ausreichend waren. Mit dem Befehl dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G teste ich ja lediglich die Performance der ersten Disk im Zusammenspiel mit der Parity, nicht aber die der anderen Disks. In meinem Fall hängt diese disk1 und auch die Parity-Disk am SATA Controller des Mainboards, d.h. der Erweiterung-Controller war hier überhaupt nicht involviert🤦‍♂️ Habe ich das soweit richtig verstanden? Also habe ich den Test mal mit jeder Disk durchgeführt: Die Disks am Mainboard Controller (disk1 und disk2) hatten durchweg ca. 170-200MB/s. Die Disk am Marvell Controller (disk3) bot lediglich knapp 50MB/s. Ein Austausch des Controllers auf den ASM1166 (PCI4x) erbrachte auch für diese Disk dann ebenfalls ca. 170-200MB/s: root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 52.4511 s, 205 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk2/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 62.3242 s, 172 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 58.6474 s, 183 MB/s Ich vermute nun mal dass dies schlicht die Grenze der kleinen Evo SSDs ist wie von dir @mgutt angesprochen. Was mich noch ein wenig verwundert: Wenn ich den Test mit der disk3 ein paar mal wiederhole (das ist die Disk am Erweiterungs-Controller), dann sind hier ab und zu (so ca. bei jedem fünften Mal) erhebliche Performance Einbrüche nach unten festzustellen: root@nas:~# dd if=/dev/zero of=/mnt/disk3/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 265.577 s, 40.4 MB/s Dies ist mir bei den anderen disk1 und disk2 am Mainboard nicht aufgefallen. Diese schwanken immer zwischen 150 und 200 MB/s. Gibts für den eklatanten Einbruch eventuell eine Erklärung oder eine Idee wie ich der Ursache auf den Grund kommen könnte?
  8. I think this could even help when using nextcloud and its "preview generation" for videos/photos (which I am already using). The longer I think about it the more I tend towards the i5
  9. good point, currently I don't need HW transcoding, maybe in future... I will keep that in mind.
  10. Hi, For my "new" Unraid server I have the choice between the following CPUs / Hardware: i7-4790 in a Dell Precicion T1700 i5-7500 in a Dell Optiplex 3050 The i7 comes with hyper threading (8 vs 4 cores), the i5 is much more newer and supports a higher ram speed. I am using no classic VMs, but Docker containers (about 15). Which CPU would you prefer and why?
  11. Ich probiere den Controller einfach mal aus Danke @mgutt für deine Ausführungen 👍
  12. @mgutt der SLC Cache liegt bei 3GB... inwiefern das viel oder wenig ist: Keine Ahnung Glaubst du denn das ein SATA-Controller Upgrade trotzdem auf https://www.amazon.de/dp/B08F56WKW7/ref=pe_27091401_487024491_TE_item lohnt? Das wäre dann der besagte ASM1166 PCI4x Controller. Oder kann ich mir das Geld sparen?
  13. @mgutt guter Hinweis, danke dir! Hier die Performance Ergebnisse: root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 55.902 s, 192 MB/s root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 81.8906 s, 131 MB/s root@nas:~# root@nas:~# dd if=/dev/zero of=/mnt/disk1/test.img bs=128K iflag=count_bytes count=10G 81920+0 records in 81920+0 records out 10737418240 bytes (11 GB, 10 GiB) copied, 51.3179 s, 209 MB/s root@nas:~# Immerhin, ich denke aber trotzdem dass der SATA Controller hier einiges an Performance bringt, korrekt?
  14. Nachdem nun mein Testserver einige Wochen im Betrieb ist habe ich übers Wochenende die Live-Migration durchgeführt. Bzgl. der SATA Performance kann (bzw. muss) ich erst einmal mit dem Einsatz des besagten Marvell-SATA-Controllers leben (der bestellte ASMedia ASM1166 Ersatzcontroller aus China kam leider nicht an, wurde beim Zoll festgesetzt root@nas:/mnt/user/appdata/nginx/www# ./diskspeed.sh diskspeed.sh for UNRAID, version 2.6.5 By John Bartlett. Support board @ limetech: http://goo.gl/ysJeYV Warning: Files in the array are open. Please refer to /tmp/lsof.txt for a list /dev/sdb: 545 MB/sec avg /dev/sdc: 554 MB/sec avg /dev/sdd: 469 MB/sec avg /dev/sde: 428 MB/sec avg /dev/sdf: 428 MB/sec avg /dev/sdg: 119 MB/sec avg Die Einzelplatten performen sehr gut (/dev/sdg ist eine klassische 5400er HDD), das Array hingegen hat Luft nach oben: root@nas:/mnt/user/appdata/nginx/www# dd if=/dev/zero of=/mnt/user/test.img bs=1G count=5 oflag=dsync 5+0 records in 5+0 records out 5368709120 bytes (5.4 GB, 5.0 GiB) copied, 123.461 s, 43.5 MB/s root@nas:/mnt/user/appdata/nginx/www# dd if=/dev/zero of=/mnt/user/test.img bs=1G count=5 oflag=dsync 5+0 records in 5+0 records out 5368709120 bytes (5.4 GB, 5.0 GiB) copied, 78.4803 s, 68.4 MB/s root@nas:/mnt/user/appdata/nginx/www# Ist das nun genau dem SATA-Controller geschuldet? Oder gibt es noch andere Ansätze?
  15. great, thanks for your help. I will switch to that integration in HA and to the integrated UPS solution in Unraid!