Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Wichtig ist auch die volle Auslastung beim Parity Check. Aber für HDDs reicht das.
  2. Man könnte in den System Logs schauen (Tools), aber ich tippe einfach darauf, dass der Fantec Controller zu lahm ist. Er meldet nicht schnell genug die Existenz dieser Platten oder verliert sogar die Verbindung. Wer weiß das schon. Ich hatte schon einzelne USB Platten in Verwendung. Das ging. Aber der der Stromverbrauch war mir schlussendlich zu hoch. Ich bin da nicht fit, aber @Ford Prefect kann da bestimmt was zu sagen. Und zwar wäre meine Idee eine SAS Karte mit externem Anschluss. zB so eine: https://www.amazon.de/10Gtek-Externer-Express-SAS2008-9200-8E/dp/B01M9GRAUM/ Dein selbstgebautes Gehäuse wird dann mit diesem Kabel intern versehen, so dass nur ich sage mal 1m von dem SAS Kabel raushängt: https://www.amazon.de/CableDeconn-Stecker-Verriegelung-Controller-Backplane-8088-4-SATA-2M/dp/B07M8PTFZM/ Auf die Art könnte man zwei externe Gehäuse mit jeweils 4 Platten haben. Oder man holt sich ein Gehäuse mit integrierter SATA Backplane mit SAS Anschluss. Dann könnte man SAS auf SAS Kabel verwenden. Das wird aber nicht billig und die SAS Karte braucht auch nicht wenig Strom. Die Alternative wäre eSATA. Aber eSATA ist nur ein SATA Port. Man könnte bei Installation einer entsprechenden SATA Karte einen Port Multiplier im externen Gehäuse nutzen, aber die Performance ist bei mehr als 2 HDDs schon schlecht. Ich nutze dieses Prinzip in meinem Backup NAS. Siehst du in dem Video: https://forums.unraid.net/topic/97477-jäger-der-verlorenen-festplatte/ Oder vielleicht Thunderbolt, dürfte aber noch viel teurer sein.
  3. Nein. Die verbraucht nur 2 bis 4W. Wenn du einen JMB585 auf der Karte hast, dann liegt die Performance bei ~300 MB/s pro Port.
  4. Ja, muss man im BIOS für jeden einzelnen SATA Port aktivieren.
  5. Das waren die Grundeinstellungen. Ich habe da nichts geändert.
  6. Na toll. Total gefreut und der MikroTik versagt auf ganzer Linie. Keine 10G, sondern nur 5G bis zu meinem Client (keine 10m CAT7 Kabel dazwischen). Ich habe auch schon das Modul und das Patchkabel gewechselt. Sind aber immer nur 5G. Wenn ich 10G erzwingen will, baut er keine Verbindung auf.
  7. Eigenlob stinkt und so, aber man ist mir die Halterung gut gelungen. Wenn man den Switch reindrückt, machts kurz "Klick" und er ist "eingehakt". Und obwohl das PLA ist, ist das sogar recht stabil geworden.
  8. Mit Parsec gehen "unendlich" Hz. Allerdings müssen Host und Client beide die selbe Bildrate haben und der Encoder / Decoder diese FPS auch verarbeiten können. Das machst du nicht mit einer GT 710 und der Client auch nicht mit einer Intel iGPU. Nur wird man niemals ein 1:1 144 Hz Erlebnis haben. Schlussendlich ist ja Parsec nicht anderes als eine Capture Software.
  9. Du willst ein Spiel über alle 3 Monitore spielen? Das kann Parsec bestimmmt nicht. Zwei Monitore sind außerdem bereits aufpreisfpflichtig: https://support.parsec.app/hc/en-us/articles/360044662851-Second-Screen-Dual-Monitor-Mode-
  10. Found the formatting for multiple adapters: https://forums.unraid.net/topic/69103-smb-multichannel-still-experimental/?tab=comments#comment-896009
  11. Those commands work without reboot. You only need to add them to the smb-extra.conf and execute "samba restart". But you need to replace: 10000000000 against: 1000000000 if you're using an 1G adapter. But this won't help much as ViceVersa does not use multiple threads. But it will help if you have other background connections to Unraid. Do you need the 1G connection? If not, don't use it. I never tested multiple adapters, but you need to add the IP of the specific adapter.
  12. Then they will use SMB Multichannel and if both network adapters support RSS, they will even use this, too. Because its the default: https://docs.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2012-r2-and-2012/dn610980(v=ws.11) This is the only "magical" difference between win2win and win2unraid. And if you don't use a direct disc path as your target you additionally suffer from the SFHS overhead.
  13. You could speed up the process a little bit by enabling this option ( I did not, only selected for this screenshot ) Sadly they never added multi threading: https://www.tgrmn.com/web/forum/viewtopict1888.htm
  14. I have only two lines to enable SMB Multichannel and RSS, but both aren't needed. It's only a bonus. Is it possible to access your PC remotely? I like to see what you are doing and how your paths / settings look like while you suffer from the low performance. Maybe I find your problem. If this is ok for you, PM me. Here is the proof:
  15. Yes. But this tweak works only with VMs, because a VM is one huge file which can't be splitted across multiple disks. All other paths in Unraid link to shares which theoretically can target multiple files on multiple disks. So they can't be internally replaced by a direct disk path. I'm using the same tweak for multiple containers, but it works only for those paths which permanently target the same disk. Like my appdata Share with "Prefer" cache setting, which is by that permanently located on /mnt/cache/appdata, so I can bypass SHFS. But if I would change the appdata cache to "Yes" and start the mover, all my docker containers would be broken. That's why Unraid itself can't implement this "improvement" by default. The only solution is to optimize SHFS. And as I proposed, they should start with the FUSE_MAX_PAGES_PER_REQ. I have a good feeling about that.
  16. Ok, this means you don't have SMB multichannel enabled. This is valid for win2win as well?
  17. Which is no improvement. It's bypassing.
  18. You mean a Windows VM as the target on the Unraid server, while still using ViceVersa? Or using a different tool or different machine? I suppose Windows to Windows automatically uses SMB Multichannel which will be multi threaded if both network adapters support RSS. While transfering you can check this and compare the results between win2win and win2unraid by opening Powershell as Admin and then execute the following: Get-SmbMultichannelConnection -IncludeNotSelected If you get a result = Multichannel is enabled If "Client RSS Cabable" is true = RSS is enabled = Multi Threading is active I started creating 1M random files with this command: share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {1..1000000}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done Maximum write speed to my SATA SSD is 1 to 3 MB/s. I stopped it and repeated it with these four commands in four different terminal windows: share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {1..250000}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {250001..500000}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {500001..750000}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {750001..1000000}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done Now maximum write speed is 9 to 19 MB/s. Multi Threading is king.
  19. I still think its related to your setup or settings or paths. Here is a test of mine: 5000 random sized files, transfered in 60 seconds
  20. Wenn du die selbe Datei 2x auf den Server hochlädst, dann solltest du einen Unterschied sehen. Aktuell habe ich eine SATA SSD als Cache verbaut. Daher kann man es super beim Download sehen: 1. Download 2. Download (das schafft die SATA SSD gar nicht) In deinem Screenshot beim Upload der Dateien kann man das meine ich auch erkennen. Zu Anfang boostet der RAM und nach ca 30 Sekunden wird er entleert, was kurz parallele Last auf SSD und CPU verursacht und sich dann wieder stabilisiert: Das kann durchaus am Mac liegen. SMB ist ja ein Windows Protokoll. Vielleicht wird auch eine andere SMB Version genutzt. Was du in jedem Fall klappen sollte ist das wiederholte Hoch- und Herunterladen einer zB 500 MB großen Datei. Die muss spätestens beim 3. Versuch komplett in oder aus dem RAM des Servers kommen.
  21. I don't think the SHFS overhead will be solved by a newer kernel.
  22. Correct, but Transcoding with Subtitle Burn-In produces more CPU than iGPU load. Compare my last screenshot with this 4K to 1080P transcoding incl Tone Mapping but without PGS Burn In: As you can see the CPU load dropped from ~120% to ~20% and the GPU load raised from ~10% to ~60%. So I thought I could realize PGS Burn In Support by using a CPU with more Single Thread performance, but suprisingly it's exactly the same low performance.
  23. SMB Multichannel wird noch lange dauern, bis das von Haus aus integriert ist. Der SHFS Overhead von Unraid bleibt auch in Version 6.9.3. Der Support gibt aktuell keinen Feedback zum Stand. Also ob die da nun dran arbeiten oder nicht. Meine letzte Idee blieb leider auch unbeantwortet. Bedenke, dass ein Teil der Datei im RAM gepuffert wird, sobald man sie das erste mal herunterlädt. Also besser im Wechsel verschiedene MKVs herunter bzw raufladen, sonst testest du nur die Performance vom RAM. Vom Prinzip ist es simpel. Kauf dir mehr RAM und erhöhe mit dem Tips & Tweaks Plugin den Schreibpuffer auf 50% deines RAM. Ich weiß RAM ist teuer, aber umso mehr, umso mehr Performance.
  24. Ugpraded to Version 0.4 # - reset undervolt installation method # - check install file integrity
  25. I upgraded my CPU to i3-9350K. Exactly the same result as with the i3-8100, which does not make really sense to me: 4K to 1080p with PGS subtitle burn in, but without Tone Mapping - 3D and Video Load stays low - CPU stays at 120% - tested only 1 movie, judder every 40 seconds Plex really needs to optimize their software.
×
×
  • Create New...