Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Für alle ist mir keines bekannt. Ich kenne es nur so: mdcmd spinup 0 mdcmd spinup 1 usw mdcmd spindown 0 mdcmd spindown 1 usw Hier ein Beispiel mit Schleife: https://forums.unraid.net/topic/12356-command-for-spinning-up-all-disks/?tab=comments#comment-121493
  2. No, they all have the same iGPU. Some have a little bit more Mhz GPU frequency. Check Wikipedia: https://en.wikipedia.org/wiki/List_of_Intel_Core_i3_microprocessors I recommend 8th/9th as you don't need to use Unraid Beta and because the 10th gen does not support ECC RAM. And there are not as many boards available. As an example there is no W480 mITX board on the market, but multiple C246 mITX (if they aren't sold out )
  3. Nutzt du powertop? Versetzt das BIOS evtl den PCIe Slot bei Nichtbenutzung in einen Schlafmodus (L1)?
  4. No, must be something regarding the pip package I think. I will change my script so it does not use it anymore.
  5. Einfach aus Interesse. Welches Modell war das, was kaputt gegangen ist?
  6. Dann würde sich eigentlich die Idee anbieten: Man bräuchte ja nur imagemagick installieren und schreibt sich ein Script, dass regelmäßig die Fotos abarbeiten lässt. Dann legt man zB 1920x1080 als Zielauflösung mit etwas reduzierter Qualit fest und fertig. Gut, kann man nicht mehr so schick ins Foto zoomen, aber will man das Original, kann man ja immer noch ins entsprechende Verzeichnis wechseln.
  7. Man muss einen Min Free Space für den Cache festlegen (Global Share Settings), der größer ist als die größte Datei, die man kopieren möchte. Der Standardwert 2000000 entspricht 2GB. Also vermutlich hattest du eine Datei kopiert, die größer war als 2GB. Oder aber und da kommt es auf die Software an, wurden mehrere Dateien gleichzeitig kopiert. Dann gilt die Summe aller Dateien. Ich rippe zB manchmal drei Blu-Rays gleichzeitig, weshalb ich "100GB" eingetragen habe. Hat man nichts oder zu wenige eingestellt und es nur ein Bit auf dem Cache frei, dann wird die nächste Datei, egal wie groß die ist, zuerst auf den Cache geschrieben und es kommt zu dem Fehler. Unraid kann das leider nicht verhindern, weil vorher nicht bekannt ist wie groß die Datei wird. Ansonsten ist aber eh die Frage ob du den Cache nicht erst mal aus lässt um die SSD während der ersten Befüllung zu schonen.
  8. Hat sich die Fehlermeldung geändert?
  9. Die hast du dann ebenfalls als SMB Share freigegeben oder anders? Ich frage weil SMB Server-Side-Copy sollte ja eigentlich gehen, wenn man innerhalb des gleichen Servers bleibt. Ist von Haus aus vorhanden. Aktuell leider schon. Die meisten machen das über einen PC oder nutzen für mobile Geräte irgendeine Cloud-Software, die dann eine App mitbringt. Aber die hat natürlich nicht mal eben so Zugriff auf das USB Laufwerk. Was ich mal überlegt habe, aber noch nicht getestet habe ist folgendes: - Apache Container mit WebDAV - dort hinterlegt man dann die Pfade /mnt/user und /mnt/remotes mit den Zielen /var/lib/dav/user und /var/lib/dav/remotes Nun könnte man jeden beliegen WebDAV fähigen Dateiexplorer verwenden um die Dateien zu bewegen. So zumindest die Theorie ^^
  10. Das haut eine lausige Einschränkung: Dh da passt gar kein mATX oder ATX Board rein
  11. ?! Du brauchst nicht "alles neuinstallieren". Was auch immer du damit meinst. Lösch einfach den Nextcloud-Container, dann nutze die App "CA Appdata Cleanup" um das Nextcloud-Verzeichnis unter /appdata zu löschen und dann installierst du den Nextcloud-Container neu. Diesmal nimmst du aber nicht den MariaDB Container als Datenbank, sondern den Postgres11 Container. Dann schau mal ob das dein Problem löst. Falls du es noch nicht gelöscht hast, dann poste mal bitte Screenshots von deinen Nextcloud-Container Einstellungen und von MariaDB. Ich würde das gerne mal selbst installieren und testen.
  12. I found your capture results here: https://forums.unraid.net/bug-reports/stable-releases/slow-smb-performance-r566/page/2/?tab=comments#comment-9639 I repeated this test as follows. At first I generated 200 random files and downloaded them on my W10 client: share_name="Music" mkdir "/mnt/cache/${share_name}/randomfiles" for n in {1..200}; do dd status=none if=/dev/urandom of="/mnt/cache/${share_name}/randomfiles/$( printf %03d "$n" ).bin" bs=4k count=$(( RANDOM % 5 + 1 )) done Then I started tcpdump as follows: tcpdump -s 200 -nn -i eth0 -w "/mnt/cache/tcpdump_$(date +'%Y%m%d_%H%M%S').cap" host 192.168.178.21 and port 445 And then I uploaded the random files to a different path. Then I opened your dump and mine and used this filter to get only the SMB errors: smb2.error.context_count == 0 And the results are completely different: Then I reviewed your dump and I found out that you are not using Windows to copy your files as your process is much more complex: At first it asks the server if the "FileGen 26139278788.bin" exists, which returns an "STATUS_NO_SUCH_FILE" error. Then it asks the server for "~vv1.tmp" which returns the "STATUS_OBJECT_NAME_NOT_FOUND" error, then it creates this tmp file and finally it renames it to "FileGen 26139278788.bin". Regarding my research "~vv1.tmp" files are created through ViceVersa. Is this correct? What do I need to set in this app to emulate your situation?
  13. Während du auf die Seite wartest? Ich meine nicht den Load, der sonst so anliegt.
  14. SMB Multichannel. It splits the transfer across all CPU cores on the client AND the server, which is a default behaviour of Windows. If the network adapters even supported RDMA, the CPU load is super low. You can see this in this video at 11:00. And compared to other operation systems, Unraid adds an overhead through FUSE/SHFS which @limetech described on the first page of this bug report. He even explained, that Unraid bypasses SHFS for VMs itself, by replacing /mnt/user paths against direct-disk access paths like /mnt/cache. I used the same trick to boost my Plex server: https://forums.unraid.net/topic/88999-unraid-tweaks-for-media-server-performance/?tab=comments#comment-898167 Of course limetech still need to find a way to optimize the SMB<>SHFS situation, but you already have multiple options to bypass SHFS by yourself. You find many ways in my guide: https://forums.unraid.net/topic/97165-smb-performance-tuning/ Regarding the bug itself: It's only a guess, but as the SMB session count explodes for small files, I would say that something like a "chunk size" between SMB and SHFS does not fit. Sadly we can't help limetech as the SHFS mount command / flags are part of the unraid source code. And another guess of me is, that the Samba process and the SHFS process(es) often use the same CPU core, so Samba is not able to fully utilize one core exclusively.
  15. Is sufficient. Must be something else. Old server had Multichannel?
  16. @TexasUnraid @Juzzotec @CS01-HS Which CPU has your server?
  17. mgutt

    [SOLVED] AppCenter

    Deaktiviere das Bonding und gibt den LAN Ports feste IPs außerhalb vom DHCP Bereich. Also zb .2 und .3. Die .2 ist dann zb die Haupt-IP vom Server. Dort hinterlegst du als DNS IP die .1, also die von der Fritz!Box. In der Fritz!Box hinterlegst du wiederum die .3 als DNS IP und als zweite die von deinem Provider. Dem PiHole Container gibst du ebenfalls die .3. Der Plan sieht dann so aus: - DNS Traffic geht über .2 an .1 und von da an .3 - ist der PiHole Container aus, dann von .2 an .1 und von da an die Provider IP
  18. mgutt

    [SOLVED] AppCenter

    Der hier hat das selbe Problem: https://forums.unraid.net/topic/99547-solved-unstable-network-losing-internet-connect/?tab=comments#comment-918862 Ich tippe daher nach wie vor auf ein NAT Problem. Also die Anfragen versuchen den Server zu verlassen, können das aber nicht, weil die zweite IP (die von PiHole) auf den eigenen Server verweist. Ich denke das Problem kann man nur lösen, in dem man zB per USB einen zweiten LAN Port nachrüstet und den dann für PiHole nutzt. Aber vielleicht haben ja noch andere eine Meinung dazu. @ich777 ?
  19. mgutt

    [SOLVED] AppCenter

    Klingt für mich wieder nach einem NAT Problem. Wobei andere das Problem dann ja auch haben müssten und gehört habe ich davon noch nicht. Nur kurz noch als Bestätigung, ob es wirklich daran liegt. Was ist, wenn du als DNS IP in Unraid 8.8.8.8 einträgst. Dann kannst du google.com anpingen oder?
  20. Ach muss es nicht 3.5 Zoll sein? Weil das Gehäuse kann ja nur 8x 3.5 Zoll und der Rest ist nur 2.5 Zoll. Wenn das reicht könnte man von Icy Box auch einen 4er oder 6er Wechselrahmen für 5.25 Zoll nehmen. Oder einen 1x3,5 + 2x2,5 Zoll. Dann hätte man 10x 3,5 Zoll und 4x 2,5 Zoll. Ist aber alles echt teuer. Die zum Schrauben sind viel günstiger.
  21. Wenn man es drauf anlegt passen wohl auch zwei 5er Käfige rein: https://www.reddit.com/r/DataHoarder/comments/5wirtp/stuffing_16_35_inch_drives_in_a_fractal_design/ Allerdings ist das ziemlicher Quark, denn wenn man nur unten links einen 5er Käfig hinpackt, hat man ja schon 8 + 2 + 5 = 15 Einschübe Und befestigt bekommt man den schon irgendwie. Nur die Frage wo man den kaufen kann. Vielleicht hier mal fragen, obwohl da "Sold Out" steht: https://www.fractal-design-shop.de/Define-R5_1
  22. mgutt

    [SOLVED] AppCenter

    Und der PiHole Container hat eine separate IP oder die selbe wie der Server? Gleiche LAN-Buchse nehme ich an? Vielleicht ein NAT Problem, da das Paket quasi auf den eigenen Server zeigt?! Ist jetzt aber eine reine Mutmaßung. Warum trägst du als DNS nicht die IP vom Router ein und hinterlegst im Router die IP vom PiHole Container? Dann musst du auch nicht jeden Client separat einstellen.
  23. mgutt

    [SOLVED] AppCenter

    Öffne mal das Unraid Webterminal (oben rechts) und setz mal einen Ping ab: ping 8.8.8.8 -c 4 Wenn das geht, dann auch so: ping google.com -c 4
  24. mgutt

    [SOLVED] AppCenter

    Das läuft. Dein Server hat scheinbar keine Internetverbindung. Poste mal deine network.cfg (über die Übersicht auf den USB Stick gehen und im Ordner config schauen). Welche Plugins / Container hast du installiert?
  25. Du hast jetzt zwar die SSD als Array-Disk verwendet, aber das ist für die eigentliche Performance irrelevant. Das muss ordentlich laufen. Daher die Frage wie die Auslastung ist. Welche Container verwendest du? Nextcloud von Linuxserver? Und welchen DB Container?
×
×
  • Create New...