mgutt

Moderators
  • Posts

    11250
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. I checked my server and I don't see a process "hass", although I'm using Home Assistant, too. Please press "c". It will show the full command then. Or execute: pgrep -af hass Your shfs load is high as well. It seems you didn't change docker containers to the path /mnt/cache/appdata. Anytime something writes to /mnt/cache/user, it adds a little bit shfs process overhead. Some German information about this tweak: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/#comment-1223263 Is fail2ban present all the time, too?
  2. Das meinte ich ja mit dem i9. Irgendwann hat man so viele Kerne, dann ist es vermutlich egal. Dass der Host einen Engpass hat, wenn er zb nur noch 2 Kerne hat, kann einem ja egal sein. Das ist ja für den Nutzer keine latenzkritische Anwendung. Dann läuft eben ein Upload oder was auch immer gerade etwas langsamer. Wenn das Spiel aber auch nur ein bisschen ruckelt, ist das eine gänzlich andere Priorität für den Nutzer. Und ja, dass ist am ehesten beim Gaming ein Problem.
  3. Das würde einfach nur heißen, dass man seiner VM zu wenig Kerne gegeben hat. Der Einfluss von Host Prozessen auf nicht isolierte Kerne ist beim Spielen spürbar. Hat man also 10 Kerne und isoliert 8 für eine VM, dann ist das Gamingerlebnis besser, als wenn sich die VM die 10 Kerne mit dem Host teilt. Das liegt daran, dass mit steigender Anzahl von Host Prozessen die VM Prozesse auf die Fertigstellung der Host Prozesse warten müssen. Denn bedenke: In der Gaming VM laufen nur Spieleprozesse. Ohne Isolation wäre es so, als würde man beim Spielen parallel noch andere Sachen machen lassen. Zb ein Backup laufen lassen. Das merkt man dann auch sofort. Außer man hat einfach viel mehr Kerne als ein Spiel nutzen kann. Dann wäre ich bei dir. Vermutlich mit einem i9 der 13ten Gen braucht man sich da tatsächlich gar keine Gedanken machen und kann da alles der CPU überlassen.
  4. Warum so teure Platten oder waren die im Angebot? Wenn du beim PreClear vom reinen Nullen, also vorbereiten der Platten sprichst, kannst du dir das vom Prinzip sparen, weil genau das ja bereits passiert, wenn du das Array erweiterst. Wobei du jetzt nicht erweiterst, sondern nur New Config machen willst. Dann würde sogar nur die Parity beschrieben werden. Und dann macht Unraid keinen PreClear, sondern schreibt ja reale Daten. Entweder vertraust du den neuen HDDs oder nicht. Tust du es nicht, solltest du sie testen. Das hat aber nichts mit einem Preclear zu tun. PreClear ist wie der Name schon sagen ein Leeren der HDD, also das Beschreiben mit Nullen. Wenn du aber der HDD nicht vertraust, muss du sie stattdessen mit zufälligen Daten beschreiben lassen, die dann anschließend wieder ausgelesen und verifiziert werden. Tatsächlich besitzen die PreClear Plugins diese zusätzliche Tests. Das solltest du dann also jetzt machen, bevor du mit den Änderungen beim Array weiter machen kannst. Wenn du den neuen HDDs dann vertraust, machst du es einfach so: - SMB, Docker und VM in den Einstellungen auf Nein stellen - Tools > New Config > Preserve Pools und OK - jetzt ist das Array leer und du ordnest alle HDDs da zu, wo du sie haben willst und startest das Array. Dem Parity Slot darfst du natürlich keine Disk zuordnen, wo Dateien drauf liegen, da die vollständig überschrieben wird. Aber das hast du ja eh nicht vor. Kommt ja die neue rein. - Unraid erstellt nun die Parität - du hast eine HDD aus dem Array weggelassen, wo noch Daten drauf sind? Mit dem Unassiged Devices Plugin diese HDD nun mounten und die Daten auf die gewünschte Disk verschieben. Dabei hilft zb das File Manager Plugin. Das geht alles während Unraid die Parität aufbaut. Du musst also nicht auf dessen Abschluss warten - wenn alle Daten da liegen, wo du sie haben willst, kannst du SMB, Docker und VM wieder starten Hinweis: Hierbei gehe ich davon aus, dass du bei keinem Share die Optionen include/exclude Disks nutzt. Falls doch, müsste man die erstmal wieder auf den Standard zurückstellen.
  5. Ohne Isolation macht Pinning in meinem Augen keinen wirklichen Sinn. Ist hier eigentlich auch alles erklärt: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1023779
  6. Da steht, dass Port 33060 gebunden wird, aber danach steht was von 3306. Keinen Peil ob das normal ist. Wie sieht deine Container Konfiguration aus?
  7. Dann läuft die Datenbank nicht oder du hast einen ganz anderen Port eingestellt. Was sagen die Logs vom Container?
  8. Du hast das syslog notifier Script ja schon im Einsatz. Dann könntest du einfach in die Logs einen Fehler schreiben: while read -r device usage; do logger -t Devices "Error: $device uses $usage of the available space!" done < <(df | tr -s ' ' | cut -d ' ' -f 1,5 | grep -E '9[5-9]%$') Das dann zB 1x am Tag ausführen.
  9. Noch mal. Der Container interessiert sich nicht dafür auf welcher IP oder welchem Port er läuft. Seit wann hat ein Datenbankcontainer eine GUI?! Du sollst nichts am Datenbankcontainer ändern, sondern an deiner config. Das hier macht einfach gar keinen Sinn: Wie kommst du darauf, dass man da den Port hinschreibt?! Der Container versucht die Datenbank dann unter der Adresse zu erreichen: 192.168.1.61;port33060:33060 Das kann ja logischerweise nicht gehen. Und wenn du wissen willst welcher Port nun offen ist: nc -zvw3 192.168.1.61 33060 oder nc -zvw3 192.168.1.61 3306 oder so: telnet 192.168.1.61 3306
  10. So, man kann jetzt bei meinem Skript auch bestimmte Zeilen ignorieren.
  11. You can now add ignore strings. I already added your case and a different one which annoyed me.
  12. Da steht aber nichts davon, dass es nicht lösbar ist. Da fragt er ja nur nach wie man filter schreiben muss.
  13. Ja und nein. Aktuelle Infos dazu findest du im englischen powertop Thread.
  14. Aha. Na dann arbeite ich mal an einem supress feature. EDIT: Hast du den Link zu seiner Aussage?
  15. Die sind alle nicht normal. Im UD Plugin Thread melden. Nutzt du Stromsparmechanismen? Gibt es ein Update für dein BIOS? Eventuell hilft der Thread: https://forums.unraid.net/topic/121146-nvme-aer-corrected-error-und-pcie-bus-error/
  16. Das Fujitsu D3617 könnte evtl auch noch eine Option sein. Das hat 8x SATA und 1x M.2. Allerdings nur mit dem proprietären Fujitsu Stromstecker. Braucht man dann noch einen Adapter oder muss sich ein Original Fujitsu Netzteil besorgen.
  17. Das ist doppelt gemoppelt. powertop --auto-tune setzt diese Einstellungen bereits. Die manuellen Befehle sind nur für Leute, die kein powertop verwenden wollen bzw granularer die einzelnen Einstellungen setzen wollen. Der ist dein Hauptproblem. Der muss weg. Vermutlich die PCI Bridge der CPU. Wenn da die SAS Karte drin steckt ist das Ergebnis normal. ASPM funktioniert von unten nach oben. Können die Geräte nicht schlafen, können die Bridges nicht schlafen.
  18. Der Syntax stimmt doch im Leben nicht. Port hinter Server und dann noch Mal in der separaten Zeile?!
  19. Thanks! Repeat this command every minute or so: find /var/lib/docker -type f -not -path "*/diff*" -print0 | xargs -0 stat --format '%Y:%.19y %n' | sort -nr | cut -d: -f2- 2> /dev/null | head -n30 | sed -e 's|/merged|/...|; s|^[0-9-]* ||' Now you should know which files are permanently updated. The next step is to find which path belongs to which container: csv="CONTAINER;PATHS\n"; for f in /var/lib/docker/image/*/layerdb/mounts/*/mount-id; do subid=$(cat $f); idlong=$(dirname $f | xargs basename); id="$(echo $idlong | cut -c 1-12)"; name=$(docker ps --format "{{.Names}}" -f "id=$id"); [[ -z $name ]] && continue; csv+="\n"$(printf '=%.0s' {1..20})";"$(printf '=%.0s' {1..100})"\n"; [[ -n $name ]] && csv+="$name;" csv+="/var/lib/docker/(btrfs|overlay2).../$subid\n"; csv+="$id;"; csv+="/var/lib/docker/containers/$idlong\n"; for vol in $(docker inspect -f '{{ range .Mounts }}{{ if eq .Type "volume" }}{{ .Destination }}{{ printf ";" }}{{ .Source }}{{ end }}{{ end }}' $id); do csv+="$vol\n"; done; done; echo ""; echo -e $csv | column -t -s';'; echo ""; Now you could think about how to solve your problem. Maybe the container is writing logs inside the container volume? Or permanently writes to a /tmp dir? Then you could add this path to your container settings and link it to unraids /tmp, which is inside the RAM (and will be lost on reboot of course): Thats how I reduced my writes by 99%. But note: After reboot the paths seem to get the wrong permissions. That's why I added this to my go file: # ------------------------------------------------- # Correct wrong container path permissions on server reboot # ------------------------------------------------- mkdir -m 777 -p /tmp/nginx-proxy-manager/var/log mkdir -m 777 -p /tmp/pihole/var/log/lighttpd mkdir -m 777 -p /tmp/minecraft/paper/tmp mkdir -m 777 -p /tmp/minecraft/vanilla/tmp More information in this German thread: https://forums.unraid.net/topic/112617-ssd-abnutzung-maßgeblich-reduzieren/
  20. Nur als Info. Wenn man das File Manager Plugin installiert, kann man das direkt über die Unraid GUI öffnen und bearbeiten. Kannst du vielleicht mal posten was du eingetragen hast? alturismo hat in seinem Beispiel "mariadb" bei Server eingetragen. Das funktioniert aber nicht in jedem Docker Netzwerk. Es kann also sein, dass du da eine IP eintragen musst.
  21. Is there a special reason why you are using the proxynet network? Try to switch both to bridge to simplify your setup. And you need to find out why nextcloud is not reachable. As long you can't open Nextcloud, NPM can't reach it, too. I mean kinda logic, isn't it? Check the Nextcloud logs. Maybe they contain any errors.
  22. Error? This is your problem I think. Which Nextcloud Container are you using? You tried https. Does your container really use https on port 444?
  23. Genau das ändert rein gar nichts an dem Problem. appdata ist genau der Share, der NICHT von diesem Tool erfasst wird. Eben weil appdata Dateien mit unterschiedlichsten Rechten enthalten kann. Das könnte es lösen, weil du dann root:root eingestellt hast. Ob Privileged dann überhaupt noch nötig ist, weiß ich gar nicht. Muss man einfach mal testen.
  24. Die Parität stellt nichts wieder her (wohin auch?!), sondern erlaubt so zu tun als sei die Platte noch da. Fährst du den Server also runter, baust die Platte aus und startest neu, kannst du ohne die Platte das Array starten und dank der Parität wird der Inhalt der fehlenden Platte simuliert. Du kannst die Daten dann auch auf andere Platten verschieben/kopieren. Die ausgebaute Disk kannst du dann übrigens nicht wieder einbauen. Jedenfalls nicht ohne weiteres. Sobald du alle Dateien verschoben hast, kannst du über Tools > New Config das Array wie zuvor, nur ohne die fehlende Disk zuordnen. Die Parität wird dann neu aufgebaut. Hier auch ein paar Infos wie so eine Parität funktioniert: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1021986