mgutt

Moderators
  • Posts

    11267
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. Sind das Container oder Plugins und wie lauten die Pfade, wo besagte Config Files liegen sollten?
  2. Wenn es keinen Unterschied gäbe, würde New Perms nicht das Problem beheben. New Perms macht ja nur das. Vielleicht mal die New Perms Kommandos von Hand verbose ausführen und schauen was geändert wurde.
  3. Echte M.2 Performance gibt es nur mit Passthrough. Das gilt übrigens für alles. Passthrough von Datenträgern, Passthrough einer USB Karte, Passthrough einer Netzwerkkarte, Passthrough von TPM, ... Jede Emulation kostet CPU Leistung.
  4. Das ist technisch leider nicht immer möglich, weil Unraid beim Upload der Datei nicht immer gesagt bekommt wie groß die Datei wird. In deinem Fall scheint das so zu sein. Wenn es dagegen ganz knapp draufgepasst hätte und nebenbei was anderes den Speicherplatz belegt hat, dann hätte Minimum Free Space geholfen. Ansonsten musst Du einen Share nehmen, der auf No steht. Wobei es auch sowieso ziemlich sinnfrei ist wegen sowas die SSD abzunutzen.
  5. Genau das. Und es gibt auch noch andere Nachteile was die Erweiterung eines Pools anbelangt. Lies mal diesen Post: https://forum.proxmox.com/threads/how-to-add-new-disk-to-zfs-pool.99902/post-433155
  6. Wenn du "das Array" auf ZFS umstellst, hast du am Ende statt x einzeln XFS formatierte Platten, eben x einzeln ZFS formatierte Platten. Du hast dadurch Null Mehrwert, weil du keine ZFS-Parität, sondern die stinknormale Unraid Parität hast. Du kannst auch keinen ZFS formatierten Pool dort replizieren. Also nicht anders, als würdest du einfach die Dateien von Pool auf Array kopieren. Man kann ja schließlich keine Snapshots über zwei verschiedene Datenträger hinweg erstellen. Auf dem Papier bietet ZFS keinen Mehrwert. Alles was ZFS kann, konnte auch schon BTRFS. Das einzige was eventuell besser läuft ist die Ausfallsicherheit bei Server-Crashes oder Verbindungsverlusten einer SSD und das wird sich erst in den nächsten Monaten zeigen.
  7. Was denn nun? Passthrough oder Netzwerk-Freigabe? Warum sollte die VM ständig von einem Netzlaufwerk lesen oder darauf schreiben? Und warum sollte das etwas sein, was speziell für Unraid gilt? Eine Netzwerk-Freigabe ist eine Freigabe. Wie Windows damit umgeht, hängt von Windows ab und nicht von Unraid. Es gibt zig Möglichkeiten, aber wenn du zwei VMs parallel laufen hast, kannst du einen Datenträger nicht beiden zuordnen. Dann geht nur eine Netzwerk-Freigabe.
  8. Nach Docker Safe Perms sehen die so aus, ja. Die Frage ist wie sie aussehen, wenn der Fehler da ist.
  9. C-State = CPU schläft in Zeitraum X für Y Prozent. VM läuft = CPU hat durchgehend was zu tun = CPU kann niemals schlafen gehen. Eventuell kann man Einfluss nehmen, in dem man der VM nur 2 Kerne zuordnet 🤷‍♂️ Dadurch wäre die Last auf 2 Kernen höher, aber die restlichen Kerne könnten evtl schlafen. Ich weiß aber nicht, ob dadurch das globale Package C-State wirklich runter geht.
  10. Darin unterscheiden sich meine ich auch die beiden Versionen. Ich weiß es auch nicht, aber einfach mal die technischen Details vergleichen: https://www.minipc.de/de/catalog/gl/88
  11. Kauf das bei einem örtlichen PC Händler inkl Montageservice: https://geizhals.de/?cat=WL-3054899
  12. It enables the power saving setting on all pcie slots, USB and SATA ports. This is a one-time setting (which gets lost on every reboot). It is the same as the custom commands in the first post. So it's nothing like a background process watching and reducing power consumption if you thought about that. The bios settings are looking good to me. Did you place the NVMe into the CPU M.2 slot? Try a Chipset M.2 slot then.
  13. Powertop itself has nothing to do with your power consumption. It only displays the states.
  14. Powertop displays only C3 if the CPU is not supported. So it probably reaches C10, but powertop isn't able to obtain this status. Recent version?
  15. Which is useless as it refers to installing MySQL inside an usual OS and not using a container. As I said. I don't think any single additional step is needed, except setting database name, login and password in the container settings and using this information in Kodi to connect to the database.
  16. Ja so. Schon was Neues dazu?
  17. Ja, wenn Docker auf Nein steht, sind diese Dateien nicht in Nutzung. Das ist mir wirklich unverständlich, wenn du nur Cache von prefer auf yes gestellt hast. Aber ist jetzt leider so und es müssen die doppelten Dateien weg, ansonsten wird das nicht mehr sauber laufen. Hatte ich schon angemerkt, dass man zumindest Backups von Appdata auf das Array machen sollte? ^^
  18. I don't think any of these steps are needed. Why should it be needed to use "GRANT"? INSERT, SELECT, UPDATE, etc are default commands which are already granted. And of course the MariaDB Container is already bound with its port to the IP address?! So what is the error message if you use the container as it meant to be?
  19. Bearbeite die XML Dateien auf dem Stick und ersetze überall /mnt/cache_nvme_protected gegen /mnt/user Danach noch mal das Kommando ausführen und schauen, dass du nichts übersehen hast. Das ist erstmal die sicherste Variante, weil er dann die Dateien findet, egal ob sie gerade auf Pool oder Array liegen. Ich weiß allerdings nicht, ob das auch über mehrere Pools hinweg gilt ( @ich777 weißt du das? ). Aber da du Dopplungen hast, musst du die sowieso zuerst lösen. Ja. Prüfe einfach 5 Dateien oder so. Es sollte sich schnell ein Bild ergeben wo die jeweils aktuellere Datei liegt. Wenn du das dann weißt, kannst du die jeweils ältere löschen. Sind das sehr viele? Dann würde ich dir da noch ein Kommando bauen. Sag mir dann nur welche Pfade betroffen sind. So auch für exakte Disknummer.
  20. Wie du siehst, nutzen mehrere Container den SSD Pool direkt. Also starten ist nicht, solange nicht dieser Pool wieder mit seinen Dateien da ist. Welche Dateien von den doppelt vorhandenen, sind denn neuer? Die auf dem Array oder die auf schreibcache?
  21. Jo, einfach Copy & Paste
  22. Ja, wobei die sich überschneiden dürfen. Also evtl gehen auch 50, wenn die Auslastung im Schnitt geringer ist. Ansonsten würde ich auch eher mehr Kerne als mehr Takt favorisieren. Ein Intel der 13ten hätte ja zb auch noch die Effizienzkerne. Ansonsten wäre mir spontan mein W-1290 eingefallen oder analog der i9-10900.
  23. Davon ist auszugehen. Auch das passiert eigentlich nur, wenn man zwischen only/no und yes/prefer im laufenden Betrieb wechselt oder eben die Containerpfade direkt auf /mnt/<poolname> eingestellt hat. Prüfen wir erst mal letzteres. Und zwar so: set -o pipefail while read -r file; do echo -e "\nSearch for non-user paths in $file:" if ! grep -F '/mnt' "$file" | grep -vF '/user' | grep -oE '/mnt/[^<"]+' | sort -u; then echo "Not found." fi done < <(find /boot/config/plugins/dockerMan/templates-user -name '*.xml') Er sollte im Idealfall überall "not found" ausgeben.