Jump to content

mgutt

Moderators
  • Posts

    11,362
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. My suggestion didn't reflect my personal needs, it was a feedback as moderator of the German sub forums. If it was only a small group I wouldn't have posted it. I wasn't able to test it, but regarding your changelog I think you covered the problems with the new version perfectly. We will see in the next days if some long-time users don't like it 😅 Next step is to get more attention for this feature request as it is another thing which happens frequently to new users.
  2. I like this feature request and of course it should be available for plugins, too. Maybe there is a way to count those installations on unraid servers only.
  3. My internet connection received a new IPv6 prefix. The container did not show the new prefix, so I restarted the docker service. After that the new IPv6 prefix was visible in the containers br0 ip settings, but then I was not able to start the container: docker run -d --name='npm' --net='br0' --ip='192.168.178.8' --ip6='2001:e1:a711:1911::8' -e TZ="Europe/Berlin" -e HOST_OS="Unraid" -e 'TCP_PORT_81'='81' -e 'TCP_PORT_80'='80' -e 'TCP_PORT_443'='443' -e 'DB_MYSQL_HOST'='172.19.0.3' -e 'DB_MYSQL_PORT'='3306' -e 'DB_MYSQL_USER'='npm' -e 'DB_MYSQL_PASSWORD'='npm_100' -e 'DB_MYSQL_NAME'='npm' -v '/mnt/cache/appdata/npm/data':'/data':'rw' -v '/mnt/cache/appdata/npm/letsencrypt':'/etc/letsencrypt':'rw' --memory=1G --no-healthcheck 'jc21/nginx-proxy-manager' a0097056ed2b4ff87a3be79c5f5f23fb40fee4baf05cd35a922d340dd42c9643 docker: Error response from daemon: Address already in use. The command failed. My unraid server runs on 192.168.178.9 so its not related the port, it must be related to the IP. I was able to verify that because starting the container with 192.168.178.10 (and ::10 ipv6 interface id) was no problem. How does Unraid / docker check if an IP is already in use? I tried netstat, but it looks normal to me: netstat -tulnp | grep 443 netstat -tulnp | grep 80 tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 7393/nginx: master tcp6 0 0 :::80 :::* LISTEN 7393/nginx: master udp6 0 0 fe80::b62e:99ff:fea:123 :::* 1905/ntpd udp6 0 0 fe80::b62e:99ff:fea:546 :::* 1826/dhcpcd Finally I restarted the server, which solved the issue, but next time I really like to know how to analyze the problem.
  4. mgutt

    Cache Umzug

    Ok, das geht natürlich auch ^^ Dann ist soweit nichts falsch gelaufen, sondern der Container hat sich einfach auf den alten Pool neu installiert. Also nach Änderung des Pfads auf den neuen Cache nutzt er wieder die alten Daten.
  5. mgutt

    Cache Umzug

    So etwas passiert, wenn man: a) den Cache Pool gegen einen leeren ersetzt und Docker startet, denn da in dem leeren Cache Pool keine Dateien liegen, installiert Docker alle Container neu. b) den Cache auf "only" stellt und die Docker Dateien noch im Array liegen. Durch "only" ist es Docker dann verboten auf das Array zu schauen und installiert auch in diesem Fall alle Container neu, da der Cache Pool keine Dateien enthält. c) Du hast rsync ausgeführt, aber die Quelldateien nicht löschen lassen. Je nachdem was passiert ist, müsste man nun anders vorgehen um seine Dateien zu retten. Da ich davon ausgehe, dass die Dateien auf dem alten Cache vertrauenswürdiger sind, würde ich die Dateien auf dem neuen Cache überschreiben: cp -rf /mnt/cache_alt/appdata /mnt/cache_neu/appdata Und dann die alten löschen: rm -rI /mnt/cache_alt/appdata Bevor du nicht 100%-tig alles verschoben hast, darfst du den Docker Dienst nicht starten! Und natürlich solltest du wieder alles auf "Prefer" stellen. Ich habe in der FAQ nicht ohne Grund geschrieben, dass "only" und "no" nichts für Anfänger ist. Auch hier kann es sein, dass die Datei bereits am Ziel vorhanden ist. Check deine Logs. Der Mover gibt in dem Fall Fehler aus.
  6. mgutt

    Cache Umzug

    Der Mover Button ist inaktiv, das Array kann nicht gestoppt werden mit dem Hinweis, dass der Mover läuft und du siehst Lesen auf der SSD und Schreiben auf den HDDs. Also viel mehr kann eigentlich gar nicht angezeigt werden, dass der Mover aktiv ist. Du kannst dich auch nicht über die Dauer beschweren und dann einen Balken fordern. Alleine das Zählen der Dateien und summieren der Dateigrößen würde je nachdem länger dauern als das Verschieben als solches. Kennt man zb von Windows wo erst kalkuliert wird, bevor der Verschiebeprozess startet. Und diese Funktion wäre nur für den Fall, dass man den Mover manuell anstößt. Ich mein wer macht das schon außer er wechselt den Pool? Ich habe das dass letzte mal gemacht als ich die SSD ersetzt habe. Also 1x seitdem ich Unraid verwende. Ansonsten läuft der Mover einfach nach Zeitplan. Wenn man wissen will was der Mover macht, kann man die Mover Logs aktivieren. Das wird den Vorgang aber deutlich verlängern, weshalb das standardmäßig deaktiviert ist.
  7. mgutt

    Cache Umzug

    Dann ist der Docker Dienst nicht deaktiviert. Der Mover bewegt nur Dateien, die nicht in Verwendung sind. Alles andere würde dir die Anwendungen zerschießen. Wenn du das manuell zerschießen möchtest, hält dich keiner auf. Sag aber nachher nicht, dass es Unraid verursacht hat. Ist schon lustig etwas zu kritisieren und dann festzustellen, dass der Mover nichts anderes als ein Script ist, dass rsync startet 🙊 Er braucht nur deswegen länger, weil er erst sicherstellt, dass die Datei nicht in Verwendung ist.
  8. Don't know if this works for searching files through SMB: https://forums.unraid.net/topic/4351-cache_dirs-an-attempt-to-keep-directory-entries-in-ram-to-prevent-disk-spin-up/
  9. It compares filesize and timestamps before transfering them.
  10. Niemand versteht das am Anfang. Das liegt nicht an dir. Ich habe dazu damals auch erst gegoogelt. Wie es scheint wird er aber die Partitionen in Zukunft standardmäßig ausklappen lassen. Kleiner Erfolg 😁
  11. mgutt

    Cache Umzug

    Korrekter Weg: - Shares zurück auf cache_ssd stellen - Cache auf Yes - Mover starten, der nun von cache_ssd auf Array verschiebt - nun den Shares cache_raid zuweisen - Cache auf Prefer - Mover starten, der nun von Array auf cache_raid verschiebt Der Mover kann nicht zwischen Pools verschieben und er ist bei No und Only nicht aktiv. Siehe auch: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565 Keine Ahnung welches Feedback hier erwünscht ist. Der Mover arbeitet schließlich bei allen Shares und jeder Share kann einen eigenen Cache Pool haben. Und wenn er wie hier nichts zu tun hat, ist er eben sofort fertig.
  12. Only external players in rare cases, so I think this was related to the internet connection. Yes, I saw those message. It seems only to happen after a long playing time and it happens even with only 2 players online. It's a little bit strange because the CPU should have enough single thread performance I think. I will post an update if I ever reach 10 players ^^
  13. You could try the following: Open a web terminal and execute the following: dd if=/dev/sda of=/dev/null bs=128K iflag=count_bytes count=10G Open a second web terminal and execute the same again: dd if=/dev/sda of=/dev/null bs=128K iflag=count_bytes count=10G By that we are stressing the usb flash drive so it becomes slower if something tries to write to it. Open a third web terminal and execute our monitoring command: while true; do lsof /boot/config/domain.cfg; done; Now wait. The idea behind it is, that updating the domain.cfg takes a little bit more time so lsof will be able to catch it. With this method I was able to catch file updates through nano which was not possible without the stressing dd processes:
  14. I tried to build audit: https://unix.stackexchange.com/a/502900/101920 But I'm getting this error: configure: error: libcap-ng libraries found but headers are missing It went further after upgrading the package: https://slackware.pkgs.org/14.2/slackware-x86_64/libcap-ng-0.7.7-x86_64-1.txz.html But finally failed: gcc -DHAVE_CONFIG_H -I. -I../../.. -I../../.. -I../../../lib -I../../../auparse -W -Wall -Wundef -D_GNU_SOURCE -fPIE -DPIE -O2 -fPIC -c -o audispd_zos_remote-zos-remote-plugin.o `test -f 'zos-remote-plugin.c' || echo './'`zos-remote-plugin.c zos-remote-plugin.c:39:10: fatal error: lber.h: No such file or directory 39 | #include <lber.h> | ^~~~~~~~ compilation terminated. make[4]: *** [Makefile:456: audispd_zos_remote-zos-remote-plugin.o] Error 1 make[4]: Leaving directory '/tmp/SBo/audit-2.3.6/audisp/plugins/zos-remote' make[3]: *** [Makefile:382: all-recursive] Error 1 make[3]: Leaving directory '/tmp/SBo/audit-2.3.6/audisp/plugins' make[2]: *** [Makefile:540: all-recursive] Error 1 make[2]: Leaving directory '/tmp/SBo/audit-2.3.6/audisp' make[1]: *** [Makefile:437: all-recursive] Error 1 make[1]: Leaving directory '/tmp/SBo/audit-2.3.6' make: *** [Makefile:368: all] Error 2 Maybe someone can give me a hint?
  15. a) enable unix extensions in the SMB settings of the Synology NAS or b) mount unraid on your Synology NASand execute the script on the Synology NAS
  16. The users don't understand that they needed to click on the button at all. I don't think the tool tip solves this. Maybe the first mount button is renamed to "partitions" and this collapse the partitions, so you could remove the + button at all?!
  17. My Minecraft server has a cpu load of around 30% and memory usage of around 2GB: Is this the usual load? I wonder because there are only 3 players online. Does it mean 10 players will overload it?
  18. Also mit dlandon komme ich einfach nicht klar. Der ist immer so abweisend: https://forums.unraid.net/topic/92462-unassigned-devices-managing-disk-drives-and-remote-shares-outside-of-the-unraid-array/page/242/?tab=comments#comment-1012970 Ich hatte schon mal eine Diskussion wegen den SMB Timeouts mit ihm und da wollte er auch nichts anpassen. Naja, mehr als vorschlagen kann ich nicht. Liegt in seiner Macht das anzupassen.
  19. Würde dann bei den System Devices direkt unter/über der GPU als Eintrag auftauchen. Gilt auch für Audio: Da steht dann überall Nvidia dran. Das alles muss an VFIO gebunden und auch alles an die VM durchgeschliffen werden. Die verursacht dann ein Piepen auf dem Mainboard-Speaker? Dann sollte denke ich was in den System Logs von Unraid zu sehen sein.
  20. A user and for sure a German user, does not read in the (English) forums while using Unraid. It's hard to read an English help text, if you a) don't speak English and b) don't know how to display it. I don't really understand why typing the word "yes" isn't challenging enough, but this is your design decision. I think an user-interface should be self-explaining. P.S the same is valid for the +-button. The question regarding "missing partitions" is recurring as well. I propose to collapse it by default (changeable through the settings) and to solve the format button issue: Link it with the UD settings page as follows: http://tower/Settings/UnassignedDevicesSettings#:~:text=Destructive%20Mode
  21. Das heißt du hattest zum Zeitpunkt von deinem 1. Beitrag gar keinen Monitor angeschlossen gehabt?! Wie wolltest du denn jemals erfahren, dass die GPU überhaupt läuft?! 🤔 Und wozu brauchst du dann überhaupt die GPU? Der ganze Server? Sehr ungewöhnlich. Hattest du nach dem binden an VFIO den Server neu gestartet? Gab es von der GPU auch einen USB Eintrag, den du an VFIO gebunden hast? Ist die iGPU im BIOS als primäre GPU ausgewählt (und nicht die Nvidia GPU)?
  22. Das ist im Ergebnis auch irrelevant. Sobald der Mover arbeitet, gelten die selben Regeln als hätte man keinen Cache. Also hätte ich jetzt den Cache deaktiviert, hätte er über SMB ebenfalls auf die falsche Disk geschrieben. Wenn du dir nicht erklären kannst warum der Share-Ordner und der Unterordner auf disk11 erstellt wurde, dann weiß ich tatsächlich auch nicht was da passiert sein kann. Ich mein warum gerade disk11 und nicht zB disk8, wenn es ein "Schluckauf" war. Du sagst ja selbst, dass auf den anderen Disks noch etwas Platz war. Lässt sich jetzt natürlich nicht aufklären. Außer du kopierst noch mal und ziehst den Stecker von disk6 ^^
  23. Häh? Ja in dem du einen Monitor bei der GPU anschließt? Hast du etwa keinen angeschlossen?! PS bitte immer mit einer neuen VM anfangen. Beim Erstellen einer VM erstellt Unraid ein virtuelles Mainboard/BIOS und ich weiß nicht wie lustig es das findet, wenn auf einmal eine GPU fehlt.
  24. Und geht es jetzt oder immer noch nicht? Was sagen die VM Logs? Wobei die GPU ja in Linux angezeigt wird, wie du sagst. Teste vielleicht mal mit Ubuntu und/oder wirf mal testweise die virtuelle GPU raus (VNC) um die GPU als primäre Ausgabe zu erzwingen?! Auch die Frage ob die ROM passt. Da steht ja PNY und die ROM Asus?!
×
×
  • Create New...