Johnny4233

Members
  • Posts

    38
  • Joined

  • Last visited

Everything posted by Johnny4233

  1. Getting the same... is there any solution?
  2. Hi, getting some trouble too. i was using the docker container for tail scale. was working flawless. since a few days it stops working. I switched to this plugin version. same problem. i connect 2 unraid server together. then I want to mount a share with unassigned devices. Ping Unraid <-Tailscale-> Unraid works good. connection ok. But unassigned devices say, mount point is offline... in network settings, I set the network extra "tailscale0"... but there seems a setting I missed? the past 1 year it was working good. any idea? 🙂
  3. Hi, getting some trouble too. i was using the docker container for tail scale. was working flawless. since a few days it stops working. I switched to this plugin version. same problem. i connect 2 unraid server together. then I want to mount a share with unassigned devices. Ping Unraid <-Tailscale-> Unraid works good. connection ok. But unassigned devices say, mount point is offline... in network settings, I set the network extra "tailscale1"... but there seems a setting I missed? the past 1 year it was working good. any idea? 🙂 Edit: Netbios is off tryed the extra smb conf NASty-tailscale-diag-20240306-213055.zip
  4. that was it. Thank you. a quick question. There was a standard device script in the folder to get notifications when mounting is done or not. I don’t find the .sh script anymore. Was it deleted by accident? Where can I find it? Regards
  5. disabled it. not working 😞 Here 🙂 Thank you nasty-diagnostics-20230622-1541.zip
  6. Hi, getting trouble since upgrade to latest unraid with booth unraid servers. I want to mount a remote share connected via tailscale. connections between servers are active and ping is ok. log says: Jun 21 14:00:50 NASty kernel: CIFS: VFS: Error connecting to socket. Aborting operation. Jun 21 14:00:50 NASty kernel: CIFS: VFS: cifs_mount failed w/return code = -111 Jun 21 14:00:50 NASty unassigned.devices: SMB 1.0 mount failed: 'mount error(111): could not connect to 100.72.40.79Unable to find suitable address. '. Jun 21 14:00:50 NASty unassigned.devices: Share '//100.72.40.79/backup_jan' failed to mount. I deleted the share and add it again, reinstalled tailscale and rebooted server. No solution for now?
  7. hi, thank you for this. I managed to get this up. Works good for me. only one thing is left: I can extract the backups to an specific unraid location. but if I try to mount from a repo, the files are accessible in the docker container shell, but I can not see it in unraid file system. device dev/fuse in docker template is set, and the folder is mounted to the container. anything I forgot? regards Jan
  8. Nachdem gestern noch ein Update für ud preclear kam, konnte ich das Plugin wieder installieren und nun läuft das Script auch im Hintergrund und auch bei einem reboot des systems genauso wie ich es gebraucht habe.
  9. Seems to be working good with the older tmux version. Great. Thank you 🙂
  10. No I mean, any userscript did not run in background… in log it shows that it will execute it, but then the error message above appears and the script does not run. It’s a simple mounting script for unassigned devices… look at my other thread here.
  11. Naja, wann ich das Update für ud preclear gemacht habe weis ich nicht. Mir ist das Problem nur heute aufgefallen, da das Script im Hintergrund nicht lief und durch ein wenig googeln und hier stöbern dann rausgefunden hatte, dass das Plugin wohl den Fehler verursacht hat. Naja wie gesagt, habe das Plugin erstmal entfernt und neu gestartet. So oft brauch ich preclear nun nicht, das ich drauf verzichten kann erstmal. So kommen keine Fehler mehr und die Scripte laufen.
  12. So i deleted the UD Preclear plugin. Reboot... Error does not come up and my userscript runs fine. Thank you. I hope Unraid 6.11-rc1 fixes this 🙂
  13. Did that allready. Removed and installed the plugin again. the message apperas again. So i think this message is not so terrible? i need to wait for Unraid 6.11-rc1?
  14. Jul 11 15:24:00 NASty atd[18576]: PAM unable to dlopen(/lib64/security/pam_unix.so): /lib64/libc.so.6: version `GLIBC_2.34' not found (required by /lib64/libresolv.so.2) Jul 11 15:24:00 NASty atd[18576]: PAM adding faulty module: /lib64/security/pam_unix.so Jul 11 15:24:00 NASty atd[18576]: Module is unknown Ich erhalte im Log sehr oft den oben genannten Eintrag. Was hat das zu bedeuten und wie kann ich das beheben? Reboot hat nicht geholfen. Gruß Jan
  15. Das Script funktioniert nur wenn es NICHT im Hintergrund läuft. Wenn es im Hintergund laufen soll, passiert nichts. Im Log steht: Jul 11 15:44:44 NASty emhttpd: cmd: /usr/local/emhttp/plugins/user.scripts/backgroundScript.sh /tmp/user.scripts/tmpScripts/mountShareLennart/script Jul 11 15:44:44 NASty atd[23459]: PAM unable to dlopen(/lib64/security/pam_unix.so): /lib64/libc.so.6: version `GLIBC_2.34' not found (required by /lib64/libresolv.so.2) Jul 11 15:44:44 NASty atd[23459]: PAM adding faulty module: /lib64/security/pam_unix.so Jul 11 15:44:44 NASty atd[23459]: Module is unknown #!/bin/bash #backgroundOnly=true #clearLog=true echo "Waiting for 15 seconds befor mounting..." sleep 15 /usr/local/sbin/rc.unassigned mount //100.72.40.79/backup_jan Auch läuft das Script nicht beim Boot. Ich habe die Option "At Startup of Array" gesetzt. Wie kann ich das ändern? Oder hängt das damit zusammen, das das Script generell nicht im Hintergund zu laufen scheint? Auch erscheint im log vom Script wenn ich es im vordergrund laufen lasse: Script location: /tmp/user.scripts/tmpScripts/mountShareLennart/script Note that closing this window will abort the execution of this script Waiting for 15 seconds bevor mounting... sh: -c: line 1: syntax error near unexpected token `(' sh: -c: line 1: `/bin/chmod 0777 escapeshellarg(/mnt/remotes/100.72.40.79_backup_jan) 2>/dev/null' sh: -c: line 1: syntax error near unexpected token `(' sh: -c: line 1: `/bin/chown 99 escapeshellarg(/mnt/remotes/100.72.40.79_backup_jan) 2>/dev/null' sh: -c: line 1: syntax error near unexpected token `(' sh: -c: line 1: `/bin/chgrp 100 escapeshellarg(/mnt/remotes/100.72.40.79_backup_jan) 2>/dev/null' EDIT 16:57 Uhr: Problem wohl gelöst aktuell. Das Plugin UD PreClear hat den PAM Fehler im Log verursacht. Dadurch wurden die Scripte im Hintergund nicht ausgeführt. Ich habe das UD PreClerar Plugin erstmal entfernt und neu gestartet. Danach läuft nun alles wie gewünscht. Es bleiben nur die Fehler im Script log selber. Siehe oben. Ich hoffe das Unraid 6.11-rc1 das problem mit Glibc behebt.
  16. Ok gefunden. du hast was von einem ud Tool geschrieben? Wo finde ich das? weil aktuell verstehe ich das so, das ich über das user scripts Plugin mit ein Script schreiben muss manuell?
  17. Hi, danke für die Antwort. Der Share ist ud bekannt. Ich nutze die aktuellste unraid Version. Wo genau finde ich die Erklärung die du meintest? Habe geschaut aber in den Hilfe Beschreibungen in den Einstellungen nichts gefunden.
  18. Hallo, ich mounte einen externen share per SMB. Dieser Share liegt auf einem externen Unraid Server. Die Verbindung kommt mit VPN zustande. Da ich gern Automount nutzen möchte, ergibt sich ein Problem. Wenn mein Server startet, wird der Automount bereits schon versucht, bevor die VPN verbindung steht. Heisst, das Mounten funktioniert nicht. Kann man das Automount verzögern?
  19. Hallo zusammen, mich habe per WireGuard eine server zu server Verbindung zu einem anderen unfair host aufgebaut. Per unassigned devices einen share remounted. nachts wird dann ein Backup auf den anderen Remote Share gespeichert. leider wird die VPN Verbindung geschlossen sobald irgendwann mal die dsl Leitung aufgibt/neu startet oder ähnliches. Ich muss dann übers gui den Tunnel abschalten und wieder einschalten. Dann gehts wieder. Keep alive ist Aktiv (20) Was kann man da machen damit ich da nicht immer manuell eingreifen muss? grus
  20. Hi, i refreshed the login credentials on the remote unraid server. now it works. Strange 🙂
  21. here you go. i reebootet the server again. VPN connection is ok, share shows me as online (green dot) but mounting give me an error. i checket at my friends unraid server that i have R/W rights with my user. double checked login credentials.
  22. Upgraded to rc3 of 6.10 today. i use a server to server connection over WireGuard to mount a share from my friend with unassigned devices. Latest updates… so after upgrade I cannot mount the external share. VPN Connection is ok. The share shows me as online but I Get this error when I try to mount it. The other server is at 6.9.2 kernel: CIFS: VFS: \\10.253.1.1 Send error in SessSetup = -13 Mar 11 14:27:01 NASty kernel: CIFS: VFS: cifs_mount failed w/return code = -13 with rc2 there was no problem. Any suggestions?