Jump to content

enJOyIT

Members
  • Posts

    90
  • Joined

  • Last visited

Everything posted by enJOyIT

  1. I installled some docker apps. Do you can recommend a software for checking the usb filesystem? And do I have to shutdown the server or can it still run from RAM without the stick?
  2. Does it work if i'm backing my settings now and restore it from that? My last backup is from 6th january... Can I pull the usb stick out while it's running?
  3. The same share is working on my laptop without issues. Here is the diagnostic: unraid-diagnostics-20230212-1708.zip I see other messages: Feb 12 17:15:25 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118.local' 2>&1) took longer than 10s! Feb 12 17:15:30 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s! Feb 12 17:15:40 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118.local' 2>&1) took longer than 10s! Feb 12 17:15:44 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s! Feb 12 17:15:54 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118.local' 2>&1) took longer than 10s! Feb 12 17:16:00 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s! Feb 12 17:16:10 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118.local' 2>&1) took longer than 10s! Feb 12 17:16:15 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s! Feb 12 17:16:25 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118.local' 2>&1) took longer than 10s! Feb 12 17:16:30 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s!
  4. From today I'm not able to mount my SMB share on synology... I had a unclean shutdown this morning, I'm not sure if it is related to that? If yes, why isn't it working?! unraid 6.11.3 Feb 12 16:17:28 unraid unassigned.devices: Mounting Remote Share '//DS118/Datenbackup'... Feb 12 16:17:28 unraid unassigned.devices: Mount SMB share '//DS118/Datenbackup' using SMB default protocol. Feb 12 16:17:28 unraid unassigned.devices: Mount SMB command: /sbin/mount -t 'cifs' -o rw,noserverino,nounix,iocharset=utf8,file_mode=0777,dir_mode=0777,uid=99,gid=100,credentials='/tmp/unassigned.devices/credentials_Datenbackup' '//DS118/Datenbackup' '/mnt/remotes/DS118_Datenbackup' Feb 12 16:17:38 unraid unassigned.devices: Warning: shell_exec(/sbin/mount -t 'cifs' -o rw,noserverino,nounix,iocharset=utf8,file_mode=0777,dir_mode=0777,uid=99,gid=100,credentials='/tmp/unassigned.devices/credentials_Datenbackup' '//DS118/Datenbackup' '/mnt/remotes/DS118_Datenbackup' 2>&1) took longer than 10s! Feb 12 16:17:38 unraid unassigned.devices: SMB default protocol mount failed: 'command timed out'. Feb 12 16:17:38 unraid unassigned.devices: Mount SMB share '//DS118/Datenbackup' using SMB 3.1.1 protocol. Feb 12 16:17:38 unraid unassigned.devices: Mount SMB command: /sbin/mount -t cifs -o rw,noserverino,nounix,iocharset=utf8,file_mode=0777,dir_mode=0777,uid=99,gid=100,vers=3.1.1,credentials='/tmp/unassigned.devices/credentials_Datenbackup' '//DS118/Datenbackup' '/mnt/remotes/DS118_Datenbackup' Feb 12 16:17:39 unraid unassigned.devices: Warning: shell_exec(/sbin/arp -a 'DS118' 2>&1) took longer than 10s! I deleted the mount and recreated it, even with a new smb user... no success Any thoughts?
  5. Yes, I don't care about the files being changed because these are mostly cached files etc... Maybe you can add an option to ignore these errors, so it's possible the foldername will be without "-errors"? 🙂
  6. Hi, used the old plugin without issues and updated to the new one. It doesn't create tar files since then: [22.12.2022 06:29:08] Backing Up /usr/bin/tar: ./unifi-controller/data/db/diagnostic.data: file changed as we read it /usr/bin/tar: ./unifi-controller/data/db: file changed as we read it /usr/bin/tar: ./unifi-controller/run/mongodb-27117.sock: socket ignored /usr/bin/tar: ./lidarr: file changed as we read it /usr/bin/tar: ./syslog-ng/syslog-ng.ctl: socket ignored [22.12.2022 07:12:51] tar creation failed! disabled tar verifiying. containers are set to "don't stop" Can I use this tar file nonetheless? Just rename it from "-error" to the usual folder name? Any thoughts?
  7. May it's usefull to just shut down VM's which are using the array. Apps like unifi controller, don't really need the array to work.
  8. I'm just looking for a way to see the SAS-SMART status.
  9. +999999 Please implement the feature to run VMs/Docker without having a Array started. No joke... I would pay 100 € instant to get this feature. Let's do a kickstarter campaign? @limetech Are there any plans or did you ever discussed this feature internally? What can we do to push this? Currently I'm running unraid as a proxmox vm and the only reason for me not to upgrade, is that missing feature. But I want to run unraid on bare metal so hard...
  10. Angenommen ich habe jetzt zwei 14 TB Parity-Drives... Ich möchte ein Drive durch 18 TB ersetzen und die andere erstmal auf 14 TB lassen. Geht das ohne Probleme? Mir ist bewusst, dass die maximale Größe des Arrays von den 14 TB Parity Drive abhängt. Zu einem späteren Zeitpunkt würde ich dann die zweite Platte ebenfalls durch ein 18 TB Drive ersetzen.
  11. There is a problem showing the right disk order and showing the right assignment: Any suggestions? Thank you!
  12. I can say that the Transcend JetFlash 600 USB-Stick is a reliable (MLC chips) option aswell. UK: https://www.amazon.co.uk/Transcend-JetFlash-Flash-USB2-0-connector/dp/B002QCAN9S US: out of amazon stock DE: https://www.amazon.de/Transcend-JetFlash-Extreme-Speed-32GB-USB-Stick/dp/B002QCAN9S
  13. Hi, ich konnte mittlerweile das Problem mit Hilfe von dlandon lösen. Es lag daran, dass beim Verbinden des shares die inodes vom Server verwaltet worden und da diese sich beim Verschieben durch den mover verändern ist dann der Client durcheinander gekommen, weil er noch die alten falschen inodes im Zugriff hatte. Durch den "noserverino"-Parameter der beim mounten gesetzt wird, verwaltet der Client nun die inodes und das Problem tritt nicht mehr auf. So ähnlich habe ich es verstanden und es funktioniert auch!
  14. Ok, I will have a look and maybe upgrading to the RC (depends on the release date of the final version 🙂) Thank you very much so far!!!
  15. Als funktionierenden Workaround (danke an @dlandon) kann ich den Mount mit dem "noserverino"-Parameter verbinden (siehe das englische Forum). Anscheinend ist jetzt dadurch meine CPU-usage auf dem unraid server nach oben gegangen und steht dauerhaft bei 20%. Warum auch immer das ist. Vielleicht hat noch jemand eine Idee?
  16. Well... it seems that the "noserverino"-parameter does the job. But there is another issue now, i think it's related to this paramter. The unraid-CPU usage is stuck at 20% now... Is this a expected behaviour?
  17. Thank you for your reply! Meanwhile I was trying the same with NFS-share... But it ended up in the same issue. Is NFS using the same mechanism?
  18. Hi, ich habe schon im englischen Forum geschrieben und probiere es hier nochmal, da ich langsam bekloppt werden. Folgendes Setup: 2 x 1TB SSD Cache Pool als Raid1 und ein paar Platten im Array. Meine shares nutzen den Cache-Pool und Nachts sollen die Daten vom Cache-Pool auf das Array verschoben werden. Soweit so gut. Jedenfalls ist es so, dass beim Verwenden des Movers meine Linux Clients die Verbindung zu den shares verlieren die von der Aktion betroffen sind. Oder auch wenn ich Daten in ein share schiebe, was den Cache nutzt passiert es ebenfalls, dass die Verbindung zu diesem share verloren geht. Ich kann es zu jeder Zeit nachstellen: Ich kopiere z.B. eine Datei über Windows in das user-share und schauen gleichzeitig mit dem midnight commander auf der Linux-Maschine und irgendwas ist die Verbindung weg. Das sieht folgendermaßen aus: Meine Share verbinde ich so: //192.168.20.215/download /mnt/download cifs x-systemd.automount,username=plex,password=xxxxxxxx 0 0 Ich kann nirgends(!) auf dem Client oder in unraid irgendwas in logfiles etc. finden. Das treibt mich schon fast in den Wahnsinn. Vor allem betrifft es offensichtlich nur Linux. Wenn ich mit einer anderen Windows-Maschine das share "überwache" komme ich hier jederzeit drauf. Bin neu mit unraid unterwegs und komme von openmediavault. Ich hoffe ich bereue den Schritt jetzt nicht. Ich bin auch bereit für erweiterten Support zu bezahlen. So verzweifelt bin ich Hier der Link zum englischen Forum für weitere Infos: unraid-diagnostics-20220128-0958.zip
  19. Is there a official support email address? I'm willing to pay for support! I'm afraid that moving to unraid was a big mistake if i can't get this problem solved
  20. Sorry for spamming, but I want to keep the posts separated for chronological order... I enabled mover-logging, but still no helpful information: Jan 28 11:48:24 unraid emhttpd: shcmd (94072): /usr/local/sbin/mover |& logger & Jan 28 11:48:24 unraid root: mover: started Jan 28 11:48:24 unraid move: move: file /mnt/cache/download/nzbget/completed/xxxxxxxxx/yyyyyyyyyy.abc Jan 28 11:49:19 unraid root: mover: finished
×
×
  • Create New...