Jump to content

mgutt

Moderators
  • Posts

    11,372
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Nice idea. How much CPU load does it produce?
  2. This is something related to the user scripts plugin which is a really old bug: https://forums.unraid.net/topic/48286-plugin-ca-user-scripts/?do=findComment&comment=881200 Please post results of these commands: lsblk df -h
  3. Wenn du im Safe Mode bootest, kommst du immer noch nicht auf die GUI?!
  4. Ich sagte Safe Mode und nicht GUI 😉 Im Safe Mode starten und dann über die GUI die problematischen Plugins löschen. Also vermutlich erstmal MyServers und nachdem was du jetzt noch als Fehler gepostet hast, wohl auch das USB Plugin.
  5. Klingt nach MyServers. Spontan würde ich sagen ohne Plugins, also im Safe Mode booten. Entweder direkt beim Booten auswählen oder die syslinux.cfg so bearbeiten, dass menu default im Safe Mode Abschnitt steht. Siehe auch: https://forums.unraid.net/topic/49943-make-default-boot-gui-mode-62/
  6. Aber diese Zerotier IP geht, wenn dein Client lokal im selben Netzwerk verbunden ist? Klingt komisch, weil der Traffic dann doch auch durch den Tunnel gehen sollte 🤔 Und dein Server hat nicht einfach nur eine Weiterleitung drin? Also zb weil du eine MyServer Domain registriert hast?
  7. Ist dein Client denn auch im Zerotier Netzwerk online und freigegeben?
  8. Ich tippe genau auf diese Regel. Vielleicht weil der Ordner selbst root gehört? Check mal die Rechte: ls -lah /mnt/user Bei mir (Unraid 6.9) gehören die nobody:user
  9. @ich777 Schon mal davon gehört, ob ein anderer Treiber das selbstständige Hochfahren bei Dell PERC H730P verhindert?
  10. Gibt es die Datei noch? Wenn Windows installiert ist, kannst du das Laufwerk aber sowieso entfernen.
  11. Wenn du das ausführst, zeigt es eine fehlerhafte SMB Config an: testparm
  12. Ja, aber nur bei den PCIe Slots. Der Chipsatz ist 4.0:
  13. Released v1.4 with the following new features: 1.) The script can be now called with source and destination path as arguments Example: /usr/local/bin/incbackup /src_path /dst_path 2.) If the source path is set to /mnt/*/appdata it will automatically stop all running docker containers and restart them after the backup has been created (results consistent container backups). 3.) If the source path is set to /mnt/cache/appdata or /mnt/diskX/appdata, the script will create a snapshot to /mnt/*/.appdata_snapshot before creating the backup. This reduces docker container downtime to several seconds (!). 4.) The script tries to test if the destination path supports hardlinks (needs feedback). The following new warnings have been added to the first post of this thread:
  14. In der Theorie sollte ein 13000 auch auf einem Z680 oder W680 Chipsatz laufen oder nicht? Dann hätte man es zumindest auf PCIe 4.0 limitiert. Neu und Linux? Wer macht denn sowas 😅 Ne, habe also noch nichts dergleichen in der Hand gehabt.
  15. I prefer creating backups of my PCs without installing additional software, so I came up with this solution: Step 1 Add a new local user "backup" to all of your PCs (How-To: Windows, Mac) Step 2 On those PCs, share all folders which should be part of your backup (How-To: Windows, Mac) and add the user "backup" with "read-only" (important against Ransomware). Note for windows: Sharing C:\users\<username> is possible, but if you share only specific folders - like Pictures, Documents or Desktop - the backup will be done much faster. Step 3 Change the settings in the following script and execute it by the user scripts plugin every X hours: #!/bin/bash # settings smb_user="backup" smb_pass="<password>" mount_path="/mnt/remotes" backup_cmd="/usr/local/bin/incbackup" backup_dst_path="/mnt/user/Backups" backup_computernames="(^desktop-|-pc$|-laptop$|-notebook$)" # check if NetBIOS daemon is enabled (is required to use nmblookup) if [[ ! -f /var/run/nmbd.pid ]]; then echo "Error: NetBIOS must be enabled in the SMB Settings" exit 1 fi # obtain workgroup workgroup=$(testparm -sl --parameter-name=workgroup 2>/dev/null) # loop through all members of workgroup while IFS= read -r hostname; do echo "Found host $hostname" # find PC by name if ! echo "$hostname" | grep -qiP "$backup_computernames"; then echo "$hostname is not a PC (skip)" continue fi # online check if ping -c1 -W1 "$hostname" >/dev/null 2>/dev/null; then echo "online" # check smb port if timeout 1 bash -c "</dev/tcp/$hostname/445" 2>/dev/null; then echo "smb port open" # obtain shares while IFS= read -r share; do echo "found share $share" # check auth if smbclient "//$hostname/$share" -U "$smb_user%$smb_pass" -d0 -c ls >/dev/null; then # mount share [[ -d "$mount_path/$hostname/$share" ]] && mkdir -vp "$mount_path/$hostname/$share" echo "mount share" if ! mount -t cifs -o username=$smb_user,password=$smb_pass,iocharset=utf8 "//$hostname/$share" "$mount_path/$hostname/$share"; then echo "Error: Could not mount //$hostname at $mount_path/$hostname!" continue fi echo "Successfully mounted //$hostname/$share at $mount_path/$hostname/$share" # create backup [[ -d "$backup_dst_path/$hostname/$share" ]] && mkdir -vp "$backup_dst_path/$hostname/$share" $backup_cmd "$mount_path/$hostname/$share/" "$backup_dst_path/$hostname/$share" # unmount share umount -l "$mount_path/$hostname/$share" echo "Unmounted $mount_path/$hostname/$share" else echo "Error: Insufficient permissions to access //$hostname/$share" fi done < <(smbclient -L "//$hostname" -U "$smb_user%$smb_pass" -d0 -g | grep -oP '(?<=\|)[^|]+(?=\|)' | grep -v '\$$') else echo "smb port closed" fi else echo "offline" fi done < <(nmblookup -S "$workgroup" | grep -oP '[^ \t]+(?=.*<20>)') How does it work - obtains current workgroup (NetBIOS must be enabled in SMB settings!) - searches for all PCs that are part of this workgroup - checks if those PCs are online - checks if the SMB port is open - tries to login with the user "backup" - mounts those PC shares as local Unraid paths - executes backup command - unmounts PC shares It does not identify your PC? Consider changing the PC name or the following setting in the script: backup_computernames="(^desktop-|-pc$|-laptop$|-notebook$)" It means that the computer name: - starts with "DESKTOP-" or - ends with "-PC"or "-LAPTOP" or "-NOTEBOOK" For example Windows automatically names new PCs in the format "DESKTOP-<random_id>", but I prefer renaming my computers to "JOHN-PC". Note: I didn't tested it with Mac, but I would wonder if it wouldn't work there, too. Example-Backup This is how it looks on my server: As you can see, the folder is named "MARC-PC", which is the name of my PC. Of course it depends on your used backup command how backups are created. Note: The Unraid share "Backups" shouldn't be available through the network (this respect the pc owners privacy and protects it against ransomware!).
  16. Container in unterschiedlichen Netzwerken können sich nicht an Hand des Namens finden.
  17. In der Übersicht auf das Disk-Symbol klicken. Dann geht ein Pop-up der jeweiligen Disk auf.
  18. Die CPU und das Board sollten auch 128GB unterstützen. Kauf dir einen i3-8100, 8300, 8350K, 9100, 9300 oder 9350K gebraucht. Irgendeiner davon wird bestimmt für 50 bis 70 € zu bekommen sein. Es macht keinen Sinn Geld in teure und sparsame Hardware zu stecken, wenn du eh ständig laufende Platten hast. Also was willst du, Strom sparen oder ZFS? Beides geht nicht. Was geht, aber mehr Skills braucht: Jede HDD als einzelnen Pool erstellen und mit einem SnapRAID Docker ein SnapRAID über alle Pools hinweg erstellen. Hier muss man aber ein klares Konzept zwischen Hot und Cold Data haben, damit man nicht ständig die Parität aufbauen lassen muss. Damit kann man die ungenutzten Platten schlafen lassen und hat die Datenkonsistenz von ZFS. Das wird übrigens mein nächstes Projekt 😁 Nein
  19. Ja, insbesondere weil du ja per SSH draufgekommen bist?! Oder warst du einfach nur mit dem Monitor dran? Das ist dann keine Verbindung über SSH, sondern der direkte Zugriff auf das Terminal
  20. Mal davon abgesehen, dass SSDs viel haltbarer sind als HDDs, solltest du dir mal Gedanken über dein Backupkonzept machen, wenn du solche Befürchtungen hast. Der Sinn an dem Cache-Pool ist jedenfalls nicht, dass er permanent leer ist. Im Gegenteil. Ein Cache in dem nichts drin ist, macht nicht seinen Job.
  21. https://help.nextcloud.com/t/onlyoffice-secret-key-issue/56464/10 Kannst du onlyoffice komplett löschen? Dann wäre die besagte json weg und Nextcloud könnte vielleicht neue Secrets vereinbaren.
×
×
  • Create New...