UnraidGHD
-
Posts
13 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by UnraidGHD
-
-
On 4/25/2024 at 6:36 AM, JTok said:
Another update thanks to realizelol!
v0.2.8 - 2024/04/23
Forks and Spoons Only
- fix backup of VM names containing spaces (@realizelol)
- indentation fixes (@realizelol)
- update loops to break the row via semicolon (@realizelol)
- fix disk_prefix in $vdisk_path variable (@realizelol)
- fix counting vDisks by using Disks instead of "file sources" + Silence: STDERR output to /dev/null (@realizelol)
- add ability for the script to handle OS suspended VMs (@realizelol)
With the new Version I have Problems with the VMs that have Disk Passthrough in addition to their vdist:
In the log Iget:
"warning: vdisk_path is empty. skipping vdisk."
and unraid gives me a red notification.
I get all the files backed up. It's only the error-massage.
All other VM without passthrough don't give backup errors.
-
Eine andere Frage:
Wenn ich von 2 Clients aus auf den Docker zugreife, beendet der zweite Zugriff den ersten, das Backup war aber noch nicht unbedingt beendet.
Wie kann ich 2x gleichzeitig auf den Docker zugreifen?
Würde eine 2. Portzuweisung funktionieren?
-
Das Docker Log bleibt auch unberührt, wenn ich Ihn im Bridgemodus habe unter einem eigenen Port.
Ich erreiche ihn nur mit eigener IP und dann ohne Probleme. Also belibt es so.
Ich danke
-
Wenn ich den Rsync Docker ins br0 Netzwerk nehme mit eigener IP, dann klappt das ganze sowohl mit Port 22
als auch mit aslias ssg und einem anderen Port. Mit preshared Ksy, d.h ich lande im Docker.
im bridge modus bekommen ich im Unraid log
Sep 25 15:44:15 UnraidGHD sshd[25478]: Connection from 192.168.1.94 port 55110 on 192.168.1.100 port 22 rdomain ""
Sep 25 15:44:15 UnraidGHD sshd[25478]: Failed publickey for root from 192.168.1.94 port 55110 ssh2: RSA Sxxxxxxxxxxxxxxxxxxxxxxxxxxd.h. der Verbindungsversuch vom Raspberry geht auf Port 22 obwohl alias ssh auf einen anderen Port verweise.
Also legt Unraid im bridge Modus SSH immer auf Port 22
Dann werde ich nach dem Passwort gefragt und es geht. Aber der Preshared key geht natürlich nicht, denn ich lande wohl nicht im Docker.
-
Sorry Typo
so steht's im script:
alias ssh='ssh -p 5533'
also sollte richtig sein
-
Ich habe den Samba/NFS-Weg auf deinen Rat hin verlassen und den rsync Docker installiert.
Auf Raspberry als root angemeldet aus den SSH Schlüssel erzeugt und im Container eingegeben.
Danach kann mich mich mit
ssh -p 5533 root@tower
beim erstan mal nach der Abfrage "Are you sure you want to continue connecting"
einloggen ohne Passwortabfrage.
Wenn ich
rsync --dry-run --itemize-changes --archive -e 'ssh -p 5533' root@tower:/mnt/user/system/ /tmp
starte, läuft es durch ohne Passwortabfrage
Wenn ich dann auf dem Raspy das Script starte werde ich wieder gefragt "Are you sure you want to continue connecting"
und dann wird nach dem Passwort gefragt.
Das heisst, ich lande nicht im Docker
obwohl ich
QuellPfad
"[email protected]:/mnt/user/Archiv"
alias ssh='ssh p- 5533'
im Script habe
Ich denke, der Port 5533 wird nicht genutzt.
alias ssh funktioniert nicht?
Gruß Thomas
-
Hi mgutt,
--dry-run, genau das hatte ich und das verhindert auch den Erfolg beim Hardlinktest.
Jetzt geht es. Ich danke dir.
Du sagtest, Dateirechte gehen beim Sichern auf Samba verloren. Das sollte ja bei NFS nicht der fall sein oder?
-
Die Zeit von 0 s ist schon verdächtig, es wird nichts kopiert.
Keine Ahnung, keine Idee.
Ich werde es dann doch mal mit dem Container versuchen.
Danke dennoch für Deine Mühe.
-
Der Pfadname ist korrekt. Die Änderung auf /mnt/disk1/Archiv bringt auch keinen Erfolg.
Wenn ich als Ziel einen nicht angelegten Pfad anlege, wird dieser erstellt, das klappt also auch.
Es bleibt bei "keine Hardlinks unterstützt", wohin auch immer ich das Backup haben will.
Wenn ich den Hardlink-Test im Script auskommentiere läuft ein Backup durch.
Aber der Zielordner ist leer.
QuoteScript location: /tmp/user.scripts/tmpScripts/0000000001/script
Note that closing this window will abort the execution of this script
cd+++++++++ mnt/cache_ssd/Peter/
# #####################################
Create full backup from /mnt/disk1/isos to /mnt/cache_ssd/Peter/20230923_222338
created directory /mnt/cache_ssd/Peter/.20230923_222338
cd+++++++++ ./
>f+++++++++ BigSur-install.img
>f+++++++++ EndeavourOS_Artemis_nova_22_9.iso
>f+++++++++ MX-23_ahs_x64.iso
>f+++++++++ debian-12.0.0-amd64-netinst.iso
>f+++++++++ lubuntu-22.04.3-desktop-amd64.iso
>f+++++++++ proxmox-ve_8.0-2.iso
>f+++++++++ rescatux-0.74.iso
>f+++++++++ ubuntu-22.04-live-server-amd64.iso
Number of files: 9 (reg: 8, dir: 1)
Number of created files: 9 (reg: 8, dir: 1)
Number of deleted files: 0
Number of regular files transferred: 8
Total file size: 13.39G bytes
Total transferred file size: 13.39G bytes
Literal data: 0 bytes
Matched data: 0 bytes
File list size: 0
File list generation time: 0.001 seconds
File list transfer time: 0.000 seconds
Total bytes sent: 418
Total bytes received: 103
sent 418 bytes received 103 bytes 1.04K bytes/sec
total size is 13.39G speedup is 25,707,089.57 (DRY RUN)
File count of rsync is 9
Make backup visible ...
... through local mv
# #####################################
Clean up outdated backupsDeinen Backupansatz finde ich toll, den Container werde ich mir mal ansehen, den habe ich schon gefunden, aber das Prinzip dahinter erst jetzt verstanden. Erst mal die Hardlinks.
-
9 hours ago, mgutt said:
Häh? Das bezieht sich auf SMB Shares von unRAID. Also wenn die das Ziel sind. Auf SMB sollte man sowieso niemals sichern. Dadurch gehen diverse Dateirechte verloren.
Den Check habe ich selbst entwickelt.
Ergänze bitte vor dieser Zeile:
transfer_count=$(rsync --dry-run --itemize-changes --recursive --link-dest="$link_dest_path/link_dest" "$empty_dir/" "$dst_path/hard_link" | wc -l)
Das:
rsync --dry-run --itemize-changes --recursive --link-dest="$link_dest_path/link_dest" "$empty_dir/" "$dst_path/hard_link_test"
Und dann brauche ich die Logs von dem Skript.
Hm das Problem mit Samba verstehe ich, dann eher NFS oder ist SSH besser?
ok, hier als Versuch auch einen Share im selben UnraidServer zu sichern
Script Starting Sep 23, 2023 18:35.26
Full logs for this script are available at /tmp/user.scripts/tmpScripts/0000000001/log.txt
# #####################################
created directory /mnt/user/Archiv/link_dest
>f+++++++++ empty.file
--link-dest arg does not exist: /mnt/user/Archiv/link_dest
created directory /mnt/user/Archiv/hard_link_test
cd+++++++++ ./
>f+++++++++ empty.file
--link-dest arg does not exist: /mnt/user/Archiv/link_dest
removed '/tmp/_tmp_user.scripts_tmpScripts_0000000001_script/empty.file'
Error: Your destination /mnt/user/Archiv does not support hardlinks!
Script Finished Sep 23, 2023 18:35.29Full logs for this script are available at /tmp/user.scripts/tmpScripts/0000000001/log.txt
-
Hallo,
ich versuche, das Script zu nutzen, bekomme aber immer den Fehler
Error: Your destination ... does not support hardlinks!
Egal welche Destination ich versuche:
-Share im selben Unraid
-HDD mit XFS als unassigned device
-SMB Share (OMV, Debian)
-NFS Share (Debian)
-Server über SSH mit preshared key
Hardlinks in Unraid sind aktiviert in Global Share Settings
Irgendwo muss noch ein systematischer Fehler bei mir sitzen, der alle Hardlinks verbietet.
LuckBackup allerdings beschwert sich nicht und nutzt ja auch rsync.
Gruß Thomas
VM Backup Plugin
in User Customizations
Posted
Sorry I don`t get it.
New error description is: This is mainly caused by an empty cdrom file path.
So I gave them correct paths to an iso but still the same Error.
Whereas the VMs not giving an error do indeed have an empty cdrom file path.
Do I need to delete the whole paragraph in XML-view containing the cd-rom?: