Jump to content

UnraidGHD

Members
  • Posts

    13
  • Joined

  • Last visited

Posts posted by UnraidGHD

  1. Sorry I don`t get it.

    New error description is:  This is mainly caused by an empty cdrom file path.

    So I gave them correct paths to an iso but still the same Error.

    Whereas the VMs not giving an error do indeed have an empty cdrom file path.

    Do I need to delete the whole paragraph in XML-view containing the cd-rom?:

     

    <disk type='file' device='cdrom'>
          <driver name='qemu' type='raw'/>
          <source file='/mnt/user/isos/proxmox-ve_8.0-2.iso' index='1'/>
          <backingStore/>
          <target dev='hda' bus='sata'/>
          <readonly/>
          <alias name='sata0-0-0'/>
          <address type='drive' controller='0' bus='0' target='0' unit='0'/>
        </disk>

     

  2. On 4/25/2024 at 6:36 AM, JTok said:

    Another update thanks to realizelol!

     

    v0.2.8 - 2024/04/23

    Forks and Spoons Only

    • fix backup of VM names containing spaces (@realizelol)
    • indentation fixes (@realizelol)
    • update loops to break the row via semicolon (@realizelol)
    • fix disk_prefix in $vdisk_path variable (@realizelol)
    • fix counting vDisks by using Disks instead of "file sources" + Silence: STDERR output to /dev/null (@realizelol)
    • add ability for the script to handle OS suspended VMs (@realizelol)

     

    With the new Version I have Problems with the VMs that have Disk Passthrough in addition to their vdist:

    In the log Iget:

    "warning: vdisk_path is empty. skipping vdisk."

    and unraid gives me a red notification.

     

    I get all the files backed up. It's only the error-massage.

    All other VM without passthrough don't give backup errors.

     

     

  3. Wenn ich den Rsync Docker ins br0 Netzwerk nehme mit eigener IP, dann klappt das ganze sowohl mit Port 22

    als auch mit aslias ssg und einem anderen Port. Mit preshared Ksy, d.h ich lande im Docker.

     

    im bridge modus bekommen ich im Unraid log

     

    Sep 25 15:44:15 UnraidGHD sshd[25478]: Connection from 192.168.1.94 port 55110 on 192.168.1.100 port 22 rdomain ""
    Sep 25 15:44:15 UnraidGHD sshd[25478]: Failed publickey for root from 192.168.1.94 port 55110 ssh2: RSA Sxxxxxxxxxxxxxxxxxxxxxxxxxx

     

    d.h. der Verbindungsversuch vom Raspberry geht auf Port 22 obwohl alias ssh auf einen anderen Port verweise.

    Also legt Unraid im bridge Modus SSH immer auf Port 22 ???

    Dann werde ich nach dem Passwort gefragt und es geht. Aber der Preshared key geht natürlich nicht, denn ich lande wohl nicht im Docker.

     

  4. Ich habe den Samba/NFS-Weg auf deinen Rat hin verlassen und den rsync Docker installiert.

    Auf Raspberry als root angemeldet aus den SSH Schlüssel erzeugt und im Container eingegeben.

    Danach kann mich mich mit

    ssh -p 5533 root@tower

    beim erstan mal nach der Abfrage "Are you sure you want to continue connecting"

    einloggen ohne Passwortabfrage.

    Wenn ich

    rsync --dry-run --itemize-changes --archive -e 'ssh -p 5533' root@tower:/mnt/user/system/ /tmp

    starte, läuft es durch ohne Passwortabfrage

     

    Wenn ich dann auf dem Raspy das Script starte werde ich wieder gefragt "Are you sure you want to continue connecting"

    und dann wird nach dem Passwort gefragt.

    Das heisst, ich lande nicht im Docker

    obwohl ich

    QuellPfad

    "[email protected]:/mnt/user/Archiv"     

    alias ssh='ssh p- 5533'

    im Script habe

     

    Ich denke, der Port 5533 wird nicht genutzt.

    alias ssh funktioniert nicht?

     

    Gruß Thomas

     

  5. Der Pfadname ist korrekt. Die Änderung auf /mnt/disk1/Archiv bringt auch keinen Erfolg.

    Wenn ich als Ziel einen nicht angelegten Pfad anlege, wird dieser erstellt, das klappt also auch.

    Es bleibt bei "keine Hardlinks unterstützt", wohin auch immer ich das Backup haben will.

     

    Wenn ich den Hardlink-Test im Script auskommentiere läuft ein Backup durch.

    Aber der Zielordner ist leer.

     

     

    Quote

    Script location: /tmp/user.scripts/tmpScripts/0000000001/script
    Note that closing this window will abort the execution of this script
    cd+++++++++ mnt/cache_ssd/Peter/
    # #####################################
    Create full backup from /mnt/disk1/isos to /mnt/cache_ssd/Peter/20230923_222338
    created directory /mnt/cache_ssd/Peter/.20230923_222338
    cd+++++++++ ./
    >f+++++++++ BigSur-install.img
    >f+++++++++ EndeavourOS_Artemis_nova_22_9.iso
    >f+++++++++ MX-23_ahs_x64.iso
    >f+++++++++ debian-12.0.0-amd64-netinst.iso
    >f+++++++++ lubuntu-22.04.3-desktop-amd64.iso
    >f+++++++++ proxmox-ve_8.0-2.iso
    >f+++++++++ rescatux-0.74.iso
    >f+++++++++ ubuntu-22.04-live-server-amd64.iso

    Number of files: 9 (reg: 8, dir: 1)
    Number of created files: 9 (reg: 8, dir: 1)
    Number of deleted files: 0
    Number of regular files transferred: 8
    Total file size: 13.39G bytes
    Total transferred file size: 13.39G bytes
    Literal data: 0 bytes
    Matched data: 0 bytes
    File list size: 0
    File list generation time: 0.001 seconds
    File list transfer time: 0.000 seconds
    Total bytes sent: 418
    Total bytes received: 103

    sent 418 bytes received 103 bytes 1.04K bytes/sec
    total size is 13.39G speedup is 25,707,089.57 (DRY RUN)
    File count of rsync is 9
    Make backup visible ...
    ... through local mv
    # #####################################
    Clean up outdated backups

     

     

     

    Deinen Backupansatz finde ich toll, den Container werde ich mir mal ansehen, den habe ich schon gefunden, aber das Prinzip dahinter erst jetzt verstanden. Erst mal die Hardlinks.

     

  6. 9 hours ago, mgutt said:

    Häh? Das bezieht sich auf SMB Shares von unRAID. Also wenn die das Ziel sind. Auf SMB sollte man sowieso niemals sichern. Dadurch gehen diverse Dateirechte verloren.

     

    Den Check habe ich selbst entwickelt.

     

    Ergänze bitte vor dieser Zeile:

    transfer_count=$(rsync --dry-run --itemize-changes --recursive --link-dest="$link_dest_path/link_dest" "$empty_dir/" "$dst_path/hard_link" | wc -l)

     

    Das:

    rsync --dry-run --itemize-changes --recursive --link-dest="$link_dest_path/link_dest" "$empty_dir/" "$dst_path/hard_link_test"

     

    Und dann brauche ich die Logs von dem Skript.

    Hm das Problem mit Samba verstehe ich, dann eher NFS oder ist SSH besser?

     

    ok, hier als Versuch auch einen Share im selben UnraidServer zu sichern

     

     

     

    Script Starting Sep 23, 2023 18:35.26

    Full logs for this script are available at /tmp/user.scripts/tmpScripts/0000000001/log.txt

    # #####################################
    created directory /mnt/user/Archiv/link_dest
    >f+++++++++ empty.file
    --link-dest arg does not exist: /mnt/user/Archiv/link_dest
    created directory /mnt/user/Archiv/hard_link_test
    cd+++++++++ ./
    >f+++++++++ empty.file
    --link-dest arg does not exist: /mnt/user/Archiv/link_dest
    removed '/tmp/_tmp_user.scripts_tmpScripts_0000000001_script/empty.file'
    Error: Your destination /mnt/user/Archiv does not support hardlinks!
    Script Finished Sep 23, 2023 18:35.29

    Full logs for this script are available at /tmp/user.scripts/tmpScripts/0000000001/log.txt

  7. Hallo,

    ich versuche, das Script zu nutzen, bekomme aber immer den Fehler

    Error: Your destination ... does not support hardlinks!

     

    Egal welche Destination ich versuche:

    -Share im selben Unraid

    -HDD mit XFS als unassigned device

    -SMB Share (OMV, Debian)

    -NFS Share (Debian)

    -Server über SSH mit preshared key

     

    Hardlinks in Unraid sind aktiviert in Global Share Settings

    Irgendwo muss noch ein systematischer Fehler bei mir sitzen, der alle Hardlinks verbietet.

    LuckBackup allerdings beschwert sich nicht und nutzt ja auch rsync.

    Gruß Thomas

     

     

×
×
  • Create New...