Jump to content

tom233

Members
  • Posts

    13
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

tom233's Achievements

Noob

Noob (1/14)

4

Reputation

1

Community Answers

  1. Moin, vielleicht hilft Dir die Video Reihe von Schröder weiter , es sind 3 Teile. Ich hatte es mal als Projekt gehabt, bin aber irgendwo gescheitet. Schröder baut in der Cloud einen pfsense Route mit einer Wireguard Verbindung zum Homeserver auf. Hetzner Cloud - Grundlagen, Informationen, Vor- & Nachteile - Teil 1 - YouTube https://www.youtube.com/watch?v=X3GwBrSws8E
  2. Moin, warum nimmst Du nicht VMBackup ( Plugin) damit kannst Du Deine VM sichern, es sichert auch die xml und die virtuellen bios Dateien.
  3. Nachdem das Skript läuft sieht es so aus. root@Tower2:~# rsync --dry-run --recursive --itemize-changes --exclude="*/*/" --include="[0-9]*/" --exclude="*" "/mnt/user/Tower2_Backup/rsync_test/share1/appdata/" "/tmp/empty_dir" cd+++++++++ 20230211_210421/ cd+++++++++ 20230211_212834/ cd+++++++++ 20230211_213109/ cd+++++++++ 20230211_221758/ cd+++++++++ 20230212_183020/ cd+++++++++ 20230213_185737/ Aber als das Verzeichnis leer war gab es kein Ergebnis
  4. So ich bin jetzt etwas weiter.. Die Befehle habe ich auf dem Backup Server ausgeführt , es hat aber nichts geändert. Der Fehler ist immer noch da. Ich habe dann den Dest. Pfad konventionell auf remote gesetzt und das Verzeichnis eingehängt, ich hatte zwar einige Fehler aber es ist durch gelaufen. Ich habe die ssh Ordner von beiden Server gesichert und gelöscht, dann neue Schlüssel generiert. Mit der Fehlermeldung: root@Tower2:~# ssh [email protected] hostfile_replace_entries: link /root/.ssh/known_hosts to /root/.ssh/known_hosts.old: Operation not permitted update_known_hosts: hostfile_replace_entries failed for /root/.ssh/known_hosts: Operation not permitted Ich habe die alten Schlüssel und Ordner wieder hergestellt, und folgenden Befehl auf beiden Server ausgeführt. ssh-keyscan -H TARGET_HOST >> ~/.ssh/known_hosts Jetzt läuft das Skript ohne Probleme durch. Wenn ich ich mich über ssh vom backup server auf dem Hauptserver anmelde ist die Meldung immer noch da root@Tower2:~# ssh [email protected] hostfile_replace_entries: link /root/.ssh/known_hosts to /root/.ssh/known_hosts.old: Operation not permitted update_known_hosts: hostfile_replace_entries failed for /root/.ssh/known_hosts: Operation not permitted
  5. Version 1.5 ist es eine alte ?? Das Verzeichnis ( siehe unten ) ./share1/appdata ist leer. Den oberen Teil meines Scripts füge bei. #!/bin/bash # ##################################### # Name: rsync Incremental Backup # Description: Creates incremental backups and deletes outdated versions # Author: Marc Gutt # Version: 1.5 # # Todo: # - chunksync hardlinks for huge files (like images), rsync still misses --reflink # - docker container stop and start for SSH sources # - skip container stop if container CPU load is higher than X # - resume if source went offline during last backup # - create differential backup if full backup of the same day exists (which would make clean ups much faster), how to solve restore? # - use external configuration file https://forums.unraid.net/topic/97958-rsync-incremental-backup/?do=findComment&comment=1081711 # - allow changing settings through script parameters like "-d14 -m12 /src /dst" # - allow different timestamp formats for the destination path like YYYYMMDD, YYYY-MM-DD, etc # ##################################### # ##################################### # Settings # ##################################### # backup source to destination backup_jobs=( # source # destination "/mnt/cache/appdata" "[email protected]:/mnt/user/Tower2_Backup/rsync_test/share1/appdata" # "root@tower:/mnt/user/isos" "/mnt/user/Backups/isos" )
  6. Hallo , das Skript ist super. mein kleiner Unraid Server ist in eine neue Hardware umgezogen. Der Stick wurde nicht verändert , auf der neuen Hardware bin ich von 6.0.9.2 auf 6.1.xx gewechselt. Jetzt bekomme ich die Fehlermeldung: cript Starting Feb 10, 2023 08:05.05 Full logs for this script are available at /tmp/user.scripts/tmpScripts/test_mgut_neu/log.txt Stop containers: 0d5da0b13f8c c8b4f39373f2 b1b506222f7e Created snapshot of /mnt/cache/appdata to /mnt/cache/.appdata_snapshot Start containers (fast method): 0d5da0b13f8c c8b4f39373f2 b1b506222f7e # ##################################### last_backup: '_' date: invalid date '_' /tmp/user.scripts/tmpScripts/test_mgut_neu/script: line 228: (1676012718 - ) / 86400 : syntax error: operand expected (error token is ") / 86400 ") Script Finished Feb 10, 2023 08:05.18 Die besagte Zeile last_backup_days_old=$(( ($(date +%s) - $(date +%s -d "${last_backup:0:4}${last_backup:4:2}${last_backup:6:2}")) / 86400 )) habe ich nicht verändert. Das Sicherungsverzeichnis liegt auf einem Backup Server und ich habe die alten Backups in ein anderes Verzeichnis verschoben. Die Sicherungspfade sind gleich und auf der alten Kiste lief es tadellos. Ist mein SSH Schlüssel durch die neue Hardware falsch ? oder hat das Skript eine Historie und weiß das im Sicherungsverzeichnis eigentlich Backups sein müssen ? Vielen dank VG Thomas
  7. Moin, das Skript hat so seine Tücken, besonders wen die vdsik1.img anders heißest win10.img dann bricht es ab. Aber ich habe die vdisk1.img rüber kopiert , eine neue VM erstellt und die alte xml Datei übertragen. Die uuid musste ich nicht ändern , die vms laufen. Vielen Dank
  8. Hallo, meine Vm sichere ich mit VM Backup( Intel Rechner), hier werden die Dateien img xml und die vars-pure-efi.fd gesichert. Die VM wird auf einem Unraid AMD Rechner wiederhergestellt. ( Über https://github.com/Emilien-Lambert/Unraid-VM-Backup-Plugin-Restoration-Script ) Mal eine grundsätzliche Frage: Muss die vars-pure-efi.fd Datei wiederhergestellt werden ? wird die Datei nicht neu erstellt wenn ich in der VM die XML aufrufe und speichere ??
  9. Ein Cache ist meine beste Option . Die m2 und ssd sind xfs formatiert, würde es funktionieren das beide im Cache sind ohne btfrs formatiert werden zu müssen ? Wenn nicht würde ich die m2 als cache und die ssd als array einrichten. Um die m2 zum cache umzustellen muss ich doch : Array Stoppen New config m2 zum pool hinzufugen Cache ( ohne neu formatierun) ssd zu Array (ohne neu Formatierung) Ich meine natürlich verschieben und nicht kopieren
  10. Hallo Zusammen, bei meiner Unraid Installation habe ich schlampig gearbeitet. In meinem Nuc Testsystem ist eine m2 250 GB und eine 1 TB SSD eingebaut, sie laufen als Array ( Kein Cache , kein Parity) Das System läuft, Trim mache ich über die Console ( sudo fstrim -v, ich hoffe es bringt was) Als Backup läuft das Srcipt von mgutt und hier bekomme ich den Hinweis Unraid Status: 25-01-2023 15:48 "Backup probably inconsistent! (/mnt/user/appdata) Docker appdata files were found in too many locations (cache: no, paths: /mnt/disk1/appdata /mnt/disk2/appdata /mnt/user/appdata /mnt/user0/appdata)!" Ich würde gerne appdata nur auf einer Disk haben. Meine 1. Überlegung wäre 1. Docker / VM Stoppen 2. Freigabe Appdata nur auf Disk 1 3. Kopieren der Daten von Disk 2 appdata zu Disk1 ( MC) 4 Start Docker / VM. oder ist es sinnvoller Array raus zunehmen und als Cache zu verwenden ? Ist dies auch ohne Pool Cache möglich ( 2 Disk als Cache)? Vielen Dank Liebe Grüße Thomas
  11. Hello thank you very much for the help. I stopped the array last night and started the ud update. After that I was able to mount the USB hard drive. I use Unraid 6.9.2.
  12. Hallo liebe community, ich kann eine USB Festplatte , die ich schon mal eingehängt hatte , nicht mehr einhängen. Neben der Festplatte ist der Hinweis ARRAY. Das Plugin unassigned Device ist installiert. Ich hatte schon einige USB Platten eingehängt ohne Probleme. Das Protokoll füge ich mit an. Vielen Dank für Eure Hilfe. Thomas Jan 9 20:05:50 Tower kernel: sd 6:0:0:0: [sde] Synchronizing SCSI cache Jan 9 20:05:50 Tower kernel: sd 6:0:0:0: [sde] Synchronize Cache(10) failed: Result: hostbyte=0x01 driverbyte=0x00 Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] Very big device. Trying to use READ CAPACITY(16). Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] 7814037167 512-byte logical blocks: (4.00 TB/3.64 TiB) Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] 4096-byte physical blocks Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] Write Protect is off Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] Mode Sense: 47 00 00 08 Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA Jan 9 20:06:08 Tower kernel: sde: sde1 sde2 Jan 9 20:06:08 Tower kernel: sd 6:0:0:0: [sde] Attached SCSI disk Jan 9 20:06:08 Tower unassigned.devices: Disk with ID 'ST4000LM024-2AN17V_WCK0W0E6 (sde)' is not set to auto mount. Jan 9 20:06:08 Tower unassigned.devices: Disk with ID 'ST4000LM024-2AN17V_WCK0W0E6 (sde)' is not set to auto mount.
×
×
  • Create New...