Backuplösung


monarc

Recommended Posts

3 minutes ago, mgutt said:

LuckyBackup oder was auch immer auf dem Ziel installieren und die Dateien ausschließlich lesend abholen. Um Quelle und Ziel zu vernichten, müssten dann erstmal beide gehackt werden.

Hab ich doch oben geschrieben, das wäre nur ein anderer Lösungsansatz gewesen. :)

Link to comment
4 hours ago, mgutt said:

Erlebe du mal eine Ransomware-Attacke. Dann reden wir weiter.


Ich hatte schon zwei Kunden und einen Bekannten bei dem es passiert ist. Das war absolut kein Spaß und wir sind nur mit sehr viel Arbeit und Nerven wieder an die Daten gekommen. In einem Fall wurde sogar das Lösegeld bezahlt, um alles wieder zu bekommen. Das möchte ich persönlich nicht erleben und versuche daher meine Daten und künftig auch die meiner Kunden besser zu schützen. Daher mache ich mir jetzt intensive Gedanken und setze mich damit auseinander. 
 

Dank vieler hilfreicher Ansätze hier, kommt man der Sache auch schon näher.

 

@mgutt Das mit den mehreren Scripten auf der Synology funktioniert! Die Backups werden jetzt entsprechend in die Ordner, die ich einzeln als Ziel angegeben habe, abgelegt. Es wunder mich aber trotzdem das @monarc anscheinend mit einem Script das Ziel erreicht hat. 

Link to comment
On 8/6/2021 at 11:37 AM, Pixelpaule said:

Mal eine weitere Frage...: Wenn man mit einem Backuptool (HyperBackup - Synology oder Duplicati) die Backups, die mit dem rsync Script erstellt wurden, in die Cloud sichert, gehen die Hardlinks dann verloren?

 

Ich muss das Thema noch mal hervorholen. Wenn man jetzt die mit rsync erstellten Ordner zusätzlich in die Cloud sichert, z.B. mit HyperBackup und diese komprimiert/verschlüsselt werden, gehen die Hardlinks dann verloren? Das Backuptool, in diesem Fall HyperBackup/Duplicati, splittet die Daten ja auf?

Link to comment
10 hours ago, Pixelpaule said:

gehen die Hardlinks dann verloren?

Ja, Hardlinks funktionieren nur auf Dateisystem-Ebene und zuverlässig nur bei ext4, xfs oder btrfs. Eine Lösung wäre deine eigene "Cloud" bei Mutti hinzustellen.

 

Erst hatte ich gehofft, dass das alternativ mit tar geht, aber das geht leider nicht, wenn man das tägliche Backup in ein jeweils eigenes Archiv packt:

https://unix.stackexchange.com/a/665190/101920

 

Stattdessen müsste man jeden Tag den kompletten Backupordner eines Shares in ein tar packen:

tar --create --file=/mnt/user/Backup/Shares/Music.tar /mnt/user/Backup/Shares/Music

 

Das tar enthält dann die Hardlinks, ist also platzsparend, aber man hat man Ende eine immer größer werdende Datei, die man immer wieder komplett in die Cloud hochladen müsste (rsync könnte evtl nur Teile der Datei aktualisieren, aber welche Cloud unterstützt schon rsync).

 

Eine andere Variante wäre, dass man für die Cloud inkrementelle Archive erstellt:

https://www.gnu.org/software/tar/manual/html_node/Incremental-Dumps.html

 

Ich habe zB vom ersten Backup gerade wie folgt ein tar erstellt:

tar --create --gzip --file=/mnt/user/Backup/Shares/Music/backup1.tar --listed-incremental=/mnt/user/Backup/Shares/Music/tar.snar /mnt/user/Backup/Shares/Music/20200701_044011

 

Vom zweiten Backup erstelle ich gerade so ein tar:

tar --create --gzip --file=/mnt/user/Backup/Shares/Music/backup2.tar --listed-incremental=/mnt/user/Backup/Shares/Music/tar.snar /mnt/user/Backup/Shares/Music/20200801_044013

 

Allerdings wäre das "echt" inkrementell. Dh für die Wiederherstellung des neunten Backups, müsste ich die ersten neun Backups aus der Cloud herunterladen und das ausführen:

tar --extract --listed-incremental=/dev/null --file backup1.tar
tar --extract --listed-incremental=/dev/null --file backup2.tar
tar --extract --listed-incremental=/dev/null --file backup3.tar
tar --extract --listed-incremental=/dev/null --file backup4.tar
tar --extract --listed-incremental=/dev/null --file backup5.tar
tar --extract --listed-incremental=/dev/null --file backup6.tar
tar --extract --listed-incremental=/dev/null --file backup7.tar
tar --extract --listed-incremental=/dev/null --file backup8.tar
tar --extract --listed-incremental=/dev/null --file backup9.tar

 

Nicht so richtig toll, aber immerhin platzsparend.

Link to comment

@Pixelpaule

Was mir gerade noch einfällt. Man könnte natürlich auch hingehen und immer die letzten x Backups in eine Tar packen und die in die Cloud sichern. zB könnte ich ein Tar aus dem Backup von Mo bis So machen oder wie hier ein Tar vom 4. Quartal 2020:

tar --create --file=/mnt/cache/Marc/2020Q4.tar \
/mnt/disk7/Backup/Shares/Music/20201101_044004 \
/mnt/disk7/Backup/Shares/Music/20201201_052124 \
/mnt/disk7/Backup/Shares/Music/20201201_052124

 

"2020Q4.tar" hat dann eine Größe von 206GB, während jeder Quellordner jeweils 192GB groß ist (ohne Berücksichtigung der Hardlinks):

du -h -d1 /mnt/disk7/Backup/Shares/Music/20201101_044004
192G    /mnt/disk7/Backup/Shares/Music/20201101_044004
du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124
192G    /mnt/disk7/Backup/Shares/Music/20201201_052124
du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124
192G    /mnt/disk7/Backup/Shares/Music/20201201_052124

 

Und umso mehr Backups man in ein Tar packt, umso mehr Platz spart man. Wenn es sich lohnt die Dateien zu komprimieren (bei Musik oder Video ja eher nicht), könnte man mit pigz auch eine komprimierte Tar erstellen:

tar --create --file=- \
/mnt/disk7/Backup/Shares/Music/20201101_044004 \
/mnt/disk7/Backup/Shares/Music/20201201_052124 \
/mnt/disk7/Backup/Shares/Music/20201201_052124 | pigz -1 > /mnt/cache/Marc/2020Q4.tar.gz

 

Wenn man das Tar dann entpackt, sind alle drei Backups jeweils vollständig und nutzen auch wieder Hardlinks:

du -d1 -h /mnt/cache/Marc/Music_entpackt
192G    /mnt/cache/Marc/Music_entpackt/20201101_044004
123M    /mnt/cache/Marc/Music_entpackt/20201201_052124
3.6M    /mnt/cache/Marc/Music_entpackt/20210101_053119
du -d1 -h /mnt/cache/Marc/Music_entpackt/20201201_052124
192G    /mnt/cache/Marc/Music_entpackt/20201201_052124

 

Hat man nicht gerade Platzmangel in der Cloud, kann man so denke ich ganz gut arbeiten.

Link to comment
  • 2 weeks later...

Hi.

Ich hab einen Laptop von dem Dateien gesichert werden sollen. Wenn ich jetzt LuckyBackup auf mein Unraid installiere, wie holt es sich dann die Dateien?

 

Muss ich erst die Dateien auf einen Share speichern oder kann sich LuckyBackup zb die Dateien gleich selbst vom Laptop holen?

Link to comment
22 minutes ago, OOmatrixOO said:

kann sich LuckyBackup zb die Dateien gleich selbst vom Laptop holen?

Windows? Dann rechte Maustaste auf die relevanten Ordner wie zb "Desktop" und freigeben. Dazu aber erst einen neuen Nutzer hinzufügen. Den nennt du zb "backup" und vergibst ein eigenes Passwort. Dann gibst du die Ordner rein lesend frei. In unRAID wiederum kannst du diesen SMB Share über UD mounten und den Pfad dann über LuckyBackup sichern.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.