ich777 Posted August 17, 2021 Share Posted August 17, 2021 3 minutes ago, mgutt said: LuckyBackup oder was auch immer auf dem Ziel installieren und die Dateien ausschließlich lesend abholen. Um Quelle und Ziel zu vernichten, müssten dann erstmal beide gehackt werden. Hab ich doch oben geschrieben, das wäre nur ein anderer Lösungsansatz gewesen. Quote Link to comment
Pixelpaule Posted August 17, 2021 Share Posted August 17, 2021 4 hours ago, mgutt said: Erlebe du mal eine Ransomware-Attacke. Dann reden wir weiter. Ich hatte schon zwei Kunden und einen Bekannten bei dem es passiert ist. Das war absolut kein Spaß und wir sind nur mit sehr viel Arbeit und Nerven wieder an die Daten gekommen. In einem Fall wurde sogar das Lösegeld bezahlt, um alles wieder zu bekommen. Das möchte ich persönlich nicht erleben und versuche daher meine Daten und künftig auch die meiner Kunden besser zu schützen. Daher mache ich mir jetzt intensive Gedanken und setze mich damit auseinander. Dank vieler hilfreicher Ansätze hier, kommt man der Sache auch schon näher. @mgutt Das mit den mehreren Scripten auf der Synology funktioniert! Die Backups werden jetzt entsprechend in die Ordner, die ich einzeln als Ziel angegeben habe, abgelegt. Es wunder mich aber trotzdem das @monarc anscheinend mit einem Script das Ziel erreicht hat. Quote Link to comment
Pixelpaule Posted August 18, 2021 Share Posted August 18, 2021 On 8/6/2021 at 11:37 AM, Pixelpaule said: Mal eine weitere Frage...: Wenn man mit einem Backuptool (HyperBackup - Synology oder Duplicati) die Backups, die mit dem rsync Script erstellt wurden, in die Cloud sichert, gehen die Hardlinks dann verloren? Ich muss das Thema noch mal hervorholen. Wenn man jetzt die mit rsync erstellten Ordner zusätzlich in die Cloud sichert, z.B. mit HyperBackup und diese komprimiert/verschlüsselt werden, gehen die Hardlinks dann verloren? Das Backuptool, in diesem Fall HyperBackup/Duplicati, splittet die Daten ja auf? Quote Link to comment
mgutt Posted August 18, 2021 Share Posted August 18, 2021 10 hours ago, Pixelpaule said: gehen die Hardlinks dann verloren? Ja, Hardlinks funktionieren nur auf Dateisystem-Ebene und zuverlässig nur bei ext4, xfs oder btrfs. Eine Lösung wäre deine eigene "Cloud" bei Mutti hinzustellen. Erst hatte ich gehofft, dass das alternativ mit tar geht, aber das geht leider nicht, wenn man das tägliche Backup in ein jeweils eigenes Archiv packt: https://unix.stackexchange.com/a/665190/101920 Stattdessen müsste man jeden Tag den kompletten Backupordner eines Shares in ein tar packen: tar --create --file=/mnt/user/Backup/Shares/Music.tar /mnt/user/Backup/Shares/Music Das tar enthält dann die Hardlinks, ist also platzsparend, aber man hat man Ende eine immer größer werdende Datei, die man immer wieder komplett in die Cloud hochladen müsste (rsync könnte evtl nur Teile der Datei aktualisieren, aber welche Cloud unterstützt schon rsync). Eine andere Variante wäre, dass man für die Cloud inkrementelle Archive erstellt: https://www.gnu.org/software/tar/manual/html_node/Incremental-Dumps.html Ich habe zB vom ersten Backup gerade wie folgt ein tar erstellt: tar --create --gzip --file=/mnt/user/Backup/Shares/Music/backup1.tar --listed-incremental=/mnt/user/Backup/Shares/Music/tar.snar /mnt/user/Backup/Shares/Music/20200701_044011 Vom zweiten Backup erstelle ich gerade so ein tar: tar --create --gzip --file=/mnt/user/Backup/Shares/Music/backup2.tar --listed-incremental=/mnt/user/Backup/Shares/Music/tar.snar /mnt/user/Backup/Shares/Music/20200801_044013 Allerdings wäre das "echt" inkrementell. Dh für die Wiederherstellung des neunten Backups, müsste ich die ersten neun Backups aus der Cloud herunterladen und das ausführen: tar --extract --listed-incremental=/dev/null --file backup1.tar tar --extract --listed-incremental=/dev/null --file backup2.tar tar --extract --listed-incremental=/dev/null --file backup3.tar tar --extract --listed-incremental=/dev/null --file backup4.tar tar --extract --listed-incremental=/dev/null --file backup5.tar tar --extract --listed-incremental=/dev/null --file backup6.tar tar --extract --listed-incremental=/dev/null --file backup7.tar tar --extract --listed-incremental=/dev/null --file backup8.tar tar --extract --listed-incremental=/dev/null --file backup9.tar Nicht so richtig toll, aber immerhin platzsparend. Quote Link to comment
mgutt Posted August 19, 2021 Share Posted August 19, 2021 @Pixelpaule Was mir gerade noch einfällt. Man könnte natürlich auch hingehen und immer die letzten x Backups in eine Tar packen und die in die Cloud sichern. zB könnte ich ein Tar aus dem Backup von Mo bis So machen oder wie hier ein Tar vom 4. Quartal 2020: tar --create --file=/mnt/cache/Marc/2020Q4.tar \ /mnt/disk7/Backup/Shares/Music/20201101_044004 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 "2020Q4.tar" hat dann eine Größe von 206GB, während jeder Quellordner jeweils 192GB groß ist (ohne Berücksichtigung der Hardlinks): du -h -d1 /mnt/disk7/Backup/Shares/Music/20201101_044004 192G /mnt/disk7/Backup/Shares/Music/20201101_044004 du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124 192G /mnt/disk7/Backup/Shares/Music/20201201_052124 du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124 192G /mnt/disk7/Backup/Shares/Music/20201201_052124 Und umso mehr Backups man in ein Tar packt, umso mehr Platz spart man. Wenn es sich lohnt die Dateien zu komprimieren (bei Musik oder Video ja eher nicht), könnte man mit pigz auch eine komprimierte Tar erstellen: tar --create --file=- \ /mnt/disk7/Backup/Shares/Music/20201101_044004 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 | pigz -1 > /mnt/cache/Marc/2020Q4.tar.gz Wenn man das Tar dann entpackt, sind alle drei Backups jeweils vollständig und nutzen auch wieder Hardlinks: du -d1 -h /mnt/cache/Marc/Music_entpackt 192G /mnt/cache/Marc/Music_entpackt/20201101_044004 123M /mnt/cache/Marc/Music_entpackt/20201201_052124 3.6M /mnt/cache/Marc/Music_entpackt/20210101_053119 du -d1 -h /mnt/cache/Marc/Music_entpackt/20201201_052124 192G /mnt/cache/Marc/Music_entpackt/20201201_052124 Hat man nicht gerade Platzmangel in der Cloud, kann man so denke ich ganz gut arbeiten. Quote Link to comment
n3ro365 Posted August 29, 2021 Share Posted August 29, 2021 Hi. Ich hab einen Laptop von dem Dateien gesichert werden sollen. Wenn ich jetzt LuckyBackup auf mein Unraid installiere, wie holt es sich dann die Dateien? Muss ich erst die Dateien auf einen Share speichern oder kann sich LuckyBackup zb die Dateien gleich selbst vom Laptop holen? Quote Link to comment
mgutt Posted August 29, 2021 Share Posted August 29, 2021 22 minutes ago, OOmatrixOO said: kann sich LuckyBackup zb die Dateien gleich selbst vom Laptop holen? Windows? Dann rechte Maustaste auf die relevanten Ordner wie zb "Desktop" und freigeben. Dazu aber erst einen neuen Nutzer hinzufügen. Den nennt du zb "backup" und vergibst ein eigenes Passwort. Dann gibst du die Ordner rein lesend frei. In unRAID wiederum kannst du diesen SMB Share über UD mounten und den Pfad dann über LuckyBackup sichern. Quote Link to comment
n3ro365 Posted August 29, 2021 Share Posted August 29, 2021 Ah alles klar. So ähnlich wollte ich es eben auch probieren. Aber der Hinweis zwecks neuen Nutzer und nur lesend freigeben ist natürlich sehr hilfreich, soweit hatte ich noch gar nicht gedacht. Danke dir. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.