Backup vom kompletten System?


Zip

Recommended Posts

Hallo,

 

ich möchte mir einen Heimserver anschaffen und darauf Unraid installieren.

 

Hauptanwendungen sind

 

- Datengrab (Fotos, Videos, eBooks etc.) --> Wahrscheinlich Zugriff über Nextcloud

- Plex Medienserver ---> Streamen auf TV

- Hauptsächlich Docker Container aus dem "Appstore"

- Vielleicht ein virtueller Server für ein DMS 

 

Nun würde ich gerne (als Laie) wissen, wie ich am einfachsten ein komplettes Backup auf eine externen Festplatte (per USB angeschlossen) erstellen kann. Welche App wäre für einen Anfänger geeignet?

 

Ich habe hier nun schon veeam, rclone und Duplicati gelesen. Aber wäre es die richtigen Apps für mich? Gibt es dazu eine Schritt für Schritt Anleitung?

 

Vielen Dank!

 

 

Edited by Zip
Link to comment

Also beim Backup ist es so, dass du dich auf jeden Fall mal einlesen solltest. Da gibt es auch viele Anleitungen. Am besten ist es, du versuchst dich an einem Tool und fragst dann, wenn es Unverständnis gibt. Für DMS brauchst du auch nicht zwingend eine VM.

 

Wie ist denn dein Budget?

Link to comment
4 hours ago, Zip said:

Hallo,

 

Nun würde ich gerne (als Laie) wissen, wie ich am einfachsten ein komplettes Backup auf eine externen Festplatte (per USB angeschlossen) erstellen kann. Welche App wäre für einen Anfänger geeignet?

Backup ist ein Thema bei dem man wirklich sehr viel Zeit verbringen kann. In einer finalen Ausbaustufe empfiehlt es sich der 3-2-1 Backup-Regel zu folgen. Bevor du dir aber aber Dinge wie Offsite-Backup und unterschiedliche Speichermedien Gedanken machst, solltest du ein solides lokales Backup deiner Daten haben.

 

In Unraid hast du verschiedene Arten von Daten wie z.B. Anwendungsdaten, VMs, deine persönlichen Daten, etc. die zu sichern sind und unterschiedliche Eigenschaften aufweisen. Nicht für alle Daten ist immer die gleiche Backup-Lösung geeignet. Beispielsweise machen konventionelle inkrementelle Backups für große VM-Images keinen Sinn, da sich diese häufig in wenigen Bits verändern und dadurch in jedem inkrementellen Backup erneut aufgenommen werden.

 

Der erste Schritt ist zu entscheiden, welche Daten du sichern möchtest und basierend auf dieser Entscheidung eine passende Lösung zu wählen. Für ein inkrementelles Backup deiner persönlichen Daten auf eine USB-Festplatte kann ich dir dieses Skript von @mgutt empfehlen. Dazu benötigst du außerdem das Unassigned Devices (UD) Plugin, um deine externe Festplatte anzuschließen und das User Scripts Plugin, mit dem du das Skript ausführen kannst.

 

Sobald du dein lokales Backup eingerichtet hast und es eine Weile läuft kannst du dich dann im näcsten Schritt über ein Offsite-Backup informieren. Das Offsite-Backup muss nicht immer eine Sicherung zu einem Cloud-Speicher Anbieter sein, sondern kann auch beispielsweise durch eine Festplatte realisiert werden, die du regelmäßig bei einem Freund oder deiner Familie austauscht. Falls du zur Thematik Offsite-Backup Fragen hast, gebe ich dazu gerne auch mehr Informationen. Ich habe schon ein paar Iterationen hinter mir.

 

Bei der externen Festplatte solltest du darauf achten, dass diese einen echten internen SATA-Anschluss hat und nicht direkt auf die Platine gelötet ist. Sollte die Platine nämlich nicht mehr funktionieren, kannst du die Festplatte dann aus dem Gehäuse entfernen und einen regulären SATA-zu-USB Adapter nehmen. Ist das nicht der Fall, hast du keine Möglichkeit mehr auf die Daten deiner Festplatte zuzugreifen.

 

Weitere Anmerkungen zu Backups:

 

- Ein Backup sollte regelmäßig überprüft werden, ob es wiederherstellbar ist (z.B. mind. am World-Backup-Day)

- Ein Backup sollte aktuell sein

- RAID ist kein Backup, sondern zielt auf Verfügbarkeit ab

- Meiner Meinung nach ist das Kopieren (synchronisieren) deiner Daten ohne Versionierung auf ein anderes Medium kein Backup, da fälschlicherweise gelöschte Dateien ebenfalls in deiner Kopie entfernt werden

 

  • Like 1
Link to comment

@T0a Vielen Dank für die Ausführungen. Für mich jedoch schon komplexer mit dem ich mich intensiver befassen muss.

 

Aber würde es so funktionieren?

 

1. Nextcloud (oder doch lieber owncloud?) einrichten (damit andere Familienmitglieder Zugriff per VPN z.B. per Android / iOS App haben) 

2. rsync Skript von @mgutt nutzen

3. Datensicherung auf externe Festplatte laufen lassen

 

Dann hätte ich meine selbst gespeicherten Daten als Backup auf den externen Festplatten?!

 

Quote

- Meiner Meinung nach ist das Kopieren (synchronisieren) deiner Daten ohne Versionierung auf ein anderes Medium kein Backup, da fälschlicherweise gelöschte Dateien ebenfalls in deiner Kopie entfernt werden

Das rsync Skript wäre dann also dafür nicht geeignet oder legt es verschiedene Versionen an? Was wäre dann die Lösung?

 

 

Ich muss nochmal eine grundlegende Frage zu den Parity / Array Festplatten stellen:

 

Wenn ich jetzt z.B. eine Parity Festplatte mit 4 TB habe und noch zusätzlich zwei weitere Array Festplatten mit jeweils 4 TB, wie kann die Parity Festplatte die beiden Platten rekonstruieren? Die Parity Festplatte müsste doch eigentlich 8 TB zur Verfügung haben? Oder sind die Metadaten die auf der Parity Festplatte sind so stark komprimiert?

 

Danke!

 

 

Edited by Zip
Link to comment
19 hours ago, Zip said:

Ich muss nochmal eine grundlegende Frage zu den Parity / Array Festplatten stellen:

 

Wenn ich jetzt z.B. eine Parity Festplatte mit 4 TB habe und noch zusätzlich zwei weitere Array Festplatten mit jeweils 4 TB, wie kann die Parity Festplatte die beiden Platten rekonstruieren?

Die einfache Antwort lautet: garnicht ;-)

Eine Parity-Disk kann genau den zeitgleichen Ausfall *einer* Array-Disk kompensieren....egal welcher.

 

Du kannst in unRaid bis zu 2 Parity Disks in einem Array definieren, also bis zum Ausfall von 2 Daten-Disks gleichzeitig kompensieren.

Ausserdem ist so ein Szenario nicht ganz so schlimm wie in anderen Array/Raid-Strukturen, welche Striping einsetzen.

Hier wäre, ginge während der Wiederherstellung der defekten Disk etwas schief, das ganze Array dahin....etwas, dass besonders bei sehr grossen Disks problematischer/wahrscheinlicher ist, da die Rekonstruktion entsprechend länger dauert.

Bei Unraid bleiben alle nicht betroffenen Disks erstmal unversehrt/intakt, da kein Striping eingesetzt wird und jede Disk in sich, allein formatiert ist und daher jede Datei immer komplett auf einer Disk im Array liegt.

Du kannst diese Disk immer noch rausnehmen und das Dateisystem manuell mounten um darauf zuzugreifen.

 

Ein paar Vorsichtsmassnahmen vorher reduzieren das Risiko, zB nicht alle Disks bei einem Händler kaufen oder Typen/Modelle mischen.

Annahme ist, da die MTBF ein statistischer Wert ist, dass Disks aus der gleichen Fertigungsserie (batch am Fliessband) wahrscheinlicher eine identische Ausfallzeit haben...bei gleicher Belastung fallen diese wahrscheinlicher zeitnah/kurz nacheinander aus.

Ich habe zB Parity- und Daten-Disks von unterschiedlichen Herstellern. ist vielleicht übertrieben, schadet aber auch nix.

Link to comment

...hast Du Dir das rsync Script und die Erläuterung von @mgutt angesehen, dass @T0a oben verlinkt hat?

Das ist für einen Anfänger sehr einfach.

Du hast eine Backup-Historie, aber jedes Backup Archiv ist immer vollständig, das heisst die Backups sind - anders als bei typischen, inkrementellen Backups - nicht voneinander abhängig.

 

Gerade bei Backups auf eine externe Disk ist die Erlebniswelt des Anwenders ja so, dass die Disk mal gerade dann nicht genügend Platz hat, wenn man ein Backup machen will. Dann kannst Du hier einfach entscheiden welches Backup-Archiv Du vorher löscht.

 

Wie gross soll denn Dein Array werden, bzw. wie viele Daten sollen ins Backup mit welcher Aufbewahrungs-Strategie?

Überlege Dir ob/wie lange Du mit einer externen Disk auskommst, was muss wirklich aufbewahrt werden oder ist doch im Zweifel entbehrlich im Katastrophenfall?

Zwei externe Disks jonglieren kann noch gut gehen, macht aber keinen Spass...spätestens dann würde ich ein kleines Fertig-NAS mit 2-4 Disks suchen oder einen zweiten unraid aufsetzen oder zB in den Desktop noch 2-4 Disks einbauen, einen Cloud-Storage mieten, ....

 

Wie oben schon gesagt, die ganz wichtigen Daten auf eine Disk und ab ins Bankschliessfach ;-)

 

Das ist aber kein Problem/feature von unraid...Docker und andere Lösungen gibt es zu hauf. Du musst Dich leider mal durchringen.

Theoretisch ist es leider schwer zu durchleuchten...also einfach ausprobieren, was zu Dir passt.

Link to comment
  • 3 weeks later...

Da ich nun die ersten ungesicherten Daten auf dem Server habe, muss ich mir kurzfristig eine Backupstrategie überlegen. Wie von euch vorgeschlagen würde ich das Script von @mgutt einsetzen.

 

Wenn ich nun meine kompletten Shares in dem Script eingebe, wäre ja alles gesichert oder (Cache + Array Disks)? Zusätzlich müsste ich "nur" den Flash USB Stick sichern?! Gibt es hierfür auch eine Automatik? Im Unraid Interface kann ich ich es "nur" manuell sichern oder? Einen Zeitplan habe ich nicht gefunden.

 

Das Script würde bei mir dann folgendermaßen aussehen (den Rest würde ich unverändert übernehmen):

 

# ######### Settings ##################
source_paths=(    
    "/mnt/user/appdata"
    "/mnt/user/domains"
    "/mnt/user/isos"
    "/mnt/user/Media (Videos)"
    "/mnt/user/Nextcloud"
    "/mnt/user/Sport"
    "/mnt/user/System"

)
backup_path="/mnt/disks/UNRAID012021_BACKUP"

 

Das Script würde ich dann im User Scripts Plugin als tägliche Sicherung einstellen. Eine Uhrzeit kann ich nicht einstellen oder?! Wann läuft es dann planmäßig?

 

Danke!

 

Edited by Zip
Link to comment

Was das Backup angeht bin ich nun bei CloudBerry gelandet. Bin noch in der Trial, finde die Sache aber ganz gut.

 

Ich sichere allerdings nicht in die Cloud damit, sondern alles auf USB-Platten über meinen Windows-Rechner. Damit ist ebenso eine Drive-Rotation möglich, sprich mehrere HDDs die du durchwechselst und extern lagern kannst. Das ist mir persönlich wichtig - was ist bei Einbruch, Blitzschlag, Feuer, etc?

Zudem hat es eine schöne Versionierung, Kompression und Deduplication! Also durchaus auch Features die sich sonst nur in professioneller, teurer Software wiederfinden.

 

Das Script muss ich mir allerdings auch nochmal anschauen, sieht interessant aus!

 

@mgutt Wäre damit auch eine HDD-Rotation möglich und wäre Unraid in der Lage die USB-Platten wieder automatisch zu mappen damit man außer Platte aus und einstöpseln nichts machen muss?

Link to comment
1 hour ago, Zip said:

Eine Uhrzeit kann ich nicht einstellen oder?! Wann läuft es dann planmäßig?

 

Doch du wählst Custom und einen passenden Cron. Zb täglich für 6 Uhr morgens wäre es dieser:

https://crontab.guru/#0_6_*_*_*

 

42 minutes ago, toasti said:

Wäre damit auch eine HDD-Rotation möglich und wäre Unraid in der Lage die USB-Platten wieder automatisch zu mappen damit man außer Platte aus und einstöpseln nichts machen muss?

Unassigend Devices besitzt eine Auto-Mount Funktion. Dadurch ist die Platte immer unter dem selben Pfad verfügbar.

 

Was nun fehlt ist eine Überwachung wann das Ziel wieder verfügbar ist. Also eine simple while Schleife, die das zb alle 30 Sekunden checkt und dann die Schleife verlässt und mit dem Backup beginnt. Der letzte Befehl wäre entsprechend ein Unmount (wenn gewünscht).

 

Was meinst du denn mit HDD-Rotation? Meinem Script ist es egal ob du eine neue Platte reinsteckst. Jedes Backup ist ein Vollbackup aufbauend auf dem letzten Backup der selben Platte. Dh wenn du 2 Platten jeden Tag im Wechsel nutzt, baut das Backup von Tag 3 auf das Backup von Tag 1 der HDD1 auf. Es werden also keine Differenzen zu Backups erfasst, die auf HDD2 liegen. Aber ich denke das ist erwünscht, weil man will ja auch ohne HDD2 in der Lage sein ein auf HDD1 liegendes Backup wiederherzustellen.

 

Ich würde jetzt zb pro HDD ein Skript einsetzen, damit jedes separat schauen kann ob es wieder verfügbar ist. Die Überwachungsfunktion kann ich die Tage umsetzen und eine neue Version hochladen.

Link to comment

@mgutt Noch eine Frage zu deinem Script:

 

Bei der App CA Appdata Backup/Restore v2 werden die Docker vorher heruntergefahren (wenn ich es richtig verstanden habe) und dann erfolgt die Sicherung. In deinem Script bleiben die Docker ja aktiv. Werden trotzdem alle Daten gesichert?

 

Dann wäre das Script (+ Datensicherung vom Flash USB Stick) ja das einzige was ich für eine vollständige Datensicherung benötige. Das wäre ja super und sehr nutzerfreundlich!

Link to comment
3 hours ago, mgutt said:

Was nun fehlt ist eine Überwachung wann das Ziel wieder verfügbar ist. Also eine simple while Schleife, die das zb alle 30 Sekunden checkt und dann die Schleife verlässt und mit dem Backup beginnt. Der letzte Befehl wäre entsprechend ein Unmount (wenn gewünscht).

 

Was meinst du denn mit HDD-Rotation? Meinem Script ist es egal ob du eine neue Platte reinsteckst. Jedes Backup ist ein Vollbackup aufbauend auf dem letzten Backup der selben Platte. Dh wenn du 2 Platten jeden Tag im Wechsel nutzt, baut das Backup von Tag 3 auf das Backup von Tag 1 der HDD1 auf. Es werden also keine Differenzen zu Backups erfasst, die auf HDD2 liegen. Aber ich denke das ist erwünscht, weil man will ja auch ohne HDD2 in der Lage sein ein auf HDD1 liegendes Backup wiederherzustellen.

 

Ich würde jetzt zb pro HDD ein Skript einsetzen, damit jedes separat schauen kann ob es wieder verfügbar ist. Die Überwachungsfunktion kann ich die Tage umsetzen und eine neue Version hochladen.

 

Ich habe nicht die komplette Diskussion verfolgt aber UD kann ein Skript ausführen, sobald eine Festplatte eingebunden wird. Ein Beispiel findet sich im ersten Post des UD Threads.

Edited by T0a
Link to comment
Just now, Zip said:

Werden trotzdem alle Daten gesichert?

 

Ja, außer der Container hat irgendwelche Daten im RAM oder beschreibt gerade eine Datei zum exakt selben Zeitpunkt wann das Backup startet. Dann hat man eine korrupte Datei, da sie ja aus alten und neuen Daten besteht. Es kann also manchmal Sinn machen den Container erst mal zu stoppen. rsync sichert einfach das was da ist und interessiert sich nicht dafür ob die Datei gerade in Benutzung ist.

 

Leider konnte ich nicht herausfinden warum squid auf tar gewechselt hat. Aber tar wäre gar keine Option für mich, da man dann nicht inkrementell sichern könnte.

 

Also lieber in das Script eine Start/Stop Zeile einbauen und gut ist.

Link to comment
6 hours ago, mgutt said:

Was meinst du denn mit HDD-Rotation? Meinem Script ist es egal ob du eine neue Platte reinsteckst. Jedes Backup ist ein Vollbackup aufbauend auf dem letzten Backup der selben Platte. Dh wenn du 2 Platten jeden Tag im Wechsel nutzt, baut das Backup von Tag 3 auf das Backup von Tag 1 der HDD1 auf. Es werden also keine Differenzen zu Backups erfasst, die auf HDD2 liegen. Aber ich denke das ist erwünscht, weil man will ja auch ohne HDD2 in der Lage sein ein auf HDD1 liegendes Backup wiederherzustellen.

 

Ich würde jetzt zb pro HDD ein Skript einsetzen, damit jedes separat schauen kann ob es wieder verfügbar ist. Die Überwachungsfunktion kann ich die Tage umsetzen und eine neue Version hochladen.

 

Genau so hatte ich mir das vorgestellt! Super!

 

Ich möchte ja immer eine Platte außer Haus haben, aber gleichzeitig ja auch auf eine andere sichern und dies eben im Wechsel.

Derzeit habe ich die Platte die bei der Arbeit im Rollcontainer liegt mit Bitlocker unter Windows verschlüsselt. Welche Möglichkeiten das Backup zu verschlüsseln gibt es hier?

 

2 hours ago, T0a said:

Ich habe nicht die komplette Diskussion verfolgt aber UD kann ein Skript ausführen, sobald eine Festplatte eingebunden wird. Ein Beispiel findet sich im ersten Post des UD Threads.

 

Ja genial! Dann ist doch alles da was es braucht.

 

Also sollte ich lieber das Backup vom Rechner auf Unraid kopieren und der macht wiederum das Backup auf externe HDDs.

Link to comment
4 hours ago, mgutt said:

Ja, außer der Container hat irgendwelche Daten im RAM oder beschreibt gerade eine Datei zum exakt selben Zeitpunkt wann das Backup startet.

 

Davon muss man einfach ausgehen. Alles andere wäre fahrlässig. Bei Nextcloud/MariaDB und Plex/SQLite kann das sonst ziemlich in die Hose gehen. Außerdem sollte man jeweils 2-3 Sekunden Pause einbauen, damit sich die Caches oder Transaktionen "entladen".

 

So mache ich das seit Jahren für Nextcloud/MariaDB:

 

docker exec mariadb /usr/bin/mysqldump ... # Dump

docker stop nextcloud

docker stop mariadb

rsync mariadb ... # appdata

rsync nextcloud ... # appdata

rsync Nextcloud ... # data

docker start mariadb

docker start nextcloud

 

So hat man einen binären sowie einen SQL Dump der Datenbank plus beide appdata Folder plus Nextcloud data.

 

Bei Plex gilt das ebenfalls (binär und dump der Datenbank plus appdata Folder):

 

docker stop plex

echo '.dump metadata_item_settings' | sqlite3 ... # Abspielstatus

echo ".dump" | sqlite3 ... # Dump

rsync plex ... # appdata

docker start plex

 

Da User Scripts alles parallel startet glühte mein Backup immer. Deshalb habe ich mir ein riesiges Python Script mit Arrays für tägliche, wöchentliche und monatliche Jobs gebaut. Läuft astrein.

 

Edited by hawihoney
Link to comment

Ich steig hier auch mal in die Diskussion ein, da mich diese Frage auch gerade umtreibt. Ich verzichte (vorerst) auf ein Offsite-Backup. Würde aber vielleicht auch 2 Platten (und dann ggfs. im Auto/Büro platzieren - Offsite-Backup für Arme^^) im Wechsel einsetzen. Mit dem Script von @mgutt + UD(+) Plugin sollte das wenn ich hier jetzt alles richtig verstanden habe ohne weiteres möglich sein. Aktuell nutze ich eine Krücken-Lösung über das LuckyBackup Plugin - das muss aber manuell angestoßen werden. Anstecken und das Backup legt los ist natürlich deutlich charmanter

1 hour ago, toasti said:

 

Also sollte ich lieber das Backup vom Rechner auf Unraid kopieren und der macht wiederum das Backup auf externe HDDs.

Das ist auch mein vorgehen. Nutze dafür sogar die Windows-eigene Sicherung. Unraid wird dann mit einem extra Share "Backup" als Netzlaufwerk hinterlegt. Der Share würde dann wiederum über das o.g. vorgehen rotierend gesichert.

 

Eine letzte Frage bezüglich des Scripts: Kann man da auch Unterordner ausschließen?

Link to comment
1 hour ago, hawihoney said:

Davon muss man einfach ausgehen. Alles andere wäre fahrlässig

 

Vom Prinzip schon, wobei immer die Frage ist wie eine Anwendung programmiert wurde. Plex macht zb automatisch Backups von der Datenbank. Selbst wenn also die Live-Datenbank korrupt gesichert wurde, könnte man einfach die von gestern nehmen:

IMG_20210122_203025.thumb.jpg.fcc8f3ec3862aa59b1d3f1a5a6a249eb.jpg

 

Was verliert man da schon. Die Wunschliste, die man gestern angelegt hat? Kann man denke ich verkraften.

 

Bei Nextcloud habe ich keine Ahnung, aber wenn man da intern täglich ein Backup von der DB erstellen kann, hätte man die selbe Situation. Wobei man Nextcloud ja nicht mal stoppen müsste. Die Datenbank ist ja im MariaDB Container. Die könnte man zb mit dem Container sichern:

https://hub.docker.com/r/databack/mysql-backup

 

Wenn man den dann mit rsync sichert, hat man ein konsistentes Datenbank-Backup als .sql Datei.

 

Link to comment
3 hours ago, mgutt said:

Was verliert man da schon. Die Wunschliste, die man gestern angelegt hat? Kann man denke ich verkraften.

 

Ach das steckt einfach in mir drin. Wenn man Backup sagt, dann sollte man es auch richtig machen. Die Abwägung, ob ein Datum wichtiger als ein anderes ist, blockiert nur und im Zweifel ärgert man sich dann doch. Und der Aufwand ist lächerlich gering.

 

Wie gesagt: Keine 10 Zeilen, und saubere Backups lassen ruhig schlafen.

 

 

  • Like 1
Link to comment
58 minutes ago, Zip said:

Ist es eigentlich normal, dass das Script von @mgutt beim ersten Backup sehr lange läuft?

 

Da mein Script rsync nutzt, gibt es eigentlich kaum was schnelleres. Wie sind denn die Übertragungsraten? Die Leserate siehst du ja in der Disk-Übersicht. Rechts oben die Striche stellen die Read/Write Zahlen auf Transfer um.

IMG_20210130_095416.thumb.jpg.5bc0d603712b0d3d1f0decd784aec4d6.jpg

 

Außerdem kannst du in User Scripts rechts auf das Blatt Icon klicken. Das öffnet ein Popup mit den aktuell laufenden Logs.

IMG_20210130_095540.jpg.26502aabe8bbd28eae2d6b17d56bc5aa.jpg

 

Link to comment

Umso länger es läuft umso langsamer wird es. Anfangs lag es so bei 70-80 MB/s, gerade so bei 40-50 MB/s. Tendenz sinkend.

 

In den Logs kann ich nichts besonderes entdecken. Da geht er Datei für Datei durch.

 

Die USB Festplatte ist übrigens folgende:

 

Model family: Western Digital Elements / My Passport (USB, AF)

Device model: WDC WD40NMZW-11GX6S1

User capacity:4,000,753,475,584 bytes [4.00 TB]

Sector sizes: 512 bytes logical, 4096 bytes physical

Rotation rate: 5400 rpm

Form factor: 2.5 inches

 

Angeschlossen an einem USB 3.1 Slot (obwohl sie nur 3.0 kann). Anfangs hatte ich die Festplatte an einem 3.0 angeschlossen, aber es ist egal ob 3.1 oder 3.0. Die Geschwindigkeiten sind leider bescheiden.

 

Wahrscheinlich muss ich das so hinnehmen oder gibt es irgendwelche Tipps?

Link to comment

Das ist eine sehr lahme 2.5 Zoll SMR Festplatte auf die du da sicherst.

 

Waren da bereits Daten drauf? Eine HDD wird immer langsamer, umso voller sie wird und dein Modell schafft am Anfang gerade mal 100 bis 110 MB/s. Waren schon Daten drauf, dann erklärt das die 80 MB/s zu Anfang bzw viele kleinere Dateien werden bekanntlich etwas langsamer übertragen.

 

Hier siehst du als Beispiel die Kurve von einer WD Red, die von 206 auf 93 MB/s fällt:

WD-10TB-Red-HDTune-Read-Screenshot.jpg.e04815a9071376d512902c49946dbd0d.jpg

 

Da kannst du dir schon ausmalen wie das bei deiner endet. Kommt jetzt aber natürlich auch darauf an wie groß dein Backup ist.

 

 

SMR sollte dir dagegen keine Probleme bereiten, da mein rsync Skript inkrementell sichert und nicht wie bei einem klassischen Sync die Dateien bei Bedarf aktualisiert. Aktualisieren ist bei einer SMR nämlich tödlich langsam.

 

Willst du also schnellere Backups, brauchst du eine schnellere Platte. Die 3.5 Zoll USB Platten von WD sollten auf einem ähnlichen Niveau wie die WD Red sein. Ob die SMR oder CMR sind, müsste man erst recherchieren.

 

Link to comment

Wenn ich die Festplatten mal austausche, werde ich darauf achten...

 

Momentan "flitzt" es mit 7,7 MB/s 😞 Obwohl noch 2,25 TB frei sind (1,75 TB sind belegt). Verstehe ich nicht wirklich warum es so in den Keller geht...

 

image.png.7e34d1723f44e3315695148e4dbd42dc.png

 

Wenn das erste volle Backup dann drauf ist, hoffe ich, dass die nächsten dann deutlich schneller gehen. Sonst kann es kein tägliches Backup geben, wenn der mehrere Tage für eins benötigt 😐

Edited by Zip
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.