Jump to content

Disk Array verkleinern - Aus 3 datadisks werden 2


ullibelgie

Recommended Posts

Noch eine Sache:

 

Mein Paperless-ng Docker hat einige Besonderheiten, die wahrscheinlich vom Standard abweichen:

- normalerweise wird die Datenbank sqllite verwendet, die im Appdata folder von Paperless-ng sich befindet

- Ich nutze aber Postgresql wofür der zusatzliche Docker Postgresql installiert wurde. in Appddata is dafür ein weiterer Folder Postgresql erstellt, wo die datenbank ist. Es gibt also eine Art "Querverweisung von Docker zu docker"

- die eigentlichen Dokumente (pdf Originale und zusätzlich auch PDFs 'gekoppelt' and Paperless databank befinden sich im Folder Media /mnt/users/media/paperless-ng

 

Ich habe von diesem Dokumenten folder zusätzliche Backups gemacht mit Luckybackup...

 

Ich weiss nicht, ob das für das Restoren des Appdata folders irgendeine Bedeutung hat - wollte es aber durchgeben, bevor wir entscheiden, ob ich einen Restore von dem .tar file machen soll oder nicht...

Link to comment

Habe mal geschaut, wie der Restore gemacht werden müsste:

grafik.thumb.png.0c546a4b60e0c576807b4a45d3e811e7.png

 

Hier ist die Rede von Cache-drives - wohl weil normalerweise der Appdata Folder auf einem Cachedrive liegt ?

Ich habe aber kein Cache-Drive, sondern nur das Array. Damit kann ich die ersten beiden Punkte dann negieren ?!

 

Was muss ich jetzt mit dem Docker.img file tun ? Vor dem Restore löschen, oder was ist hier gemeint - Zeile 3 oben im Screenshot

 

Was ist mit der letzten Zeile gemeint:

" ...Re-add your previously installed docker applications via CA's Previous Apps section. No adjustment of the templates should be necessary..."

Link to comment
58 minutes ago, ullibelgie said:

Ich habe ja bei der ganzen Aktion Files von disk3 auf disk1 verschoben. Hierbei waren auch Teile von Appdata, system und domein - alles bunt durcheinander... Ich kann also nicht sagen, ob das .tar file aus dem Screenshot oben nicht vorher vielleicht auf disk3 stand und erst jetzt (nach dem Verschieben) auf Disk1..... spielt das eine Rolle ?

Das Backup läuft über /mnt/user. Es enthält also alles. Mach doch einfach das:

mkdir /mnt/disk1/appdata_backup
mv /mnt/user/appdata/* /mnt/disk1/appdata_backup/

 

Natürlich nur wenn Settings > Docker auf "Nein" steht.

 

Dann ist appdata leer und du kannst deinen restore machen. Deine bestehenden appdata Dateien sind dann auch noch alle da, falls das Backup widererwartend in die Hose geht.

Link to comment

So die Appdata dateien habe ich mit den Terminal Befehlen in Appdata_Backup kopiert auf disk1

 

Docker settings bleibt auf NO stehen

Jetzt läuft der restore...

 

Wie Du oben in dem Screenshot des Appdata restore plug-in siehst, steht da in der Liste, wie man vorgehen soll als Vorletzter Punkt den Server zu restarten...

Soll ich das wirklich machen - dann sind nämlich alle Logs weg... wenn was schief geht weiss ich nix...

 

Ich werde besser erstmal die Logs hier posten von dem Restore...

Link to comment

Restore Plug-in zeigt jetzt - backup/restore Completed

Da scheint auch noch eine Datei SOLR erzeugt worden sein - ein altes Probiersel aus der ersten Testphase... ist wohl noch über,,, aber nicht benutzt...

 

Hier das Log nach dem Restore von Unraid:


Feb 12 12:23:57 Tower emhttpd: read SMART /dev/sdd
Feb 12 12:23:57 Tower emhttpd: Starting services...
Feb 12 12:23:57 Tower emhttpd: shcmd (232258): chmod 0777 '/mnt/user/appdata_backup'
Feb 12 12:23:57 Tower emhttpd: shcmd (232259): chown 'nobody':'users' '/mnt/user/appdata_backup'
Feb 12 12:23:57 Tower emhttpd: shcmd (232261): /etc/rc.d/rc.samba restart
Feb 12 12:23:57 Tower winbindd[23517]: [2022/02/12 12:23:57.474671, 0] ../../source3/winbindd/winbindd.c:244(winbindd_sig_term_handler)
Feb 12 12:23:57 Tower winbindd[23517]: Got sig[15] terminate (is_parent=1)
Feb 12 12:23:57 Tower wsdd[23514]: udp_send: Failed to send udp packet with Network is unreachable
Feb 12 12:23:57 Tower winbindd[23519]: [2022/02/12 12:23:57.474753, 0] ../../source3/winbindd/winbindd.c:244(winbindd_sig_term_handler)
Feb 12 12:23:57 Tower wsdd[23514]: Failed to send bye with Network is unreachable
Feb 12 12:23:57 Tower winbindd[23519]: Got sig[15] terminate (is_parent=0)
Feb 12 12:23:57 Tower winbindd[23867]: [2022/02/12 12:23:57.475412, 0] ../../source3/winbindd/winbindd.c:244(winbindd_sig_term_handler)
Feb 12 12:23:57 Tower winbindd[23867]: Got sig[15] terminate (is_parent=0)
Feb 12 12:23:59 Tower root: Starting Samba: /usr/sbin/smbd -D
Feb 12 12:23:59 Tower root: /usr/sbin/wsdd
Feb 12 12:23:59 Tower smbd[10118]: [2022/02/12 12:23:59.700393, 0] ../../lib/util/become_daemon.c:135(daemon_ready)
Feb 12 12:23:59 Tower smbd[10118]: daemon_ready: daemon 'smbd' finished starting up and ready to serve connections
Feb 12 12:23:59 Tower root: /usr/sbin/winbindd -D
Feb 12 12:23:59 Tower winbindd[10131]: [2022/02/12 12:23:59.782478, 0] ../../source3/winbindd/winbindd_cache.c:3203(initialize_winbindd_cache)
Feb 12 12:23:59 Tower winbindd[10131]: initialize_winbindd_cache: clearing cache and re-creating with version number 2
Feb 12 12:23:59 Tower winbindd[10131]: [2022/02/12 12:23:59.783639, 0] ../../lib/util/become_daemon.c:135(daemon_ready)
Feb 12 12:23:59 Tower winbindd[10131]: daemon_ready: daemon 'winbindd' finished starting up and ready to serve connections
Feb 12 12:24:03 Tower flash_backup: adding task: /usr/local/emhttp/plugins/dynamix.my.servers/scripts/UpdateFlashBackup update
Feb 12 12:24:05 Tower emhttpd: read SMART /dev/sdb
Feb 12 12:25:03 Tower flash_backup: adding task: /usr/local/emhttp/plugins/dynamix.my.servers/scripts/UpdateFlashBackup update
Feb 12 12:28:01 Tower ool www[10310]: /usr/local/emhttp/plugins/dynamix.docker.manager/scripts/docker_rm
Feb 12 12:29:52 Tower CA Backup/Restore: #######################################
Feb 12 12:29:52 Tower CA Backup/Restore: Community Applications appData Restore
Feb 12 12:29:52 Tower CA Backup/Restore: Applications will be unavailable during
Feb 12 12:29:52 Tower CA Backup/Restore: this process. They will automatically
Feb 12 12:29:52 Tower CA Backup/Restore: be restarted upon completion.
Feb 12 12:29:52 Tower CA Backup/Restore: #######################################
Feb 12 12:29:52 Tower CA Backup/Restore: Restoring appData from to
Feb 12 12:29:52 Tower CA Backup/Restore: Using command: cd '/mnt/user/appdata/' && /usr/bin/tar -xvaf '/mnt/user/Backups/Backups_Appdata/[email protected]/CA_backup.tar' >> /var/lib/docker/unraid/ca.backup2.datastore/appdata_backup.log 2>&1 & echo $! > /tmp/ca.backup2/tempFiles/restoreInProgress
Feb 12 12:31:55 Tower CA Backup/Restore: Restore Complete
Feb 12 12:31:55 Tower CA Backup/Restore: #######################
Feb 12 12:31:55 Tower CA Backup/Restore: appData Restore complete
Feb 12 12:31:55 Tower CA Backup/Restore: #######################
Feb 12 12:31:55 Tower CA Backup/Restore: Backup / Restore Completed

grafik.png

Link to comment
3 minutes ago, mgutt said:

Ist Unsinn. Brauchst du nicht.

Ok, dann werde ich jetzt nicht rebooten...

Sind die logs ok ?

 

Ich hatte das docker.img file gelöscht unter Settings docker...

 

Soll ich jetzt mal Settings > Docker wieder auf Ja setzen und dann den Docker Calibre neu installieren ? Oder sind Fehlermeldungs in den Logs, die das verbieten würden...?!

Link to comment

Im Log sehe ich "nur" einen Fehler für eine Netzwerkverbindung.

21 minutes ago, ullibelgie said:

Feb 12 12:23:57 Tower wsdd[23514]: udp_send: Failed to send udp packet with Network is unreachable

Feb 12 12:23:57 Tower wsdd[23514]: Failed to send bye with Network is unreachable

 

Unter /mnt/user/appdata müsstest Du die Ordner Deiner alten Docker Container sehen.

Ich dachte Du Installierst nicht neu sondern möchtest den alten Zustand? Deshalb wurde doch das Backup von appdata ausgeführt, damit Du die alten Docker über "Add Container" und "select Template" wieder bekommst?

Vielleicht habe ich das auch falsch verstanden. Dann höre hier auf meinen Beitrag zu lesen.

 

Wenn ich das nicht falsch verstanden habe:

Inwiefern der Container "Calibre web" für Deine "Calibre" Installation wichtig ist weißt Du selbst am besten.

Möglicherweise ist es kein Fehler erstmal die Datenbank zur Verfügung zu stellen.

Ich für meinen Teil habe beim letzten Restore jedenfalls erst mariaDB wiederhergestellt und danach Nextcloud.

Aber Du kennst Dich mit Calibre sicher besser aus.

 

Du solltest die Konfigseiten der Container jedenfalls auf Richtigkeit prüfen. Nicht daß Du irgendwo noch einen Datenpfad auf

/mnt/disk3/... hast und ein Container deshalb nicht läuft. Ich gehe aber davon aus daß Du bisher mit /mnt/user/... gearbeitet hast.

 

 

 

 

 

Link to comment

Hatte jetzt Settings > Docker wieder auf ja gesetzt

Dann in Docker > Add container im dropdown menu erst Calibre und dann Calibre-web neu installiert :

grafik.thumb.png.96668f0a7a29ed7f9bfd6e71ceb69d9f.png

 

Wenn ich dann bei Calibre-web das WebGui aufrufen will bekomme ich tatsächlich meine Bücher wieder zu sehen !!!

Unglaublich !

 

Was muss ich jetzt noch machen ? Oder ist das Problem damit behoben ?!

Ich trau mich gar nicht mehr irgendwas noch anzufassen...

 

Das gleiche jetzt versuchen mit Paperless-ng ??

Also:

Unter Docker > Add Container nacheinander aus dem Drop-down menu installieren:

- Paperless-ng

- Postgresql

- Redis

 

Werden die Parameter dieser Docker dann aus dem Backup übernommen - oder muss ich das alles neu einstellen ?

 

Oder ist es noch zu früh für weitere Docker zu installieren und ich sollte erst noch das eine oder andere Checken ??

 

Sorry für meine Verunsicherung...

 

Link to comment

Was heißt hier unglaublich? 😅 Du hast genau deshalb ja vor dem Problem für ein Backup gesorgt 👍

 

Probieren geht über Studieren. 

Ich habe genauso wie Du nach einem Fehler auf diese Weise alle meine Docker wiederhergestellt.

EDIT: Wie oben erwähnt sind die Datenpfade halt wichtig. Ich hatte vor der Umstellung meines Servers z.B. Pfade auf /mnt/disk4 und musste das anpassen. Siehst Du ja dann auf der Konfigseite des jeweiligen Docker Containers.

 

Hau rein. Mehr als daß ein Container nicht tut oder sich welche in die Quere kommen kann ja nicht passieren.

Deshalb nutzt man ja Docker.

Edited by MartinG
Link to comment
43 minutes ago, MartinG said:

Ich gehe aber davon aus daß Du bisher mit /mnt/user/... gearbeitet hast.

Ich kann mich nicht erinnern, daß ich irgendwo in den Pfaden eine bestimmte Disk vorgeschrieben habe...

Stattdessen habe ich immer mit /mnt/user/... gearbeitet

 

Aber werde die Pfade nochmals kontrollieren.

 

Auch die Disk-shares sind bei mir auch von Beginn an ausgeschaltet - ist mir viel zu gefährlich disk- und usershares mal durcheinander zu würfeln und dann mit einem Haufen Schrott übrig zu bleiben...

 

Bin dabei die übrigen Docker via Add Container neu aufzubauen...

Link to comment

Sieht doch fein aus.

 

Warum das nun schlussendlich passiert ist, ist natürlich offen. So wie du es erzählt/erklärt hattest, hast du meiner Ansicht nach alles richtig gemacht. Allerdings habe ich auch noch nie gehört, dass Unbalance was so heftig zerlegt. Ich kann mir das nur so erklären, dass irgendwie Unbalance abgeschmiert ist und du dann noch mal mit Unbalance parallel die ganzen rsyncs gestartet hast und dann dadurch die korrupten Dateien entstanden sind. Denn es hätte nie so sein dürfen, dass auf der Quelle noch Dateien liegen, wenn Unbalance fertig war. Oder, aber das werden wir jetzt nicht mehr herausfinden, du hattest vorher schon Dateien doppelt auf Quelle und Ziel.

 

Zumindest hast du nun einiges gelernt über die Ordnerstruktur und worauf es ankommt. Ein bisschen Mut darfst du schon haben, wenn du Backups hast. Nur aus Fehlern kann man lernen 😋

Link to comment

Calibre und Calibre-web installiert - scheint zu funktionieren...

Paperless-ng, Postgresql, Redis installiert - Funktioniert !! Super....

Binhex/Krusader - funktioniert....

 

Bin jetzt erstmal groggi, aber glücklich...

 

Ich möchte mich ganz besonders bedanken für die Hilfe hier...

 

Ja, vielleicht ist es einfach nur mein alter Server, der mit der Move-Aktion mit dem Plug-in überfordert war und irgendwie gecrashed ist...

 

Ich brauch erst mal ne Verschnaufpause... bis später

  • Like 1
Link to comment
10 hours ago, mgutt said:

Wie ich gelesen habe, nutzt auch Lucky Backup rsync. Ich hoffe du hattest bei LuckyBackup den Root Login von Ubuntu hinterlegt oder LuckyBackup nutzt zumindest eine der rsync Optionen --numeric-ids, --super oder --fake-super. Ich habe zb auf der

Arbeit das Problem, dass ich keine Backups auf eine Syno per rsync machen kann, weil ich da nicht per root schreiben kann.

 

Jetzt, wo mein Stress mal etwas nachgelassen hat und das akute Problem des Servers gelöst ist. möchte ich nochmal kurz nachfragen:

Ober wurde ich ja darauf hingewiesen, daß es nötig ist für Backup's mit Luckybackup das Program als Root user auszuführen - jedenfalls habe ich das so verstanden.

 

Wenn ich also z.B. das appdata.tar file (Unraid plugin Appdate backup/restore) auf eine externe SMB disk ziehen will mit Luckybackup (gestartet auf dem Ubunturechner lesend auf Unraid), um dieses File auch noch ausserhalb von Unraid zu sichern, dann soll ich also Luckybackup als rootuser auf dem Ubuntu server ausführen ?

Oder ist was anderes gemeint ?

 

Wie macht man das dann auf dem Ubuntu rechner...

Bisher hat der Ubertrag von Unraid -->> Ubuntu immer einfach durch normales Starten von Luckybackup funktioniert.

Ich habe die Verzeichnisse von Unraid dann via File/Folder sharing dann gemountet auf dem Ubuntu rechner und konnte so diese Verzeichnisse mit dem GUI von Luckybackup auch ohne Probleme übertragen...

 

Allerdings scheint es so zu sein, das manche Systemverzeichnisse von Unraid (auch appdata) nicht richtig übertragen werden - oder jedenfalls kein gutes Restore mehr ermöglichen ?!

 

Gegebenenfalls sollte ich vielleicht für diese Fragen einen neuen Thread machen ?!

Link to comment
2 hours ago, ullibelgie said:

um dieses File auch noch ausserhalb von Unraid zu sichern, dann soll ich also Luckybackup als rootuser auf dem Ubuntu server ausführen ?

Oder ist was anderes gemeint ?

Ich habe beispielsweise das Appdata Backup auf den Samba Server meiner Fritzbox abgelegt.

 

In unassigned Devices kann man unten ja auch einen Netzwerkshare verbinden.

Ist das gemacht kann man diesen Share ja über /mnt/remotes in eine Backuproutine einbinden.

Edited by MartinG
  • Thanks 1
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...