toasti
Members-
Posts
127 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Everything posted by toasti
-
Wow, many thanks for the complete solution! I set it up but I am not sure if that really works on my server, because tcpdump is not recognized as command. I presume I have to install this first, right?
-
Aahhhh, changed 5 min ago and startet backup That works Thanks for letting me know the possible ways to trigger a backup. The question is what would be the easiest and fastest to implement?
-
Good idea! 🙂 But how to automate / trigger this from the Windows Client to make backup now? It must be so easy that my wife can do this. Maybe it's possible to use the "inbuilt" Ubuntu in W10 and mount the local disks and run it from there? https://thedatafrog.com/en/articles/backup-rsync-windows-wsl/
-
By the way... is there any chance to use this script locally on a Windows PC to backup the internal disks to an external drive?
-
The Window was open, anytime. But anyway, I presume this is the problem.
-
I presume the problem for just a big job was that I ran the script manually in the web gui user script plugin. At the moment it's still running. When done I will schedule an automatic job.
-
The log just stopped - no errors.
-
It is possible that the script had some problems with big initial backups? I started yesterday to backup my 4 TB of Data to an external drive and it stopped after 1,5 TB. Now I started again and I am excited to see what will happen. But very cool script, really! I had a look how the hard links and inodes work, very clever!
-
Knowing or believing? As already described, a TAR file makes it nearly impossible to backup the backup to an external drive if you have not unlimited space on the external hard disk. Why not implementing this as an option? I would really appreciate it.
-
Very nice app! I use it everyday to backup my Docker data. BUT there's one thing I want to ask: Would it be possible to implement an option if I want to have a TAR file or not? With the TAR file we get a big file on every backup that the second backup software (to external drive) want to backup. If the backup would be just a copy of "appdata" without to tar it afterwards, the other backup software would be able to use dedup to prevent to backup the same data multiple times.
-
Genau so hatte ich mir das vorgestellt! Super! Ich möchte ja immer eine Platte außer Haus haben, aber gleichzeitig ja auch auf eine andere sichern und dies eben im Wechsel. Derzeit habe ich die Platte die bei der Arbeit im Rollcontainer liegt mit Bitlocker unter Windows verschlüsselt. Welche Möglichkeiten das Backup zu verschlüsseln gibt es hier? Ja genial! Dann ist doch alles da was es braucht. Also sollte ich lieber das Backup vom Rechner auf Unraid kopieren und der macht wiederum das Backup auf externe HDDs.
-
Was das Backup angeht bin ich nun bei CloudBerry gelandet. Bin noch in der Trial, finde die Sache aber ganz gut. Ich sichere allerdings nicht in die Cloud damit, sondern alles auf USB-Platten über meinen Windows-Rechner. Damit ist ebenso eine Drive-Rotation möglich, sprich mehrere HDDs die du durchwechselst und extern lagern kannst. Das ist mir persönlich wichtig - was ist bei Einbruch, Blitzschlag, Feuer, etc? Zudem hat es eine schöne Versionierung, Kompression und Deduplication! Also durchaus auch Features die sich sonst nur in professioneller, teurer Software wiederfinden. Das Script muss ich mir allerdings auch nochmal anschauen, sieht interessant aus! @mgutt Wäre damit auch eine HDD-Rotation möglich und wäre Unraid in der Lage die USB-Platten wieder automatisch zu mappen damit man außer Platte aus und einstöpseln nichts machen muss?
-
Danke für die Infos - diese Option hatte ich im Kopf, ist aber erstmal weniger interessant. Ich wüsste nicht wohin ich diesen Backup-Server stellen könnte. Klar, evtl. zu meinen Eltern. Aber es braucht halt wieder Hardware usw. Mir geht es darum möglichst schnell ein Backup zu haben - kannst du mir zu meinen oben genannten Wunsch-Backup-Varianten noch was sagen? Ich finde Versionierung wichtig, daher ist ein reiner Spiegel auch wirklich nur das "Disaster Recovery". EDIT: Habe gerade im Forum noch Beiträge entdeckt wo es um das initiale Cloud-Backup von 4-5TB ging, welches Monate gedauert hat. Teilweise (je nach Anbieter) ein ganzes Jahr. Das ist verrückt. Ich werde also erstmal auf externe HDDs gehen müssen für das extern gelagerte Backup und die Syno als inhouse Backup. LOL. Ich erinnere mich gerade zurück, ich hatte vor über 10 Jahren Acronis Online Backup und da hat das initiale Backup auch ewig gedauert, damals waren es aber vielleicht 500 GB Daten.... Welche, als Docker Container erhältliche, Software kannst empfehlen für ein Backup auf externe Disk? Was ich mal testen müsste: Linux VM mit Veeam Free - Mounting der Unraid-Shares und Backup auf externe HDD. Nur ob das in der Free-Version geht? In Windows kann ich ja keine Freigaben sichern, aber schnallt er es in Linux?! EDIT2: Ja, er schnall es Schade! EDIT: Evtl. hänge ich nen Raspi mit 5 TB Platte bei meinen Eltern ans Netz und teste mal "Syncthing" - sau cooles Tool! Ein lokales Backup auf externe Platte brauche ich trotzdem - welches funktioniert hier gut mit Versionierung? Habt ihr Erfahrung mit Duplicati?!
-
Hallo zusammen, derzeit mache ich mir Gedanken über das Backup und frage mich welche Strategie im Zusammenspiel mit welchen Tools nun bei Unraid am besten zusammenpassen. Als alles noch auf meinem Rechner lag hab ich täglich wenn notwendig eine Sicherung per Veeam gezogen, zusätzlich ein Abgleich der Daten per Robocopy, die Platte ist per Bitlocker verschlüsselt und wurde dann im Büro für eine Woche gelagert. Ich bin zudem ein großer Fan von Online-Backups, allerdings habe ich mittlerweile so viel Daten, dass mich das Online-Backup monatlich mind. 15-20€ kosten würde wenn ich allein nur Bilder / Videos sichere (ca. 4-5 TB(. Die letzten Jahre habe ich online nichts mehr gesichert, dort wollte ich eigentlich aber wieder hin. Was ich mir vorstellen könnte ist: Tägliches Backup auf meine Synology NAS welches derzeit mit 2 x 3 TB im Raid 1 läuft. Da es zukünftig rein als Backup fungieren wird, würde ich das Raid1 auflösen damit ich den vollen Speicher zur Verfügung habe. Tägliches verschlüsseltes Backup in eine Cloud (preislich interessant ist Backblaze / MEGA). Backup auf eine oder 2 externe HDDs die ich wöchentlich rotiere und immer eine davon extern lagere. Mind. 1 Kopie möchte ich auf jeden Fall extern haben für den Fall der Fälle (Einbruch, Feuer, Blitzschlag, was auch immer passieren könnte). Wenn ich natürlich monatlich 20€ für ein Cloudbackup bezahle kann ich nach spätestens 5 Monaten eine 5 TB HDD kaufen, nach weiteren 5 Monaten eine zweite. Aber man muss es auch ein wenig wie eine Versicherung sehen wo man ja auch regelmäßig zahlt und erstmal keinen Nutzen hat. Aber natürlich wäre ich auch nicht böse wenn ich monatlich keine Mehrkosten habe, klar. Dafür muss ich mich bei einem Cloudbackup um nichts kümmern und nächtlich fließen alle Änderungen einfach dort hin. Bei den Festplatten muss ich natürlich aktiver sein - was allerdings kein Problem für mich darstellt. Als Software ist wohl Duplicacy wie auch Cloudberry ein heißer Tipp. Getestet habe ich aus Zeitgründen noch keines der beiden. Ich möchte defintiv eine Versionierung und nicht einfach nur ein einfacher Spiegel der Daten. Ein Zusatzbackup (wie oben erwähnt mit Robocopy) würde ich als einfachen Spiegel akzeptieren. /// Welche Strategie fahrt ihr? Welche Software nutzt ihr? Mit welcher Software könnte ich das lokale wie auch Cloudbackup erledigen? Könnt ihr Cloudspeicher empfehlen oder habt ihr mit den oben genannten Erfahrungen? Bei der Arbeit sichern wir natürlich u.a. auf Tapes und lagern diese an einem sicheren Ort - das hatte ich mir auch kurz überlegt - aber ist halt unbezahlbar 😄 Im Voraus vielen Dank - bin für jeden Tipp dankbar.
-
Mobile Apps für PhotoPrism? Ja, die sind absolut am Anfang. Allerdings ist die mobile Oberfläche sehr gut und Fotos syncen ist super per Photosync, gibt's für Android und iOS. Habe für PP einen eigenen Share, dort wird direkt rein gesynct. Bin auch großer Google Fotos Fan, will aber seit langem dazu übergehen alles nur noch Lokal zu haben.
-
Probiere doch mal Photoprism. Beobachte das Projekt seit langem, bin ständig in Kontakt mit den Entwicklern und habe es nun auf meinem Unraid Server in Einsatz. Super Sache und per Reverse Proxy auch von außen erreichbar wenn man das will.
-
Ahhhhh! OK, so easy! I presume that anything else must also be set in background that it will use the new variable. Perfect! Many thanks for your fast help! I will try this!
-
Hello @ich777, PP is running fine with your app. But what I need to adjust is the variable "PHOTOPRISM_ORIGINALS_LIMIT", because it's default on 1000 MB which is to less for videos. How can I add this setting or are you able to add all "optional" settings? -> https://docs.photoprism.org/getting-started/config-options/
-
Er bricht ab mit der Meldung, dass die Netz-Ressource nicht mehr zur Verfügung steht. Genau so habe ich es auch konfiguriert was die Speicherpfade angeht. Komischerweise habe ich es gerade nochmal getestet und auf einmal flutscht es wie die Hölle. Ein 400 MB Video ist in nichtmal 2 Sekunden heruntergeladen. Komische Sache. Mal beobachten. Das könnte sogar echt sein, dass ich als mir das aufgefallen ist auch noch die Shares umkonfiguriert habe! Ich achte nochmal drauf! Aber ja, es ist ein Unding, dass die Dienste neu starten. Sowas habe ich ja noch nie gehört! Die ersten Erfahrungen mit den Abbrüchen haben mir auch alles andere als ein gutes Gefühl gegeben... gut zu wissen. Hoffe das fixt man! Bis gestern hatte ich auch noch das Problem, dass die Zeit per NTP nicht stimme. Zeitzone richtig eingestellt, eine Stunde zu viel auf der Uhr, statt 21 Uhr -> 22 Uhr. Nun wollte ich grad nochmal euch fragen ob ihr noch einen Tipp habt - nun check ichs und es passt. Äh? Musste Unraid erst 7 Tage durchlaufen damit sich so ein paar Sachen geradebiegen?!
-
Hallo zusammen, nun läuft also mein erster Unraid-Server und ich bin von der ersten Sekunde an echt begeistert. Verbaut sind derzeit 3 x 8 TB und 2 x 4 TB und 525GB SSD für den Cache. Als Parity hält eine der 8 TB Platten her. Nun habe ich 2 Sachen festgestellt die ein wenig komisch sind: 1. Immer wieder Abbrüche beim Kopieren von Daten auf Unraid von meinem W10 Rechner aus wenn ich nebenbei auch noch im Unraid Menü rum klicke und mir z.b. den Inhalt der Festplatten anzeigen lasse. Das finde ich sehr merkwürdig und ist sicher nicht normal. Das muss das System doch ab können. 2. Ich habe PhotoPrism als Docker Container laufen - eine Fotoverwaltung. Downloadet man hier ein Video kommt man auf gerade mal 6 MB / s. Ich hätte hier erwartet, dass man auf dieselbe Geschwindigkeit kommt wie wenn man per SMB etwas vom Server zieht. Gibts hier in irgendeiner Form eine Beschränkung in Docker? Habe schon gelesen das switchen von Bridge auf Host würde etwas bringen - das mag ich mal testen. Habt ihr Ideen was ich bzgl. der 2 Punkte noch prüfen könnte? Grüße und Danke vorab!
-
Any further idea what I can check? At the moment I set the time manually. But this is nothing I want to have for the future. Is it possible that the BIOS clock do anything here? Before Unraid I had a Windows installation on this Hardware, no problem with the time.
-
-
Hello, My Unraid is up and running, all fine so far. But the time is not correct! I use NTP, timezone Amsterdam/Berlin and instead of 6:17 PM my server is running on 7:17 PM. Any Idea? Daylight saving problems? Thx!
-
I installed it now and got this when I want to enter PP: All seems to be fine: The Log is empty for PP. Do you have any idea? I created a database and user on MariaDB for PP and entered the connect string in the settings. EDIT: I got it. Connection refused. I used localhost in the connect string...
-
OK, now I understand why you marked it as BETA, not regarding your "template", but because of PhotoPrism's state. OK! By the way, in the meanwhile it seems to be stable. I am not a Docker pro, I just started. But in the past I always used it without Unraid on my normal PC and used the docker-compose files to build the container and also built own images just for tests. The same thing you described - "how it works" - is a thing I am interested in. In the meanwhile I found a few forum entries how to build own CA apps and now it is also more clear for me how your PhotoPrism app template work and saw that I can edit every option to see which PP variable is set here. Very good thing, thanks for your effort! But there's one suggestion to change in your template / field description for "Storage path". At the moment it's described with "Path to your images and storage folder for your settings". But the settings will be saved in the PP-Storage under "Data Dir". For me it was confusing and thought the picture folder is now also storage path for my PP settings? Only "Path to your images" would be more correct in my opinion. I'll try to get the DB running for PP and then will try your template.