Pete_Stonehiller

Members
  • Posts

    25
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Pete_Stonehiller's Achievements

Noob

Noob (1/14)

4

Reputation

  1. EDIT: Ich sehe gerade "er findet sie auch", dann war das nicht das Problem. Ich lass den Text aber trotzdem mal stehen, falls jemand ein ähnliches Problem hat. Wenn er die Sicherung nicht findet, suchst du bestimmt im falschen Verzeichnis. Ich hab beispielsweise für meine Backups auf Google Drive einen Unterordner erstellt, wo das alte System die Backups reingeschrieben hat. Auch nach Herstellung des Tokens, findet er die Backups nicht weil er standardmäßig in einem anderen Verzeichnis sucht (was es wahrscheinlich auf deinem GDrive gar nicht gibt) Siehe Screenshot. Wenn der Pfad richtig eingestellt ist und du dann den Backitup Adapter neustartest (WICHTIG!), sollte er in der Suche die Backups finden. Alternativ das Backup manuell downloaden, und in deinen appdata/iobroker/backups ordner legen (Standardpfad). Dann die Konsole des Dockers öffnen. pkill -u iobroker Das beendet den Dienst. und dann iobroker restore 0 Wenn das durchgelaufen ist: iobroker start Danach sollte iobroker mit den alten Einstellungen starten und npm baut deine Instanzen und Objekte nach.
  2. Thanks for your answer - how could I recreate the docker image? I got VMs - is this a "working" file (while using VMs) or is it static and I could backup it manually once?
  3. It's an old post, but I thought it's at the right place.. what happens, if my cache drive (with docker.img and libvirt is on cache) decayed? I will change my Cache drive - for sure. But does unraid will start the array? What will be missing? Is it useful, to backup the 2 files? If I dont change anything at my VM Settins, the libvirt will be static - or not?
  4. Ich hab es jetzt so ausprobiert wie ich es gepostet habe und es funktioniert. Das mit dem force muss ich noch einbauen. Was ist der Unterschied zwischen -r und -R? Tatsächlich Kopiert er mir aber das Verzeichnis "Hof2" mit und löscht es in der Quelle 🤔 Ich kann mich mit beidem arrangieren, aber gut zu wissen woran es liegt dass es das tut. Kurzlebig im Sinne von schnell den TBW des Flashspeichers erreicht?
  5. Per FTP Upload. Aus 2 Gründen. Grund 1 Wenn ich unraid (weswegen auch immer das Mal sein muss...) neustarte, startet mein Array nicht weil die Kameras im Sekunden Takt versuchen darauf zuzugreifen (bevor das Array hochgefahren ist) was dazu führt, dass es gar nicht mehr hochfährt. Das Problem hat mich schon Tage meines Lebens + Nerven gekostet, bis ich das Problem ermittelt hatte.... Grund 2 All meine VMs und Docker laufen Cache only (nix wichtiges drauf, alle Configs und vdisk Backups werden im Array gespeichert). Da meine Kameras gefühlt alle 2 Minuten ein Bild hochladen, kann die dazugehörige Array Platte + 2 Parity Disks nicht in den Spin Down gehen, was mich grob 20 Watt dauerhaft kostet, also knapp 50€ pro Jahr. Beide Gründe zusammen, waren für mich der Anstoß nach einer Option B zu suchen.
  6. Ich hab jetzt folgendes zusammengefügt. Bitte um Prüfung, da ich jetzt mehrere Varianten gesehen habe. Nicht dass ich was durcheinander werfe. /* brauch ich nicht bei der Quelle des cp Befehls? #!/bin/bash cp -r /mnt/remotes/192-168-178-1_FRITZ.NAS/SanDisk-CruzerBlade-01/Hof2 /mnt/user/Transfer/Test_CAM && rm -r /mnt/remotes/192-168-178-1_FRITZ.NAS/SanDisk-CruzerBlade-01/Hof2
  7. Die Dateien sind save keine Dubletten, die Ordner jedoch schon. Spielt das eine Rolle?! Die Ordnerstruktur muss ja mit kopiert werden /2021/09/29/datei
  8. Das ist es, was ich gesucht habe. Ich habe jetzt noch was von "&&" gelesen, als Sicherheit dass die Daten auch kopiert wurden. Ich weiß aber nicht wo ich es einbauen kann / muss?! Hättest du da noch einen Rat für mich? Wäre so richtig: cp -r /mnt/Quelle /mnt/Ziel && rm -r /mnt/quelle ??
  9. Luckybackup hab ich drauf, aber der Befehl ist das was ich gesucht habe. Danke! Gibt es noch eine Möglichkeit eine Schleife einzubauen, dass er die Source nur bei erfolgreichem sync löscht?
  10. Folgender Fall: 2 Kameras laden sowohl Bilder als auch Videos auf das NAS der Fritzbox (SMB Share). Dabei werden Ordnerstrukturen Jahr/Monat/Tag automatisch angelegt. Diese sollen 1x pro Tag auf Unraid geschoben werden, und in der Quelle daraufhin gelöscht werden. @Ford Prefect Genau, das SMB Share ist über unassigned Device eingebunden. Das sollte kein Angriff auf irgendjemand sein - ich wollte nur erläutern was ich suche. Vielleicht hat jemand exakt den selben usecase und kann mir eine fertige Lösung / einen Docker empfehlen. Das mit dem Kaufvertrag war darauf bezogen, dass ich nicht bei 0 mit Linux anfangen möchte um vielleicht 1 Zeile Skript die ich brauche selbstständig erstellen zu können. Eine fertige Skriptzeile mit einer kurzen Erklärung für was was steht wäre perfekt. Habe ich leider bisher jedoch in keinem Video oder Forum finden können.
  11. Der Unterschied ist, dass der SMB Share "Remote" eingebunden ist. Das heißt er liegt nicht innerhalb meines Unraid Servers, sondern separat im Netzwerk. Daher gibt es dort keine Einstellungen für den Mover. Der Unterschied zwischen verschieben und kopieren sollte doch klar sein? Unraid wird als einfache Alternative mit GUI "verkauft", es ist nicht so dass ich mich damit nicht befassen will - aber mir fehlen die Grundlagen in Linux um besondere Befehle zu erlernen. Da ich auch niemanden Fragen kann wenn mal was schief läuft, lasse ich so etwas lieber bleiben und frage eben, ob es bereits fertig Lösungen für mein Anliegen gibt.
  12. Ich habe folgende Aufgabenstellung: - Auf ein SMB Share (in Unraid bereits eingebunden) werden täglich Daten geschrieben - Diese sollen alle 1x pro Tag vom SMB Share auf ein Share im Array verschoben (nicht kopiert) werden Bin leider nicht fit in Linux, was Skripte etc. sofern nicht komplett fertig nutzbar für mich unbrauchbar macht. Gibt es ein Docker oder irgend eine Möglichkeit, diese Funktion abzubilden? Ich hab bisher immer nur Synchronisationen (ohne Möglichkeit des "Verschiebens") gefunden, was mir nicht wirklich hilft. Danke vor ab für eure Hilfe.
  13. I just said, that it's working fine - even with the error. I think the error depends of the co-existence of USB Manager and Libvrt_Hotplug USB. I delete the Hotplug Plugin at least, but the error will not disappear. Anyway - it works fine for my VM. Thank you for your help so far!
  14. Ich weiß leider nicht genau was du damit meinst - Ich habe an dem Server lediglich 2 USB Geräte hängen. Den einen besagten brauch ich in der VM, den anderen in einem Docker (das funktioniert immer). Das Board hätte somit noch einige Anschlüsse frei, wieviele USB Controller das Board hat, weiß ich leider nicht. Es ist ein BIOSTAR B365MHC Edit: Gerade geschaut, das Board hat leider nur einen Controller. Habe es nun installiert, hab aber leider absolut keine Ahnung wie ich das parametrieren / verwenden soll. Gibt es dafür irgend ein Tutorial? Ich hab leider keins gefunden... Edit2: Das hat geholfen. Ich bekomme zwar eine Fehlermeldung, es funktioniert aber trotzdem sehr gut. Hab es jetzt mehrfach getestet. Vielen Dank für den Tipp!
  15. In der config bleibt es "angeklickt" wenn ich auf bearbeiten gehe. Es wird aber vom Ubuntu nicht mehr gefunden. Der ausgewählte Port innerhalb der Hausautomatisierung ist /dev/ttyACM0. Früher, bevor ich Hotplug benutzt hatte musste ich die VM herunterfahren, bearbeiten, USB rausnehmen. Speichern. Neu bearbeiten, USB reinnehmen. Hochfahren. Dann lief es. Jetzt ist es halt einfach über den "Hotplus USB Plugin". Einfach die VM auswählen, USB auswählen und auf attach. Dann ist der drin. Aber hierfür suche ich wie besagt eine Automatik / eine Einstellung, dass der USB nicht nach einem Neustart rausgeworfen wird.