JoergHH

Members
  • Posts

    168
  • Joined

  • Last visited

Everything posted by JoergHH

  1. Nicht per Docker, sondern mit dem rclone Plugin. Dadurch steht rclone systemweit auf der Shell zur Verfügung. Anschließend mit dieser Anleitung Jottacloud als Mount Point einbinden, diesen im Duplicati Docker zuordnen (ich mappe immer /mnt) und dann quasi-lokal in Duplicati den Backup-Job anlegen - feddich.
  2. Jein. Es gab/gibt eine native Unterstützung von Jottacloud in Duplicati. Ca. im März 2022 hat Jottacloud die Zugriffsmethode geändert, so dass Sicherungen in Jottacloud nicht mehr funktionier(t)en. Näheres dazu siehe https://github.com/duplicati/duplicati/issues/4697 https://forum.duplicati.com/t/jottacloud-error-401-unauthorized/3929/32 Inzwischen hat Jottacloud nach Beschwerden die Änderung wieder zurückgenommen. Allerdings nur temporär d. h. irgendwann 2022 wird die neue Zugriffsmethode wieder aktiviert und dann war's das mit der nativen Unterstützung innerhalb von Duplicati. Und leider gibt es bisher in der Duplicati Entwickler-Community keinerlei Bestrebungen das anzupassen. Ich sichere inzwischen über einen rclone Mount mittels Duplicati nach Jottacloud. Das wird auch weiterhin dauerhaft funktionieren, das HowTo wird in den o. g. Links beschrieben.
  3. Ich sichere schon seit Jahren den kompletten Unraid Server mit mehreren TB per Duplicati in die Jottacloud. Denn nur ein Offside Backup ist ein gutes Backup. Die Schlüsselworte dazu lauten Diebstahl und Elementarschäden durch z. B. Feuer, Überschwemmung und Vandalismus.
  4. Moin. Hat jemand eine Idee, wie ich D/L-Links direkt aus Chrome zum im selben Subnetz befindlichen JDownloader Docker sende? Und: Nein, den externen Weg über my.jdownloader.org will und werde ich nicht gehen. Wozu auch, denn alle Systeme sind im internen Netz und my.downloader.org ist ein (nicht unbedingt vertrauenserweckender) externer Dienst, über den ich nicht meine Daten sende. Ich habe es schon mit PimpMyJDownloader versucht. Das Setup sowohl der Chrome Extension als auch im JD haben funktioniert und der Webserver von PimpMyJDownloader läuft auch, Ports sind über die Docker Settings gemappt. Trotzdem schickt mir die Chrome Extension die Links nicht zum JD Container. Hat noch jemand Ideen oder Vorschläge?
  5. @mgutt, mir fehlt bei dieser Methode das HowTo zum Restore der per reflink erstellten Files. Kann ich z. B. die in dem verlinkten Artikel genannte Datei /mnt/cache/domains/Windows 10/vdisk1.img löschen und /mnt/cache/domains/Windows 10/vdisk1-backup.img einfach in vdisk1.img umbenennen? Oder gilt es dabei etwas zu beachten?
  6. JoergHH

    Mobile App

    Bei Responsive Design geht es weniger um Optik, sondern mehr um Funktionalität. Und letztere ist auf Smartphones einfach nicht gegeben. Ansonsten bräuchte es nämlich keine zusätzlichen Apps.
  7. JoergHH

    Mobile App

    Das WebGUI von Unraid ist leider kein Responsive Design. Warum, ist mir völlig schleierhaft. Damit wird die Bedienung auf Smartphones und Tablets unterhalb einer Displaygröße von ~ 9" zur Fummelei und de facto unmöglich.
  8. Leider nein. Ich habe mich von ZFS verabschiedet, da manche Docker mit bestimmten Datenbanksystemen wie z. B. unter Plex mit ZFS nicht mehr richtig funktionierten.
  9. @ullibelgie, wie wäre es, wenn Du die externe HDD zerlegst und die pure SATA in ein anderes Gehäuse einbaust? Anleitungen für das Auseinandernehmen von LaCie Platten gibt es im Netz zu Hauf. Ich hab das mal mit 'ner ollen Medion Pladde gemacht. Sollte LaCie in ihren Controllern tatsächlich eine Funktion eingebaut haben, die den Betrieb unter Linux verhindert (ich hab' in fast 30 Berufjahren noch nie von so etwas gehört), wäre das Thema mit einem anderen Gehäuse erledigt. Nebenbei kannst Du dann auch gleich auf USB 3.x gehen.
  10. I do not understand this. There is nothing in <TemplateURL> in the affected user template and the path to the icon file is completely correct. <TemplateURL/> <Icon>https://[correct_path_to].png</Icon>
  11. I do not have such generic icons in this directory. I am also on Unraid 6.9.2 Every time I delete the obviously generically created icon and run a forced update, it is automatically created again. Any other ideas to get to an icon via a URL download?
  12. Manchem kann es einfach nicht recht machen. 🙄 Falls ich mal im Netz auf Master67 stoße, weiß ich ja, was mich erwartet. Soviel zur Anonymisierung. SCNR
  13. Besser nicht. Ich traue allen direkten Filetransfers zwischen /mnt/user[x] kein Lepton weit.
  14. Das ist UNBEDINGT (!!! ...ich kann gar nicht so viel Ausrufezeichen setzen wie nötig wären) zu vermeiden und hat schon in einigen Fällen zu einem Crash des Servers geführt!
  15. Bei mir nicht. Denn: Naja, unlösbar... Ich vermute eher einen systembedingten Designfehler, ergo "works as designed". 🙄 Das ist aber maximal doof. Denn jede (meiner) Disks hat eine ziemlich tiefe Verzeichnistruktur und ich müsste für jede Datei auf allen Disks nachschauen, wohin ich diese aus dem Cache verschieben muss. Gibt es nicht etwas von Ratio....äh....eine elegantere Methode?
  16. Moinsen. Ich habe mal eine Verständnisfrage bei manuellen File Moves zwischen Cache und Array und bräuchte mal etwas Nachhilfe. Gegeben ist folgende Config der User Shares: Wenn ich nun eine Datei z. B. mit dem mc vom Share "download" auf den Share "video" verschiebe (= move), dann legt das System auf dem Cache ein Verzeichnis "video" nebst ebendieser Datei an. Nach meinem bisherigen Verständnis darf das aber doch nicht geschehen, da Files auf den Share "video" ohne Umwege über den Cache auf dem Array landen sollen (Einstellung "Cache = No"). Oder greift dieses Setting nur bei Zugriffen über das Netzwerk? Falls ja: Wie verschiebe ich dann gefahrlos (!) auf dem Host (!!) Files vom Cache auf Array Disks? Wohlgemerkt ohne den Einsatz des Movers, denn dafür müsste ich dann den Share "video" auf "Cache = Yes" oder "Prefer" setzen, was ich nicht will.
  17. Hmmm, das ist dann aber nicht Reboot persistent, oder?
  18. Das Thema ffmpeg hatten wir vor wenigen Tagen:
  19. Guck' mal hier, insbesondere ganz unten: https://github.com/xteve-project/xTeVe-Documentation/blob/master/en/troubleshooting.md
  20. Does anyone have an idea how I can stop a backup job ("Stop after current file") controlled by user scripts from the Unraid host? There is a python script with which I can stop and restart a job, but that does not work.
  21. Das ist die bessere Lösung. Nämlich ausschließlich (!) mit User Shares unterhalb dieser Ebene zu arbeiten. Das ist die schlechtere Lösung. Das kann beim Hin- und Herkopieren sogar für massive Systemprobleme sorgen! Indirekt ja. Man liegt dazu einen User Share an und weist diesem nur eine einzige Disk wie z. B. disk1 zu. Der Zugriff und sämtliche File-Operationen erfolgen trotzdem dann nur über /mnt/user/[share-name]
  22. ... preload_tail_size="1MB" # 10MB, should be sufficient even for 4K ... So what is the recommendation for 4K? 1MB or 10MB? (Looks a bit unclear.)
  23. Does anyone know how I can call/use the Unraid server's notify from within the inotify-command container? Unfortunately, this solution no longer works:
  24. None of this helps with me. After a 'rm -rf /mnt/SSD' and reboot the zpool SSD incl. mount point is back - and busy! How the heck do I get rid of it?? I don't want to use ZFS at all anymore and use the used SSD's for cache. Could I also just uninstall the ZFS plugin and reformat the drives with Preclear and then use them in a cache pool? Edit: Forget it. Just found the help here: https://www.osso.nl/blog/zfs-destroy-dataset-is-busy/
  25. Nach dem Flop mit Emby (Recording gibt es nur mit der Premiere Edition - bezahl' ich nicht, denn ich habe bereits Plex Pass!) bin ich nun bei TVHeadend gelandet. Nur gestaltet sich die dortige Einbindung von xTeVe's .m3u und EPG ziemlich zickig. In der TVH Community ist die Rede von Piping, wirlich schlau werde ich aber daraus nicht. @alturismo, na, dann hau' mal raus: Wie binde ich die von xTeVe gelieferten Streams/Kanäle und den EPG bei TVHeadend ein? Ein HowTo wäre hilfreich.