Revan335

Members
  • Posts

    1171
  • Joined

1 Follower

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Revan335's Achievements

Collaborator

Collaborator (7/14)

60

Reputation

7

Community Answers

  1. Das stimmt, da kommt meine ich ne Meldung. Hab ich im aktuellen Fall nicht. Dann muss ich sie übersehen haben, gesehen hab ich keine. Hab über den Klonen Button eine Dublette einer der vorhandenen Aufgaben erzeugt. Das scheint luckyBackup laut dem Eintrag im Cron Job Log nicht gefallen zu haben, wie ich jetzt gesehen/entdeckt hab. Also Source/Destination ist nicht identisch. Da wird gewiss ne Meldung angezeigt würde ich mir denken.
  2. Aber interessant das dann direkt das ganze Profil/alle Jobs nicht ausgeführt wird ohne Fehlermeldung. OK, im Cron Job Log stehtwas dazu drin. Aber in luckyBackup selbst oder den einzelnen Job Logs wäre sowas deutlich hilfreicher. Vielleicht auch nur ein Gedankenfehler von mir wie ich das luckyBackup Profil und dessen Jobs verstehe. Vielen Dank!
  3. Die Cron Log Datei kannte ich noch gar nicht. Habe den Fehler vermutlich gefunden. Scheinbar mag luckyBackup keine Jobs mit gleichen Quell/Ziel Pfaden. Teste den Weg auch noch auf dem anderen Server. Gibt es vielleicht noch ne andere Möglichkeit eine Aufgabe/Task nochmal ausführen zu lassen ohne ein neues luckyBackup Profil erstellen zu müssen? Sonst muss ich mal die Startzeit des Profils anpassen und schauen ob sich dann die Some Files Vanished Meldung erledigt. Das deutet für mich auf ein Timing Problem hin, das luckyBackup was sichern möchte was nicht mehr da ist. Bspw. weil es sich nicht mehr im Cache sondern auf dem Array befindet oder in der Zwischenzeit verändert wurde. Danke für den Hinweis/Wink! @alturismo
  4. Weitere Versuche: - Aktualisierung erzwingen, damit der Docker Container neu erstellt wird - Server Reboot - neuen Scheduler erstellt inkl. @reboot und in Crontab eingetragen (beides ohne Erfolg) Der Ordner Schedules wird auch unter Appdata aktualisiert. Schreibzugriff ist also vorhanden. Im Log Ordner ändert sich leider nichts @ich777 Du hattest im Englischen Thread von User Scripts gesprochen mit denen du deine Jobs machst. Wie machst du das, dann teste ich das auch noch?
  5. Dort ist noch alles unverändert. Uhrzeit, Konsolen Modus. Hab Uhrzeit und Konsolenmodus (aus/an) mal geändert und neu in den Cron eintragen lassen. Mal schauen ob es hilft.
  6. We need a new Template for this Functionality?
  7. So, I know I'd too. But the Console Mode are not changed but he's not running. I disable/enable the console mode, and tryed again this night.
  8. What was the changes on the Updates from Krusader and luckyBackup? And working the luckyBackup Jobs by yours? By me, no more. 😥
  9. This one. I must show I which but I think the ordering is on the Main Thread and the Release Documentation that are also linked on that thread.
  10. When your Folders are Docker Directory mnt/user/docker, the Appdata mnt/user/appdata and you used exclusive Shares than its the new Default. When you don't used exclusive Shares or mnt/cache and so the Docker Files are only on the Cache Drive you have a big increase issue of Speed, Power Cost, ... and never ending Drives. When you used the linked Documentations/Guides than he was under the Docker Directory mnt/user/docker. The order of the steps and starting the individual components/services is important so that they also end up/display in the Docker Directory. But when you have the Legacy Snapshots under system is something wrong. Maybe the Docker Compose is the issue. I don't using this. Why you are using not the inbuild Docker Functionality?
  11. Exclusive Shares: https://docs.unraid.net/de/unraid-os/release-notes/6.12.0/#exclusive-shares A New Feature for/from 6.12.
  12. The old Default but not changed at the Moment in New Configs is system/docker. I hope this come with 6.13. The new Default from Documentation/Release Notes from 6.12 is /docker. For example /mnt/user/system/docker or /mnt/cache/system/docker and /mnt/user/docker or /mnt/cache/docker user should have exclusive Shares enabled for prevent Performance and other Issues. All Requirements ... for this, Migration ... is explained in the Documentation and the linked Threads from me. I recommended to change/migrated why you are on the Start and not many Docker Containers at the Moment. The User Data from the Docker Container are on appdata. The Docker Directory Folder/Image only have the Docker Images and no User Data. Only Custom Config like Autostart, Delay you are created new after removed the old Folder or changed/created to the new Location. With the overview in ZFS Master Plugin you are seen that creation correctly. You see the Docker Folder and the Legacy .... Snapshots under this and not under the actually from your Screenshot. After the Migration completed and worked, you can excluded from showing and have a clean List. You can converted the Folders/Shares on the ZFS Device to Datasets when he was not created automatically. This was explained to in the linked Thread. Don't touch the Docker Directory/Folder in this Steps. He not neaded a convertation to Dataset and managed by the ZFS Docker Service. As far as I know. If you have any further questions, just ask, and we are helped.
  13. This come when the Docker Directory are not correct created/with the new Default. The Path ... changed with 6.12/ZFS. By correct/new Default you can see this under the Docker Path Folder and not under the system folder directly. You can find a How Two here: https://forums.unraid.net/topic/141919-umstieg-oder-migration-auf-zfs And a sameles Problem: https://forums.unraid.net/topic/141435-zfs-datasetssnapshots-löschen/?do=findComment&comment=1279149 But true you can exclude from showing. I have excluded after Migration to the new Default.