Anym001

Members
  • Posts

    416
  • Joined

  • Last visited

Everything posted by Anym001

  1. Nach dem gleichen Prinzip verfahre ich auch und bin sehr zufrieden damit. Hatte auch schon meine Probleme mit btrfs. Konkret eine Frage zu deiner Backup Strategie. Machst du das Backup direkt aufs Array oder einen eigenen Datenträger außerhalb des Arrays, der beim Ausfall des Caches relativ schnell ausgetauscht werden könnte?
  2. Ich habe die Cyberpower CP900EPFCLCD und musste das NUT Plugin installieren. Damit funktioniert nicht nur ein sauberes herunterfahren des Servers, sondern auch wieder hochfahren sobald wieder Strom verfügbar ist.
  3. Habe die gleiche Meldung auch. Bereits bekannt und gemeldet. Sind wohl einige davon betroffen. https://github.com/nextcloud/related_resources/issues/106 Zur Info. Für die App Related Resources gibt es jetzt eine neue Version (1.0.2) Nach der Installlation in der Übersichtsseite von den Admin Einstellung auf "Erneut scannen". Danach ist der Fehler behoben.
  4. Hatte bei diesem Update auch enorme Probleme. Mir hat er angezeigt, dass die Tabelle oc_filecache in der Datenbank defekt ist. Habe es schlussendlich mit einem truncate der Tabelle und Neubefüllung mittels folgenden Befehlen hinbekommen. docker exec -u 99 Nextcloud php occ files:scan-app-data docker exec -u 99 Nextcloud php occ files:scan --all docker exec -u 99 Nextcloud php occ maintenance:repair https://docs.nextcloud.com/server/stable/admin_manual/configuration_server/occ_command.html
  5. Habe die gleiche Meldung auch. Bereits bekannt und gemeldet. Sind wohl einige davon betroffen. https://github.com/nextcloud/related_resources/issues/106
  6. @igorekDE warum verwendest du nicht einfach das "CA Appdata Backup / Restore v2" Plugin?
  7. Siehe, wie schon von @ich777 beschrieben den Thunderbird Container. Nutze den selbst auch und bin sehr zufrieden damit. Tipp: Habe hier zusätzlich Paperless angebunden, sprich ich speichere in Thunderbird Dokumente in einen Share und die holt sich Paperless dann ab und legt sie entsprechend ab.
  8. Was haltet ihr von diesem Container? https://hub.docker.com/r/nextcloud/all-in-one Über den bin ich die Tage zufällig gestoßen. ### Nextcloud AIO stands for Nextcloud All In One and provides easy deployment and maintenance with most features included in this one Nextcloud instance. Included are: Nextcloud Nextcloud Office High performance backend for Nextcloud Files High performance backend for Nextcloud Talk Backup solution (based on BorgBackup) Imaginary ClamAV Fulltextsearch
  9. Nutze auch den von knex, weil das Nextcloud Update direkt mit dem Container Update mitgezogen wird. Was ich allerdings bei der LSIO Variante schöner finde, das man mittels custom Script relativ „einfach“ selbst zusätzliche Pakete installieren kann ohne direkt einen eigenen Container bauen zu müssen.
  10. @unn4m3d Falls es dir weiterhilft, hier mein rclone mount script. #!/bin/bash ####### EDIT ONLY THESE SETTINGS ####### RcloneMountPoint="/mnt/remotes" RcloneRemoteNames=( "googledrive_encrypted" ) ####### END SETTINGS ####### ############################################################################### ##### DO NOT EDIT ANYTHING BELOW UNLESS YOU KNOW WHAT YOU ARE DOING ####### ############################################################################### for RcloneRemoteName in "${RcloneRemoteNames[@]}"; do ####### Preparing mount location variables ####### RcloneMountLocation="$RcloneMountPoint/$RcloneRemoteName" # Location for rclone mount ####### create directories for rclone mount and mergerfs mounts ####### mkdir -p /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName # for script files ####### Check if script is already running ####### echo "$(date "+%d.%m.%Y %T") INFO : Starting mount of remote ${RcloneRemoteName}" echo "$(date "+%d.%m.%Y %T") INFO : Checking if this script is already running." if [[ -f "/mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running" ]]; then echo "$(date "+%d.%m.%Y %T") FAIL : Exiting script as already running." exit else echo "$(date "+%d.%m.%Y %T") PASSED : Script not running - proceeding." touch /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running fi ####### Checking have connectivity ####### echo "$(date "+%d.%m.%Y %T") INFO : Checking if online" ping -q -c2 google.com > /dev/null # -q quiet, -c number of pings to perform if [ $? -eq 0 ]; then # ping returns exit status 0 if successful echo "$(date "+%d.%m.%Y %T") PASSED : Internet online" else echo "$(date "+%d.%m.%Y %T") FAIL : No connectivity. Will try again on next run" rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running exit fi # Creating folder for mount mkdir -p $RcloneMountLocation ####### Create Rclone Mount ####### # Check If Rclone Mount Already Created if [[ -f "$RcloneMountLocation/mountcheck" ]]; then echo "$(date "+%d.%m.%Y %T") PASSED : Success ${RcloneRemoteName} remote is already mounted." else echo "$(date "+%d.%m.%Y %T") INFO : Mount not running. Will now mount ${RcloneRemoteName} remote." fi # create rclone mount echo "$(date "+%d.%m.%Y %T") INFO : mount $RcloneRemoteName: $RcloneMountLocation" rclone mount --max-read-ahead 1024k --allow-other --allow-non-empty $RcloneRemoteName: $RcloneMountLocation & # slight pause to give mount time to finalise echo "$(date "+%d.%m.%Y %T") INFO : sleeping for 10 seconds" sleep 10 # Creating mountcheck file in case it doesn't already exist echo "$(date "+%d.%m.%Y %T") INFO : Recreating mountcheck file for ${RcloneRemoteName} remote." touch mountcheck rclone copy mountcheck $RcloneRemoteName: -v # Check if Mount Successful echo "$(date "+%d.%m.%Y %T") INFO : continuing..." if [[ -f "$RcloneMountLocation/mountcheck" ]]; then echo "$(date "+%d.%m.%Y %T") PASSED : Successful mount of ${RcloneRemoteName} mount." else echo "$(date "+%d.%m.%Y %T") FAIL : ${RcloneRemoteName} mount failed - please check for problems." rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running exit fi # delete mount_running file rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running done echo "$(date "+%d.%m.%Y %T") INFO : Script complete" exit Außerdem das rclone unmount script dazu. #!/bin/bash ####### Unmount Rclone Mounts ####### echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_unmount script" fusermount -u /mnt/remotes/googledrive_encrypted echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_unmount script" ####### Rclone Cleaneup Script ####### echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_cleanup script" find /mnt/user/appdata/other/rclone/remotes -name mount_running* -delete find /mnt/user/appdata/other/rclone/remotes -name upload_running* -delete echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_cleanup script" exit
  11. Mittlerweile nicht mehr.
  12. Wenn du die Metaddaten sauber befüllt hast und einen Rescan deiner Bibliothek machst, müsste es eigentlich funktionieren. Falls nicht, bitte an den Jellyfin Support wenden.
  13. Bei Musik ist das nicht ganz so einfach. Die MP3‘s müssen saubere Tags und Bilder enthalten. Jellyfin lest diese nur aus und stellt sie dar. Tipp: https://picard.musicbrainz.org/ (Gibts auch als Docker in Unraid) Du kannst auch mal das Musicbrainz Plugin in Jellyfin probieren. Ist in einem der beiden Repos: https://repo.jellyfin.org/releases/plugin/manifest-stable.json https://raw.githubusercontent.com/danieladov/JellyfinPluginManifest/master/manifest.json
  14. Probier mal folgendes mit einem admin User. Zuerst die gewünschte Bibliothek markieren und dann auf Refresh metadata. Danach folgendes. Dazu
  15. In Unraid kann man eine Defragmentierung durchführen? Das ist mir neu. Warum sollte man das machen? Und falls man sowas machen möchte, wie funktioniert das in Unraid?
  16. Danke für eure Anregungen. Ich habe derzeit 3x14TB Platten. Momentan habe ich noch 2,5-3,5TB je Platte Platz. Da bin ich beruhigt, wenn ich die Platten noch weiter ohne Probleme befüllen kann. Werde auf 95% / 98% bei den Warnungen umstellen.
  17. Hallo, zu wie viel % sollte man eigentlich HDD's maximal befüllen? Gibts da eine empfohlene Obergrenze oder kann man die annähernd zu 100% befüllen? In Unraid wird ja bei 80% bzw. 90% eine Warnung rausgegeben.
  18. Ich suche meine NZB Dateien via https://house-of-usenet.com/ und lade dann per SABnzbd. Funktioniert wunderbar.
  19. Der Default Wert von nginx ist 1MB. https://linuxhint.com/what-is-client-max-body-size-nginx/ Ich kann nur von SWAG sprechen. Hier ist standardmäßig in der Vorlage auf unendlich eingestellt. (client_max_body_size)
  20. Also Info für alle Interessierten. Mittlerweile ist es bei Nextcloud möglich, das MEMORY_LIMIT bzw. die UPLOAD_MAX_FILESIZE per Variable zu setzen. Somit ist ein Script, wie oben beschrieben, nicht mehr notwendig. Quelle: https://github.com/nextcloud/docker To customize other PHP limits you can simply change the following variables: PHP_MEMORY_LIMIT (default 512M) This sets the maximum amount of memory in bytes that a script is allowed to allocate. This is meant to help prevent poorly written scripts from eating up all available memory but it can prevent normal operation if set too tight. PHP_UPLOAD_LIMIT (default 512M) This sets the upload limit (post_max_size and upload_max_filesize) for big files. Note that you may have to change other limits depending on your client, webserver or operating system. Check the Nextcloud documentation for more information.
  21. Empty folders are regularly created in my SWAG container folder in the appdata directory. (custom-cont-init.d.% or custom-services.d.%) Does anyone have any idea why this is happening?
  22. @knex666 Are the following settings still needed at all? Can I remove this from my template?
  23. Hier kannst du dich etwas einlesen: https://hub.docker.com/r/xbrowsersync/api
  24. @Fistudio Ich nutze zum Firefox Sync das Add-on "xBrowserSync". Hier kann man auch einen eigenen Sync Dienst per Unraid hosten, wenn man das möchte.
  25. @D0bby Probier mal folgende Einstellungen unter Firewall / Settings / Advanced.