-
Posts
416 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by Anym001
-
-
Was haltet ihr von diesem Container?
https://hub.docker.com/r/nextcloud/all-in-one
Über den bin ich die Tage zufällig gestoßen.
###Nextcloud AIO stands for Nextcloud All In One and provides easy deployment and maintenance with most features included in this one Nextcloud instance.
Included are:- Nextcloud
- Nextcloud Office
- High performance backend for Nextcloud Files
- High performance backend for Nextcloud Talk
- Backup solution (based on BorgBackup)
- Imaginary
- ClamAV
- Fulltextsearch
-
Nutze auch den von knex, weil das Nextcloud Update direkt mit dem Container Update mitgezogen wird.
Was ich allerdings bei der LSIO Variante schöner finde, das man mittels custom Script relativ „einfach“ selbst zusätzliche Pakete installieren kann ohne direkt einen eigenen Container bauen zu müssen. -
Falls es dir weiterhilft, hier mein rclone mount script.
#!/bin/bash ####### EDIT ONLY THESE SETTINGS ####### RcloneMountPoint="/mnt/remotes" RcloneRemoteNames=( "googledrive_encrypted" ) ####### END SETTINGS ####### ############################################################################### ##### DO NOT EDIT ANYTHING BELOW UNLESS YOU KNOW WHAT YOU ARE DOING ####### ############################################################################### for RcloneRemoteName in "${RcloneRemoteNames[@]}"; do ####### Preparing mount location variables ####### RcloneMountLocation="$RcloneMountPoint/$RcloneRemoteName" # Location for rclone mount ####### create directories for rclone mount and mergerfs mounts ####### mkdir -p /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName # for script files ####### Check if script is already running ####### echo "$(date "+%d.%m.%Y %T") INFO : Starting mount of remote ${RcloneRemoteName}" echo "$(date "+%d.%m.%Y %T") INFO : Checking if this script is already running." if [[ -f "/mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running" ]]; then echo "$(date "+%d.%m.%Y %T") FAIL : Exiting script as already running." exit else echo "$(date "+%d.%m.%Y %T") PASSED : Script not running - proceeding." touch /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running fi ####### Checking have connectivity ####### echo "$(date "+%d.%m.%Y %T") INFO : Checking if online" ping -q -c2 google.com > /dev/null # -q quiet, -c number of pings to perform if [ $? -eq 0 ]; then # ping returns exit status 0 if successful echo "$(date "+%d.%m.%Y %T") PASSED : Internet online" else echo "$(date "+%d.%m.%Y %T") FAIL : No connectivity. Will try again on next run" rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running exit fi # Creating folder for mount mkdir -p $RcloneMountLocation ####### Create Rclone Mount ####### # Check If Rclone Mount Already Created if [[ -f "$RcloneMountLocation/mountcheck" ]]; then echo "$(date "+%d.%m.%Y %T") PASSED : Success ${RcloneRemoteName} remote is already mounted." else echo "$(date "+%d.%m.%Y %T") INFO : Mount not running. Will now mount ${RcloneRemoteName} remote." fi # create rclone mount echo "$(date "+%d.%m.%Y %T") INFO : mount $RcloneRemoteName: $RcloneMountLocation" rclone mount --max-read-ahead 1024k --allow-other --allow-non-empty $RcloneRemoteName: $RcloneMountLocation & # slight pause to give mount time to finalise echo "$(date "+%d.%m.%Y %T") INFO : sleeping for 10 seconds" sleep 10 # Creating mountcheck file in case it doesn't already exist echo "$(date "+%d.%m.%Y %T") INFO : Recreating mountcheck file for ${RcloneRemoteName} remote." touch mountcheck rclone copy mountcheck $RcloneRemoteName: -v # Check if Mount Successful echo "$(date "+%d.%m.%Y %T") INFO : continuing..." if [[ -f "$RcloneMountLocation/mountcheck" ]]; then echo "$(date "+%d.%m.%Y %T") PASSED : Successful mount of ${RcloneRemoteName} mount." else echo "$(date "+%d.%m.%Y %T") FAIL : ${RcloneRemoteName} mount failed - please check for problems." rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running exit fi # delete mount_running file rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running done echo "$(date "+%d.%m.%Y %T") INFO : Script complete" exit
Außerdem das rclone unmount script dazu.
#!/bin/bash ####### Unmount Rclone Mounts ####### echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_unmount script" fusermount -u /mnt/remotes/googledrive_encrypted echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_unmount script" ####### Rclone Cleaneup Script ####### echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_cleanup script" find /mnt/user/appdata/other/rclone/remotes -name mount_running* -delete find /mnt/user/appdata/other/rclone/remotes -name upload_running* -delete echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_cleanup script" exit
-
6 minutes ago, mgutt said:
Powertop ist in Tipps und tweaks enthalten.
Mittlerweile nicht mehr.
- 3
-
11 hours ago, Muschel17 said:
Wo liegt eigentlich das Problem? MIt dem Programm Tagman habe ich Audiodateien mit den gewünschten Metadaten (Titel, Autor, und passende Bilder) gefüttert.
Wenn du die Metaddaten sauber befüllt hast und einen Rescan deiner Bibliothek machst, müsste es eigentlich funktionieren.
Falls nicht, bitte an den Jellyfin Support wenden.- 1
-
51 minutes ago, Muschel17 said:
leider funktionierte das nur sporadisch.
Bei Musik ist das nicht ganz so einfach.
Die MP3‘s müssen saubere Tags und Bilder enthalten.
Jellyfin lest diese nur aus und stellt sie dar.
Tipp: https://picard.musicbrainz.org/ (Gibts auch als Docker in Unraid)Du kannst auch mal das Musicbrainz Plugin in Jellyfin probieren.
Ist in einem der beiden Repos:https://repo.jellyfin.org/releases/plugin/manifest-stable.json
https://raw.githubusercontent.com/danieladov/JellyfinPluginManifest/master/manifest.json
-
-
8 hours ago, mgutt said:
Da kann man bei Bedarf auch noch die Defragmentierung durchführen.
In Unraid kann man eine Defragmentierung durchführen? Das ist mir neu.
Warum sollte man das machen?
Und falls man sowas machen möchte, wie funktioniert das in Unraid?
-
Danke für eure Anregungen.
Ich habe derzeit 3x14TB Platten.
Momentan habe ich noch 2,5-3,5TB je Platte Platz.
Da bin ich beruhigt, wenn ich die Platten noch weiter ohne Probleme befüllen kann.
Werde auf 95% / 98% bei den Warnungen umstellen.
-
Hallo,
zu wie viel % sollte man eigentlich HDD's maximal befüllen?
Gibts da eine empfohlene Obergrenze oder kann man die annähernd zu 100% befüllen?
In Unraid wird ja bei 80% bzw. 90% eine Warnung rausgegeben.
-
Ich suche meine NZB Dateien via https://house-of-usenet.com/ und lade dann per SABnzbd.
Funktioniert wunderbar.
- 1
-
1 hour ago, mgutt said:
Super. Wie sind eigentlich die Standardeinstellungen bei nginx? Also muss man das da auch explizit setzen oder lässt nginx standardmäßig unendlich durch?
Der Default Wert von nginx ist 1MB.
https://linuxhint.com/what-is-client-max-body-size-nginx/
Ich kann nur von SWAG sprechen.
Hier ist standardmäßig in der Vorlage auf unendlich eingestellt. (client_max_body_size)
-
Also Info für alle Interessierten.
Mittlerweile ist es bei Nextcloud möglich, das MEMORY_LIMIT bzw. die UPLOAD_MAX_FILESIZE per Variable zu setzen.
Somit ist ein Script, wie oben beschrieben, nicht mehr notwendig.
Quelle: https://github.com/nextcloud/docker
To customize other PHP limits you can simply change the following variables: PHP_MEMORY_LIMIT (default 512M) This sets the maximum amount of memory in bytes that a script is allowed to allocate. This is meant to help prevent poorly written scripts from eating up all available memory but it can prevent normal operation if set too tight. PHP_UPLOAD_LIMIT (default 512M) This sets the upload limit (post_max_size and upload_max_filesize) for big files. Note that you may have to change other limits depending on your client, webserver or operating system. Check the Nextcloud documentation for more information.
- 1
-
-
On 1/30/2022 at 1:26 PM, bj___ said:
Okay I found it. Since Nextcloud 22.1.0 the server code is setting explicit file permissions ignoring the umask of the system. This is unfortunate for us since without a patch there wont be an easy workaround.
Are the following settings still needed at all?
Can I remove this from my template?QuoteExtraParams: --user 99:100 --sysctl net.ipv4.ip_unprivileged_port_start=0
PostArgs: && docker exec -u 0 NAME_OF_THIS_CONTAINER /bin/sh -c 'echo "umask 000" >> /etc/apache2/envvars'
-
21 hours ago, Fistudio said:
wie geht das mit dem Unraid? kannst du da ein abc Anleitung machen....so schnell....Ich habe das Plugin dem Firefox Mac gegeben...dann das XBrowserPlugin meinem Samsung Downloaden...jetzt was muss ich jetzt machen?
Hier kannst du dich etwas einlesen:
-
Ich nutze zum Firefox Sync das Add-on "xBrowserSync".
Hier kann man auch einen eigenen Sync Dienst per Unraid hosten, wenn man das möchte.
-
- 1
-
Hello,
recently the following error messages appear more often in the syslog.usbhid-ups[3717]: nut_libusb_get_string: Pipe error.
The UPS (Cyberpower CP900EPFCLCD) still works without problems.
Unfortunately I can't find anything on google about this issue.
Anyone have an idea what this is all about?
-
55 minutes ago, jeuser said:
Habt ihr da einen Tip für mich?
Nextcloud bietet sich dazu gut an.
Fotos können via Client am PC oder über Mobile Devices hochgeladen werden. (Android, iOS, ...)
Bei den mobilen Anwendungen können die Fotos sogar automatisiert hochgeladen werden.
- 1
- 1
-
I love this new plugin and I do appreciate the work you did. Thank you.
I would have a suggestion for the future. How about a function to unzip files? (.zip / .tar.gz / ...)
-
-
-
6 hours ago, new_unraid_user said:
Wie installiert man also am besten nextcloud das von außen über https erreichbar sein soll? Am liebsten über all-inkl.com, da dort auch die Domains liegen.
Am besten einen Reverse Proxy davor packen, da bekommst du auch dein automatisches Zertifikat. (NPM oder SWAG)
- 1
Einfache E-Mail Sicherung in Unraid
in Deutsch
Posted
Siehe, wie schon von @ich777 beschrieben den Thunderbird Container.
Nutze den selbst auch und bin sehr zufrieden damit.
Tipp: Habe hier zusätzlich Paperless angebunden, sprich ich speichere in Thunderbird Dokumente in einen Share und die holt sich Paperless dann ab und legt sie entsprechend ab.