Jump to content

Anym001

Members
  • Posts

    416
  • Joined

  • Last visited

Posts posted by Anym001

  1. 1 hour ago, mgutt said:

    Es wird ja wohl einen Container geben, der einen simplen IMAP Download beherrscht.


    Siehe, wie schon von @ich777 beschrieben den Thunderbird Container. 
    Nutze den selbst auch und bin sehr zufrieden damit.

     

    Tipp: Habe hier zusätzlich Paperless angebunden, sprich ich speichere in Thunderbird Dokumente in einen Share und die holt sich Paperless dann ab und legt sie entsprechend ab.

    • Like 1
  2. Was haltet ihr von diesem Container?

    https://hub.docker.com/r/nextcloud/all-in-one

     

    Über den bin ich die Tage zufällig gestoßen.


    ###

    Nextcloud AIO stands for Nextcloud All In One and provides easy deployment and maintenance with most features included in this one Nextcloud instance.
    Included are:

    • Nextcloud
    • Nextcloud Office
    • High performance backend for Nextcloud Files
    • High performance backend for Nextcloud Talk
    • Backup solution (based on BorgBackup)
    • Imaginary
    • ClamAV
    • Fulltextsearch
  3. Nutze auch den von knex, weil das Nextcloud Update direkt mit dem Container Update mitgezogen wird. 

    Was ich allerdings bei der LSIO Variante schöner finde, das man mittels custom Script relativ „einfach“ selbst zusätzliche Pakete installieren kann ohne direkt einen eigenen Container bauen zu müssen.

  4. @unn4m3d

    Falls es dir weiterhilft, hier mein rclone mount script.

     

    #!/bin/bash
    
    ####### EDIT ONLY THESE SETTINGS #######
    
    RcloneMountPoint="/mnt/remotes" 
    RcloneRemoteNames=(		
    "googledrive_encrypted"
    )
    
    ####### END SETTINGS #######
    
    ###############################################################################
    #####   DO NOT EDIT ANYTHING BELOW UNLESS YOU KNOW WHAT YOU ARE DOING   #######
    ###############################################################################
    
    for RcloneRemoteName in "${RcloneRemoteNames[@]}"; do
    	####### Preparing mount location variables #######
    	RcloneMountLocation="$RcloneMountPoint/$RcloneRemoteName" # Location for rclone mount
    
    	####### create directories for rclone mount and mergerfs mounts #######
    	mkdir -p /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName # for script files
    
    	#######  Check if script is already running  #######
    	echo "$(date "+%d.%m.%Y %T") INFO : Starting mount of remote ${RcloneRemoteName}"
    	echo "$(date "+%d.%m.%Y %T") INFO : Checking if this script is already running."
    	if [[ -f "/mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running" ]]; then
    		echo "$(date "+%d.%m.%Y %T") FAIL : Exiting script as already running."
    		exit
    	else
    		echo "$(date "+%d.%m.%Y %T") PASSED : Script not running - proceeding."
    		touch /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running
    	fi
    	
    	####### Checking have connectivity #######
    	echo "$(date "+%d.%m.%Y %T") INFO : Checking if online"
    	ping -q -c2 google.com > /dev/null # -q quiet, -c number of pings to perform
    	if [ $? -eq 0 ]; then # ping returns exit status 0 if successful
    		echo "$(date "+%d.%m.%Y %T") PASSED : Internet online"
    	else
    		echo "$(date "+%d.%m.%Y %T") FAIL : No connectivity.  Will try again on next run"
    		rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running
    		exit
    	fi
    
    	# Creating folder for mount
    	mkdir -p $RcloneMountLocation
    
    	#######  Create Rclone Mount  #######
    	# Check If Rclone Mount Already Created
    	if [[ -f "$RcloneMountLocation/mountcheck" ]]; then
    		echo "$(date "+%d.%m.%Y %T") PASSED : Success ${RcloneRemoteName} remote is already mounted."
    	else
    		echo "$(date "+%d.%m.%Y %T") INFO : Mount not running. Will now mount ${RcloneRemoteName} remote."
    	fi
    		
    	# create rclone mount
            echo "$(date "+%d.%m.%Y %T") INFO : mount $RcloneRemoteName: $RcloneMountLocation"
    	rclone mount --max-read-ahead 1024k --allow-other --allow-non-empty $RcloneRemoteName: $RcloneMountLocation &
    	
    	# slight pause to give mount time to finalise
    	echo "$(date "+%d.%m.%Y %T") INFO : sleeping for 10 seconds"
    	sleep 10
    	
    	# Creating mountcheck file in case it doesn't already exist
    	echo "$(date "+%d.%m.%Y %T") INFO : Recreating mountcheck file for ${RcloneRemoteName} remote."
    	touch mountcheck
    	rclone copy mountcheck $RcloneRemoteName: -v
    	
    	# Check if Mount Successful
    	echo "$(date "+%d.%m.%Y %T") INFO : continuing..."
    	if [[ -f "$RcloneMountLocation/mountcheck" ]]; then
    		echo "$(date "+%d.%m.%Y %T") PASSED : Successful mount of ${RcloneRemoteName} mount."
    	else
    		echo "$(date "+%d.%m.%Y %T") FAIL : ${RcloneRemoteName} mount failed - please check for problems."
    		rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running
    		exit
    	fi
    	
    	# delete mount_running file
    	rm /mnt/user/appdata/other/rclone/remotes/$RcloneRemoteName/mount_running
    done
    
    echo "$(date "+%d.%m.%Y %T") INFO : Script complete"
    
    exit

     

    Außerdem das rclone unmount script dazu.

     

    #!/bin/bash
    
    ####### Unmount Rclone Mounts #######
    echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_unmount script"
    
    fusermount -u /mnt/remotes/googledrive_encrypted
    
    echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_unmount script"
    
    ####### Rclone Cleaneup Script #######
    
    echo "$(date "+%d.%m.%Y %T") INFO: Starting rclone_cleanup script"
    
    find /mnt/user/appdata/other/rclone/remotes -name mount_running* -delete
    find /mnt/user/appdata/other/rclone/remotes -name upload_running* -delete
    
    echo "$(date "+%d.%m.%Y %T") INFO: Finished rclone_cleanup script"
    
    exit

     

  5. 11 hours ago, Muschel17 said:

    Wo liegt eigentlich das Problem? MIt dem Programm Tagman habe ich Audiodateien mit den gewünschten Metadaten (Titel, Autor, und passende Bilder) gefüttert.

     

    Wenn du die Metaddaten sauber befüllt hast und einen Rescan deiner Bibliothek machst, müsste es eigentlich funktionieren.
    Falls nicht, bitte an den Jellyfin Support wenden.

    • Like 1
  6. 51 minutes ago, Muschel17 said:

    leider funktionierte das nur sporadisch.


    Bei Musik ist das nicht ganz so einfach. 
     

    Die MP3‘s müssen saubere Tags und Bilder enthalten. 
    Jellyfin lest diese nur aus und stellt sie dar. 
    Tipp: https://picard.musicbrainz.org/ (Gibts auch als Docker in Unraid)

     

    Du kannst auch mal das Musicbrainz Plugin in Jellyfin probieren. 
    Ist in einem der beiden Repos:

    https://repo.jellyfin.org/releases/plugin/manifest-stable.json

    https://raw.githubusercontent.com/danieladov/JellyfinPluginManifest/master/manifest.json

     

     

  7. 8 hours ago, mgutt said:

    Da kann man bei Bedarf auch noch die Defragmentierung durchführen.

     

    In Unraid kann man eine Defragmentierung durchführen? Das ist mir neu.

     

    Warum sollte man das machen?

    Und falls man sowas machen möchte, wie funktioniert das in Unraid?

  8. Danke für eure Anregungen. :)

     

    Ich habe derzeit 3x14TB Platten.

    Momentan habe ich noch 2,5-3,5TB je Platte Platz.

    Da bin ich beruhigt, wenn ich die Platten noch weiter ohne Probleme befüllen kann. :)

     

    Werde auf 95% / 98% bei den Warnungen umstellen.

  9. Also Info für alle Interessierten.

     

    Mittlerweile ist es bei Nextcloud möglich, das MEMORY_LIMIT bzw. die UPLOAD_MAX_FILESIZE per Variable zu setzen.

    Somit ist ein Script, wie oben beschrieben, nicht mehr notwendig.

    Quelle: https://github.com/nextcloud/docker

     

    To customize other PHP limits you can simply change the following variables:
    
    PHP_MEMORY_LIMIT (default 512M) This sets the maximum amount of memory in bytes that a script is allowed to allocate. This is meant to help prevent poorly written scripts from eating up all available memory but it can prevent normal operation if set too tight.
    
    PHP_UPLOAD_LIMIT (default 512M) This sets the upload limit (post_max_size and upload_max_filesize) for big files. Note that you may have to change other limits depending on your client, webserver or operating system. Check the Nextcloud documentation for more information.

     

    grafik.png.ef4b62c7b12c149bc79e445b956f8a69.png

    • Like 1
  10. On 1/30/2022 at 1:26 PM, bj___ said:

    Okay I found it. Since Nextcloud 22.1.0 the server code is setting explicit file permissions ignoring the umask of the system. This is unfortunate for us since without a patch there wont be an easy workaround.


    @knex666


    Are the following settings still needed at all?
    Can I remove this from my template?

     

    Quote

    ExtraParams: --user 99:100 --sysctl net.ipv4.ip_unprivileged_port_start=0

    PostArgs: && docker exec -u 0 NAME_OF_THIS_CONTAINER /bin/sh -c 'echo "umask 000" >> /etc/apache2/envvars'

     

  11. Hello,
    recently the following error messages appear more often in the syslog.

     

    usbhid-ups[3717]: nut_libusb_get_string: Pipe error.

     

    The UPS (Cyberpower CP900EPFCLCD) still works without problems.

    Unfortunately I can't find anything on google about this issue.

    Anyone have an idea what this is all about?

  12. 6 hours ago, new_unraid_user said:

    Wie installiert man also am besten nextcloud das von außen über https erreichbar sein soll? Am liebsten über all-inkl.com, da dort auch die Domains liegen.

     

    Am besten einen Reverse Proxy davor packen, da bekommst du auch dein automatisches Zertifikat. (NPM oder SWAG)

    • Like 1
×
×
  • Create New...