azche24

Members
  • Posts

    24
  • Joined

  • Last visited

Everything posted by azche24

  1. If you configure your library to convert video to HEVC and the file is already H265, then unmanic will not pick up conversion again. If you want to runn other tasks against that file, you can do that with another plugin in the same library. For example if i run my "convert audio to AAC" library (which is a copy of my original library) against the existing files, this will a) convert audio and b) skip video H265 transcoding, if the file is already H265. So no need for an extra plugin or configuration here.
  2. I rebuilt my 2x1 TB NVME cache pool from BTRFS to ZFS after version 6.12 came out. Now (after several weeks) i noticed, that mover action was incredibly slow. Even if running mover without any filters (or mover tuning plugin) a move of about 100 GB of media data needs more than 2 hours. Which is way too slow in my system. In BTRFS this was about 15 minutes or so - just maxed out by the write speed of the array at about 60 - 70 MB/s. Before i switch back to BTRFS: Has anyone an idea where to look or optimize. Because the r/w performance to cache is excellent, when using ZFS cache pool.
  3. These are reads (if so) not writes. As far as i know, unRAID does not do "read caching". These drives have heat-sinks and the are getting "one by one" up to 84 C (and then throttling). Does not seem "normal" to me.
  4. Hi, every time i'm doing a backup job via rsync like \\NAS02\Media -> \\backup-nas\backup (where NAS02 is a unRAID share with cache and "backup-nas" is a remote share mounted in unRAID via SMB) my cache drives (2x1 TB NVME-SSDs) are overheating several times. I'm speaking of large (> 4 GB) backup jobs running for hours. This is coming from log files or what? How can i avoid this? Rsync is started with "user-script" plugin, but that should not be the concern.
  5. Ich hatte (vor etwa 15 Jahren) den Vorgänger von Zentyal "SME-Server" in einem Büro mit etwa denselben Merkmalen laufen. Damals noch ziemlich viel Hardware, riesige Festplatten usw. - was mich zur Abkehr brachte, war die Notwendigkeit von MS-Exchange und der ewige Stress mit einem selbst gehosteten E-Mail Server. Das würde ich mir nie wieder antun. Bis auf den Photo-Upload (den ich im Zweifel über ein kommerzielles Cloud-Angebot realisieren würde, wenn nicht mit Synology Photo-Station wie jetzt) und die ziemlich "rohe" Implementierung von E-Mail war Zentyal sehr gut. Wer ohne Exchange oder abgefahrene Groupware auskommt, ist damit für eine Büroumgebung wohl auch heute noch (ich habe neulich eine aktuelle Version zum Test installiert) bestens bedient. Vor allem hat Zentyal eine "komplette" SMB Implementation. Alles, was ich bei unRAID auf diesem Gebiet vermisse, wie Home-Directories, granulare Gruppenberechtigungen, AD - Zentyal läuft insoweit komplett out of the box. User anlegen, Rechte und Gruppe zuweisen. Fertig! Zentyal ist allerdings nicht ganz umsonst. Bereits einfache Dienste wie besseres Backup, DynDNS, Monitoring, Support kosten (und zwar nicht wenig). Das lohnt sich normalerweise nur, wenn man darauf verzichten kann oder eine krasse Menge an Benutzern mit einem Server versorgen will. Die community war damals toll und sehr global: Viele Leute aus AUS und US, da bekam man im Forum innerhalb von Stunden gute Tipps. Und ansonsten ein sehr wartungsfreies System, das sich auf jedem besseren PC sehr performant einrichten lässt (RAID1, gute Netzwerkanbindung und los geht's). Zentyal wurde bei mir von Synology abgelöst - je nach notwendigem Speicherplatz und RAM-Anforderungen bleibt man da unter 1000 € in Hardware und die Cloud-Backup Lösung von Synology ist unschlagbar gut und günstig. unRAID verwende ich nur als Datengrab für Medien (Musik und Filme) - das hat durchaus spielerischen Charakter. Die Speicherplatzlösung ist ja für selten benutzte Daten sehr ausgereift und robust. Alle anderen Anwendungen scheiden im professionellen Bereich für mich aus. Backup ist kompliziert einzurichten, die Lese- und Schreibgeschwindigkeiten (vor allem Lesen!) sind für meine Zwecke nicht ausreichend und im Zeitalter der riesigen schnellen Festplatten habe ich mit DSM auch keine Speicherplatzprobleme mehr. Derzeit überlege ich sogar, die Medien zurück zu ziehen. Bei erschwinglichen Festplatten mit 18 TB Kapazität und dank Portainer kann ich eigentlich auf meiner DS 1821+ fast alles umsetzen, was ich sonst auf unRAID habe. Ymmv, aber Synology bringt eigentlich für nicht professionelle Serverbesitzer mit professionellen Ansprüchen ein gutes Gesamtpaket auch für den professionellen Bereich. Active Backup, Hyper Backup - das sind überlebenswichtige Anwendungen, die es bei DSM praktisch umsonst gibt. Und es funktioniert alles. Das Einrichten von Docker Containern ist etwas fummelig, aber ansonsten... Nur die Preise von Synology sind explodiert. Seit die anfangen, Hardware nur noch mit ihren eigenen, sündhaft überteuerten Festplatten zu bestücken, wird es grenzwertig. Da ist man ganz schnell im oberen 4stelligen Bereich. Andererseits hat mein unRAID auch knapp 1000 gekostet (ohne Festplatten). Wenn Du nicht bei Synology bleiben willst, probiere ruhig mal Zentyal aus. Da gibt es aber m.W. keine Docker.
  6. It was a docker related issue: Somehow my docker installation changed from "image" to "folder type docker" - perhaps automagically during a major update of unRAID. This lead to a "/mnt/user/system/docker/docker" instead of "/mnt/user/system/docker/" under "Settings/DockerSettings". So i had to shut down the dockers (and make a backup) move the content from "/docker/docker" to ".../docker" restart. Also i noticed, that roon still is slow (about 15 sec), when shutting down. This seems to be related to the general docker "cache vs. /mnt/user" problem - fuse filesystem is slowing down things, when the app share is addresed through the "normal" /mnt/user/appdata directory. After some reading i followed directions to start mover (to transfer all "appdata" to cache) shutdown array (to finalize this) restart array change share appdata to "cache only" adjust the paths in the docker template(s) especially roon from "/mnt/user/appdata" to "mnt/cache/appdata" - the same way the template creator made this in his template from the start Reasons for doing so are described elsewhere, but this indeed did speed up things (and brought down the standby power consumption a few watts). hth
  7. Did you find the share? Then simply delete/rename it! I had this error pointing to a directory "/" above "appdata", left over from a hanging "delete network share" action. I had to go -> console -> mc -> /mnt/user and delete it there (from the command line). Also in my case the button "ignore" did not work.
  8. Would be nice, but still does not work. I'm not able to stop the Roonserver Docker. It simply does not stop (which is bad for app-backups and system security). It just times out. After that I get the error Nothing helped. Not nuking/reinstall. Not installing into /.../mount/user/apps/... instead of /mount/cache/apps/... - i'm a bit sick of it, because the same thing runs easily on my other (Synology) NAS as a docker. Any more ideas? Shouldn't there be mapping for temp files also (i had this with Unmanic, where it is helpful to map tmp to RAM in any way. Any ideas?
  9. Sorry, but no. I only use unRAID to store stuff and back it up to local disks via smb or to cloud.
  10. OK, hab's begriffen und geändert. Die *.tmp Dateien gehen jetzt in /dev/shm. Habe genug Platz mit 64 GB RAM. Ist immer ärgerlich: RAM ist schnell und oft zu knapp 🤔
  11. Update: ecoDMS still working (docker template edit needed). For reference i would like to contribute, what has happened to ecoDMS, a document archive and management system. The app in the repo is still based on ecoDMS 18.09 - this is not convenient any more - the actual version is 22.08! Also ecoDMS is pretty hard to maintain on a Synology NAS - you always have to re-install the whole stuff after every major update, which can be twice a year. So here unRAID comes in, which makes it sooo easy to install and update docker containers. These steps i would like to recommend for folks, who want to use ecoDMS: First create shares for scan input - should be readable/writable for the users and the docker container. In my case this directory resides on another NAS and is mounted via unassigned devices plugin. backup - very important, for this must be outside the docker container (don't use a directory in the apps-directory!) and must be backed up externally on a regular basis. I put this in a smb-mounted share (like "officedata") on another NAS, which is mounted by unassigned devices plugin. This is (aside from the data directory itself) the directory to back up externally (to the cloud or whereever). restore - should be reachable, can be on the unRAID nas (recommended) or somewhere else. Here you initiate the restore if needed. First install ecoDMS (APU 18.08) from the repo. This is the template to start with. After successful installation you have this (including the customisations) in your personal archive in "apps". Change the settings like in the screenshot. Docker should come from ecodms/ecodms repository, so updates are automatically done for you. Remember: The "backup" directory mapping should be outside the app-directory on unRAID. In my case this is also in the "working" directory on another NAS, which is backed up on a regular basis. This directory should not be in the /apps share - it can become quite large (4 GB in my case) and therefore should be kept and backupped outside. "restore" and "data" can stay in the /apps share on the cache drive. But you have to make shure, that the "restore.zip" (after a initial restore from your old data) is deleted after import - it can be pretty big also. Now have a look into the other settings and start the container - done!
  12. Das ist schon ein Grund, Plex und Unraid nicht mehr für Downloads zu verwenden. Sämtliche Versuche, mit /transcode -> /tmp einen Download auf das iPad durchzuführen, scheiterten hier kläglich. Der Server erzeugt riesige Dateien im /tmp (von einem 2.5 GB H265 codierten Film bis zu 12 GB "output.mkv") und bricht dann ab - die Dateien werden durch den Plex-Server danach gelöscht. Gemerkt habe ich den Mist nur, weil Download im Plex nicht mehr möglich war und mein Unmanic Docker nicht mehr konvertieren konnte (/tmp war voll) Und Transcodierung in ein SSD Verzeichnis, z.B. /mnt/user/cache/Transcode ist auch keine Alternative, wenn man sich mal anguckt, wie viele und teilweise auch große Dateien Plex nur beim Streamen oder gar beim Download erzeugt. Das ganze Zeug möchte ich echt nicht dauerhaft auf die SSDs geschrieben haben. Edit: Habe es hinbekommen. Im Plex-Client auf dem iPad Settings->Downloads->Videoqualität 720p (Hoch), Ton 128 kbps und auf dem Server (Plex) -> Einstellung -> Mediathek -> erzeuge Kapitel-Thumbnails und Vorschau-Thumbnails = NIE. Wenn dann noch HW-Encoding funktioniert, geht es. Dauert etwa 15 Minuten für einen Download und erzeugt eine Datei auf dem iPad, die ca. 70 % vom Original umfasst.
  13. I did not go through this whole thread, but you already checked this? Excessive writes to cache drive from docker applications seems to be a bit of a design problem in the docker/UnRAID combination. Many many docker apps write logs and temp-files to the docker image / cache drive, which should not happen. For my installation i had to change plex official with binhex-plex, add a few extra-paths for temp-files and map these to /tmp/ and install a RAM-drive like explained by @mgutt here. It still does excessive writes. In my case these come from roon-docker, which has tons of logs in docker.img and writes tmp files there too. There should be a "design guideline" for dockers with UnRAID, because this is really annoying. From the UnRAID point of view the problem is related to the design or implementation of the docker apps.
  14. I don't know if this belongs here: Had serious trouble with rsync commands running wild. Started something like "rsync -avh --delete \\A \\b - huge job, almost 10 TB. I canceled it via userscript-plugin but it did not work. In the end i had about 10 rsync scripts copying the same stuff over and over (because the first ones altered the date/time and the later scripts did not notice). Annoying... Is there a way to include this (i needed "killall rsync" to clean up this mess) or should i provide something with the script to avoid this behaviour.
  15. Schöne Boxen :-)! Abspielen geht hier auch mit diversen Raspberry PI 3 und 4, die Aktivlautsprecher, Amp oder DAC per Cinch oder digital "füttern". Auf denen läuft Roipee (eine Roon-Bridge auf Debian-Basis). Sehr problemlos das Ganze. Von LMS bin ich weg, nachdem ich das 1. Mal Roon-Server getestet hatte. Zumal die Hardware von Logitech ja nur noch antik zu Mondpreisen zu bekommen ist (und klanglich auch mit den heutigen Lösungen nicht mithalten kann).
  16. Ich habe gute Erfahrungen damit, meine häufig benötigte Roon-Musiksammlung komplett auf eine billige kleine WD 2 TB 2,5 Zoll Platte zu legen. Die Musik läuft hier mehr als Filme, der Stromverbrauch der kleinen Platte ist vernachlässigbar, für die 2 - 5 MB/s Streaming von Musik reicht das dicke aus und die restlichen Platten laufen beim Musikhören nicht hoch, wenn man das Verzeichnis für Musik fest auf diese eine Platte zwingt. Ansonsten bin ich kein großer Freund von getrennten Servern, aber das kann anders aussehen, wenn VMs im Spiel sind. Mit so vielen Platten dürfte man kaum unter 20 - 25 Watt im idle kommen - das ist schon ziemlich gut. Bei mir ziehen die Docker ziemlich viel CPU und Watt, wenn sie richtig arbeiten. Video-Encodierung mit Unmanic, Plex, Indexierungs-Jobs, da läuft mein ähnlich konfigurierter UnRAID Server schnell von 20 - 25 W/idle auf das Dreifache hoch, vor allem, wenn alle Platten an sind. Das sind aber nur wenige Stunden am Tag. Ich messe den Stromverbrauch immer in Summe (USV, 2xNAS, Switches mit und ohne POE, Telefon-Server) - da kommt man im Leerlauf schon auf 90 - 105 Watt, in der Spitze dann bis zu 160 Watt. Aber schon wegen der geschäftlichen Daten, der nächtlichen Backups und weil auch externe Benutzer dran hängen brauchen wir hier 24/7. Viel Erfolg!
  17. Er meint W/24h und das ist ein Verbrauchswert auf Zeit.
  18. Search this forum. You need to activate rsync for a share using a script. But I would not recommend it. Unraid does not work too well as a backup target for the way it handles writing to disk.
  19. Hi, i'm running this wonderful unraid behind a Synology device, which is also doing reverse proxy to my docker containers like vaultwarden, pihole, plex etc. on the unraid-server. I can not get rid of the synology for undisclosed reasons - unraid is just my media and docker machine. Dynamic DDNS including the SSL certificate comes from the Synology device (which is easy to implement and working well with plex and vaultwarden). So how do i integrate the unraid SSL/DNS with this cryptic "xyz..517a42973bc.unraid.net" url and certificate into this setup? The unraid-server itself always shows up with this unwanted DNS-entry and its own certificate. This gives me SSL related errors if i call the unraid-server via the "main" url (e.g. https://unraid.my-homeDDNS.synology.me). Somehow i did not find any useful information on handling of this part. Thx in advance, Alex
  20. Und das ist ja schon ziemlich viel. Was ich aus kaputten RAID-Arrays (Hardwaredefekt inklusive Controller oder Mainboard, Softwareprobleme, Neuinstallation) gelernt habe, ist jedenfalls genau das: Selbst mit einer funktionierenden Datensicherung dauert es meist ewig, zum Beispiel einen Windows-Server mit allen Diensten wiederherzustellen. Und das kann Unraid wirklich gut, weil alle Probleme zum Beispiel einer Neuinstallation auf anderer Hardware "mitgedacht" wurden.
  21. Hallo, ich bin neu mit Unraid, wegen der guten Oberfläche und steilen Lernkurve aber schon fast in der Lage, meine teure Syno DS 918+ mit viel Hardware und Strom (24/7) zu ersetzen. Eines der letzten Rätsel sind die bei Unraid offenbar komplett fehlenden Benutzer "Home" Verzeichnisse. Ich habe außer der privaten Mediensammlung (dank Unraid jetzt gut verwahrt) vor allem Office-Anwendungen am Start mit wenigen Benutzern, die aber sehr unterschiedliche Rechte haben (Büro/Privat sind getrennt). Bei Synology und jedem anderen mir bekannten NAS/Server wird für jeden Benutzer "automatisch" ein Home-Verzeichnis angelegt, das für den jeweiligen Nutzer exklusiv ist. 1. Muss ich das in Unraid wirklich händisch für jeden Benutzer anlegen und die Rechte zuweisen? 2. Warum ist das so? Mit den fehlenden Gruppen kann ich ja bei wenigen Benutzern noch leben, aber in einer normalen Büroumgebung oder bei größeren Benutzerzahlen wird das ziemlich schnell unpraktisch. 3. Oder gibt es da ein Plugin/einen Hack? Habe nichts dergleichen gefunden. Bin für jeden Input dankbar. Alex