Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Ich würde zuerst mal prüfen ob der Container noch ins Internet kommt (wenn das wieder passiert). Da ich PiHole noch nicht verwende: Gibt es dafür in der GUI eine Möglichkeit? Wenn nein, dann gehe auf Docker -> PiHole Icon -> Console und versuch es mit den beiden Befehlen: ping 8.8.8.8 getent ahosts google.com Zeig auch mal einen Screenshot von deinen Netzwerk-Einstellungen und den Container-Einstellungen. Vielleicht springt einem etwas ins Auge.
  2. Besser ist es, wenn du das Array herunterfährst und für jede Disk diesen Befehl im Terminal eingibst um sie herunterzufahren: mdcmd spindown 0 mdcmd spindown 1 mdcmd spindown 2 mdcmd spindown 3 mdcmd spindown 4 ... In dem Zustand machst du dann mit und ohne den powertop Regeln den Verbrauchsvergleich. Dann stören auch nicht die ganzen Schwankungen durch die Docker Container und VMs. Wegen den Messwerten: Ist bei mir nicht anders. Scheint nicht richtig für Slackware kompiliert worden zu sein. Beim allerersten Ausführen war bei mir auch die "Idle Stats" Statistik leer.
  3. v0.9 released: - Preloads only subtitle files that belong to preloaded video files Now the preloading should be much faster if your collection contains many SRT files. Here is an example from my logs:
  4. I changed the guide, which includes now 5 requirements including the new step to flush the linux write cache.
  5. Yes and no. If you set it to only and your cache becomes full again, emby will crash (because emby runs out of storage). Thats the reason why I set a minimum free space on my SSD before changing the path to Direct Access as this minimum free space is only valid for Shared Access. By that I have up to 100GB free storage exclusively for Plex no matter how much data is written to the SSD through other processes. This is strange. One moment, I will test if this feature shows files that exist twice... Hmm no it shows disk8 and cache if the same file is located on both: So what happened with your Emby installation 🤔 Emby itself has usually no clue about the local path. But maybe the docker container itself resets after changing the appdata path? Hopefully not, but else I'm out of ideas. Which emby container are you using? I want to test this scenario. EDIT: I'm having an additional idea. Execute this command please: sysctl -a | grep dirty Is "vm.dirty_expire_centisecs" set to 3000? If yes, the following could happen: - emby wrote new data to the database - because of "vm.dirty_expire_centisecs" this new database is still located in the RAM for 30 seconds - now you changed the path, emby restarts and does not find the database file anymore as its not already written to the SSD cache If this is the reason, I have to change the manual as we have to disable the container and wait more than 30 seconds before changing the path. What it means for you: File is lost (sorry for that).
  6. If it ever happens that your cache become full, all new files are written to the HDD array if you've set the appdata caching to "prefer". After that they stay there "forever" as the mover is not allowed to move files that are in use.
  7. This can only happen if some files were spread on SSD cache and HDD array, so after changing the path to SSD direct access, emby is not able to find all files (as some are located on an HDD). That's the reason why this is a requirement: After you started with the direct access path, it created those missing files again like it is done on a fresh install and after you reset the path to Shared Access, Unraid prefers all files, that are located on the SSD, so its still a fresh install. Solution: Move all files from the HDD to the SSD (overwrite all existing files) and now your back on the old status. After that Direct Access will work as well.
  8. First process is SHFS. Something is still writing to / reading from "/mnt/user/". 1.) Your docker.img path uses /mnt/cache? 2.) Did you disable Heartbeat? (The Link contains a command to monitor writes to the docker.img as well)
  9. Hier noch mal die Liste, die ich dir per PN gesendet hatte, falls das auch mal jemand mit seinem Board machen will: - Board mit CPU, 1x RAM Modul, SATA SSD, aktivem HDMI und aktivem LAN - W10 Pro ohne Product key installieren - abwarten bis alle Treiber drauf sind - Intel Treiber Assistenten laden und auch nochmal drüber laufen lassen (wegen aktuellem Chipsatz Treiber) - neu starten - evtl Virenscanner deaktivieren - Taskmanager öffnen und schauen, dass sich Windows wirklich "beruhigt" hat - evtl ThrottleStop installieren um die von der CPU genutzten C-States anzeigen zu lassen Die C-States werden im BIOS eingestellt. In den Grundeinstellungen steht dort meist "Auto" und/oder ein Limit. Hier stellt man alles auf "C10". Bei manchen BIOS muss man jeden C-State einzeln aktivieren. Such auch mal im BIOS nach "CEC2019". Wenn vorhanden, dann aktivieren. Analog Audio falls vorhanden deaktivieren.
  10. Bei mir sank der Verbrauch um 4 Watt. Aber bei deinem Motherboard wundert mich das jetzt nicht. Ich mein da sind ja 4x mehr Bauteile drauf als auf meinem und dann eben noch zwei CPUs und eine Millionen RAM-Slot ^^ Mit Enterprise-Hardware kann man Energie sparen denke ich vergessen.
  11. No problem as the Preloader default setting is 50% of the free RAM. This means there are still 50% left for the subtitles. Except you set a much higher value or you have much less of free RAM. But you are right, the best would be to parse only those folders, which contain preloaded video files. Will think about that.
  12. Good choice. So it must be something else.
  13. Maybe this will solve it. Because it does not make sense to have I/O wait on an NVMe. An NVMe has a huge bandwith and allows (instead to SATA) parallel access. Or do you use a low-grade NVMe with QLC flash / non SLC Cache / no RAM?
  14. Ich wollte gerade sagen, dass er deutlich höher ist, aber elefacts hat gar nicht mit Windows gemessen: https://www.elefacts.de/test-96-nas_advanced_3.0__nas_mit_intel_c246_serverchipsatz_und_6x_sata FreeBSD wird er sicher nicht optimiert haben. Da ist bestimmt deutlich weniger möglich. @Andreas2020 Mess bitte mit 1x SATA SSD und Windows 10 und allen aktivierten C-States. Dazu gleich noch das Skript zum Energiesparen, später für Unraid: https://forums.unraid.net/topic/98070-reduce-power-consumption-with-powertop/
  15. Man sollte immer mal kurz die 5V und 12V Werte getrennt addieren und mit den Werten auf dem Netzteil vergleichen. Gerade 5V kann nämlich durchaus ein größeres Netzteil rechtfertigen. Aber grobe 20W pro HDD sollten denke ich beim Rechnen reichen. Ja, aber wohl nur, wenn sie zum Zeitpunkt des Array-Starts verbunden sind: https://forums.unraid.net/topic/79954-disk-license-limit-for-temporary-backup-devices/
  16. Den Neustart hast du manuell ausgelöst? Hat das geklappt oder musstest du nachhelfen (zB in dem du hard resettet hast)? Wenn er ganz normal neu gestartet wurde, dann würde ich vielleicht einen neuen Stick in die Schublade legen. Mir ist auch schon ein Kingston DataTraveler SE9 nach wenigen Wochen kaputt gegangen. Der Transcend JetFlash 600 hält dagegen aktuell in drei verschiedenen Servern. In einem sogar bei einem USB3 Port, der ja gerne von der Community verteufelt wird. ^^
  17. Yes and no. You said they change rapidly. This means they are new files. New files will be copied. Hardlinks are only generated if the files already exist = "old" files. And yes, many files mean many hardlinks. Thats the reason why each folder is an independent full backup. If you are concerned about performance. No clue. I would say it takes longer than only copying new files like this is done by usual incremental backup softwares. But those have the downside that you need to keep all old folders and they must generate an index file which covers deletions. Not sure which method is finally faster. I only know that its easier to know "this folder is my full backup of day X". Yes. "--link-dest" works remotely, too. rsync compares size and date of a file and if they do not fit it creates a new copy. If it already exists in the "--link-dest" folder, it creates a hardlink to the already copied file. Only requirement: --link-dest and destination must be on the same volume (I think this is logical). I will consider remote backups in a future version.
  18. Do you already use direct disk access (replace /mnt/user/... against /mnt/cache/...) for Plex appdata, docker.img and other docker appdata containers, using the cache only?
  19. Another good idea for enhancement: https://www.reddit.com/r/unRAID/comments/jfxc3t/postpone_appdata_backup_if_plex_is_being_used/
  20. Ich habe mal wegen dem C246M-WU4 recherchiert. Erstmal bin ich erschrocken, denn hier hat jemand 32W mit einem Pentium Gold G5400 gemessen: https://www.hardwareluxx.de/community/threads/homeserver-fujitsu-d3644-b-vs-gigabyte-c246m-wu4.1244854/#post-27189931 Allerdings kann das einfach nicht stimmen, denn er hier hat 19W mit einem High Power Xeon E-2278G (8 Kerne / 16 Threads) gemessen: https://www.amazon.com/gp/customer-reviews/R21L0MBJHJUOO2/ Wobei der sogar noch ein ineffizienztes 550W Netzteil verwendet (er sagt es sei effizient, vergisst aber, dass große Netzteile nie effizient bei so niedrigen Lasten sind). Dann nutzen beide auch noch ein M.2 RAID, was per BIOS konfiguriert wurde. Ich habe da so meine Zweifel, dass Windows die NVMe dann noch ordentlich schlafen schicken kann. PS Ich hoffe dein Netzteil ist nicht so riesig
  21. Generate a report with powertop. It will contain the commands to set auto for unused pci slots. I don't know why this general rule is a problem for your server. It seems one of your pci cards has a problem with automatic power control.
  22. Mag sein, sieht halt nur total Banane aus, wenn keine Cover angezeigt werden und nur Datei- statt Filmnamen. Dafür brauchst du dann ja keinen Medienserver. Das macht den ja aus, dass er die Metadaten crawlt und dann hübsch aufbereitet. Dadurch kann man dann ja auch nach Schauspielern oder Regisseur usw suchen. Da kannst du stattdessen auch einfach DLNA installieren (sofern die Codecs passen) oder irgendeinen Mediaplayer wie VLC zum Abspielen nehmen. Auf der offiziellen Liste steht er nicht, aber die RAM-Kompatibilität scheint gut zu sein, wenn man sich die anschaut.
  23. Ich habe es zu oft weiterempfohlen ^^ Das Mini-ITX was ich nutze ist zB komplett ausverkauft. Wäre mal interessant zu wissen wann das wieder nachkommt. Es gibt auch noch ein C246M von Asus, aber das ist deutlich teurer.
  24. Nein, du kannst auch den Medienserver darauf installieren, was die Latenz bei der Bedienung dessen senkt und allgemein den Stromverbrauch, weil die HDDs komplett ausbleiben können. In beiden Disziplinen ist das Gigabyte meiner Ansicht nach besser (das C246N-WU2 verbraucht unter 7W, also weniger als die Hälfte von dem Fujitsu) und für USB Header gibt es auch günstige Adapterkabel, wenn du den Stick unbedingt im Gehäuse haben willst. Das tun alle C246 Boards, da das ein Xeon Chisatz ist. Nein die eine 500GB reicht. Für dich vermutlich auch die 250GB. Bei Unraid entscheidest du wo das docker.img, die Container-Daten und VMs liegen. Standardmäßig liegen die alle in separaten Shares und bei jedem Share kannst du den Cache auf "only" oder "prefer" setzen und damit diese Daten dauerhaft auf die SSD verlagern. Du musst dir nur überlegen wie ausfallsicher das sein soll. Also willst du ein SSD RAID1 aus zwei SSDs oder sicherst du regelmäßig auf die HDD oder beides. Ich habe auch zB nur eine NVMe verbaut und sichere die alle 24 Stunden auf einer der HDDs. Das reicht mir.
×
×
  • Create New...