mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. The only ideas I have left: - change the whole PCIe settings in the BIOS to PCIe 3.0 (if such a setting exists) - install the NVMe only on chipset M.2 slots. Does it help? + Which NVMe brand / models are you using? Samsung has the best C-State compatibility as of my experience. - install the Intel 10G in the bottom slot (chipset) and remove the SATA card to test the impact. Does it help? If yes, you could try to buy an ASM1166 M.2 card and use one of the M.2 chipset slots for this card, too. They idea is not to use CPU PCIe Lanes at all. PS don't use M.2_4 or you loose 4 SATA ports. - did you disable Thunderbolt in the BIOS (if possible)? - did you disable audio in the BIOS? - did you remove the Wifi card?
  2. Ja, denn aktive PCIe 4.0 Lanes benötigen doppelt so viel Strom. Das würde sich lohnen, wenn man doppelt so schnell die Daten verarbeiten würde, aber gerade bei einem NAS kommt man ja selten an das Limit der NVMe um die Zeiträume zu reduzieren, wo die Lanes aktiv sind. Soll heißen, egal ob PCIe 3.0, 4.0 oder 5.0, die NVMe ist überall quasi gleich lange aktiv, verbraucht dann aber je nach Version mehr Strom. Siehe auch: https://www.anandtech.com/show/16087/the-samsung-980-pro-pcie-4-ssd-review/8 Also sogar eine PCIe 4.0 NVMe ist mit 3.0 sparsamer, eben weil PCIe abwärtskompatibel ist. Ich halte das übrigens für gelogen, dass NVMe ohne DRAM sparsamer sind. Man misst nämlich nur den Verbrauch der NVMe. Dass die Nutzung des HMB aber durch den Rest des Boards ganz sicher auch Strom verbraucht, wird einfach ausgeblendet. Und ich bezweifle, dass die "lange Leitung" zum RAM, der außerhalb der NVMe liegt, weniger Strom verbraucht als RAM, der direkt am NVMe Controller hängt.
  3. Häh? /mnt/cache ist persistent.
  4. I moved the script to this repo: https://codeberg.org/mgutt/rsync-incremental-backup > incbackup.sh I will consider your suggestions (for example the change log will be in future part of a separate file). Doesn't the log contain a more detailed error message? Do a search for "error". The target filesystem has to be BTRFS or XFS or ZFS. The source filesystem does not matter except it contains the appdata directory. Then it should be BTRFS or XFS (At the moment ZFS does not support reflink files, which is a feature used by my script. I'll try to find a workaround for this).
  5. Und was ist in /user? Hier zeigst du nur was auf disk1 liegt: /user ist die Summe aus /cache und /disk1. Warum kommst du eigentlich darauf, dass was fehlt, die Tabellen-Dateien sind doch wenn in den Unterordnern /git, /iobroker, usw. Oder waren es viel mehr Unterordner/Datenbanken? Wie gesagt schau /user an, die werden vermutlich da liegen. Ich empfehle niemandem mehrere Datenbanken in einem Container. Damit hat man nur unnötige Mehrarbeit (Kommandozeile etc) und so eine Situation wie du sie jetzt hast, hat man dann auch nicht (das gleich alles kaputt ist). Erstelle pro Datenbank einen Container mit geändertem Namen und geänderten Pfad. Dann sieht man auch welcher Container (Datenbank) wie viel Last verursacht und man hat eine viel bessere Performance. Apropos Performance. Es ist kontraproduktiv /appdata auf was anders als /cache liegen zu haben. Wenn du dir Gedanken wegen der Ausfallsicherheit gemacht hast: Es ist eben nur eine Ausfallsicherheit im Array. Backups sind entscheidend. Daher alles auf /cache packen und regelmäßig Backups von /appdata Richtung Array machen. Kurze Empfehlung für mein Plugin zur Sicherung von /mnt/cache/appdata nach /mnt/disk2/backup/appdata: Dann gib es auch keine Probleme mehr mit der Wiederherstellung.
  6. Ok fine and what about powertop auto tune or the custom commands to enable power saving of your devices?
  7. Bei mir würde eine VM 24/7 ungefähr 10W mehr Stromverbrauch ausmachen. Außerdem ist es viel einfacher Backups zu machen oder Config Files zu bearbeiten. Eben weil die Dateien direkt über unRAID bearbeitet werden können. Auch Updates hat man direkt im Blick bei der Docker Übersicht. Also eigentlich viele gute Argumente gegen die VM. Aber der Container kann nicht alles was die VM kann. Da muss man abwägen.
  8. Nicht nur nicht optimal, sondern auch keine gute Idee. Die unbeständigen USB Verbindungen taugen leider nichts für paritätsgeschützte Arrays/Pools. Man könnte höchstens ohne Parität arbeiten und untereinander Backups erstellen. Übrigens wirst du mit der Lösung auch nicht sonderlich effizient unterwegs sein und natürlich auch sehr lahm. Natürlich. Beide werden auch problemlos funktionieren. Ich finde allerdings keinen sonderlich gut. Hier sind ein paar Modelle, wo man mehrere SSDs verbauen kann: https://forums.unraid.net/topic/133177-lenovo-m910x-m920x-m90q-als-basis-für-einen-unraid-server/ Aber die kosten natürlich mehr, insbesondere die SSDs.
  9. Als GPU würde ich wenn was aktuelleres nehmen. Die Nvidia T600 zb. Die gibt es gebraucht für 120 €. Aber ich hatte das so verstanden, dass du insgesamt nicht mehr als 200 € ausgeben willst. Da würde sich ja eigentlich eine gebrauchte Workstation anbieten: https://forums.unraid.net/topic/118008-unraid-server-ab-100-€/ Beispiel: https://www.ebay.de/itm/325657702151 Am besten dann umbauen in ein anderes Case, wo die 5 Platten einfacher montiert werden können. Aber Achtung: man braucht für ein eigenes Netzteil einen Adapter, da Fujitsu proprietäre Stecker hat. Oder eben das Fujitsu Netzteil weiter benutzen. Der verbaute i3-9100 hat eine iGPU und sollte für Plex potent genug sein.
  10. At first: It is not a good idea to make this public as this VNC connection has access to the BIOS of the VM. So if it restarts, someone could be able to open the boot manager and kill the VM and/or access sensible data inside the VM or even install own stuff. It is like to leave a Notebook at the next bus station while hoping nothing will go wrong. It would be better to install a remote access software inside the VM (Teamviewer, Real VNC, Chrome Remote Desktop. etc) which work without port forwarding. Or join the server to a virtual network like Zerotier. Or setup a VPN connection to your router. I'm using for example Wireguard to connect to my router. Did you enable Websocket support for the NoVNC proxy host? This is required. Did you check your browser network developer tools? Maybe it returns an error message.
  11. I've checked that and found out that the bug is even present in the older version and the last Unraid version. And actually the problematic line is doing a useless step and that's why I removed it: # ------------------------------------------------- # RAM-Disk for Docker json/log files v1.6 # ------------------------------------------------- # check compatibility echo -e "ce45b19ceea8837f8143b8a5b64663f2 /etc/rc.d/rc.docker\n9f0269a6ca4cf551ef7125b85d7fd4e0 /usr/local/emhttp/plugins/dynamix/scripts/monitor" | md5sum --check --status && compatible=1 if [[ $compatible ]]; then # create RAM-Disk on starting the docker service sed -i '/nohup/i \ # move json/logs to ram disk\ rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\ mountpoint -q /var/lib/docker/containers || mount -t tmpfs tmpfs /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be mounted!\ rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\ logger -t docker RAM-Disk created' /etc/rc.d/rc.docker # remove RAM-Disk on stopping the docker service sed -i '/tear down the bridge/i \ # backup json/logs and remove RAM-Disk\ rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\ umount /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be unmounted!\ rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\ logger -t docker RAM-Disk removed' /etc/rc.d/rc.docker # Automatically backup Docker RAM-Disk sed -i '/^<?PHP$/a \ $sync_interval_minutes=30;\ if ( ! ((date("i") * date("H") * 60 + date("i")) % $sync_interval_minutes) && file_exists("/var/lib/docker/containers")) {\ exec("\ [[ ! -d /var/lib/docker_bind ]] && mkdir /var/lib/docker_bind\ if ! mountpoint -q /var/lib/docker_bind; then\ if ! mount --bind /var/lib/docker /var/lib/docker_bind; then\ logger -t docker Error: RAM-Disk bind mount failed!\ fi\ fi\ if mountpoint -q /var/lib/docker_bind; then\ rsync -aH --delete /var/lib/docker/containers/ /var/lib/docker_bind/containers && logger -t docker Success: Backup of RAM-Disk created.\ umount -l /var/lib/docker_bind\ else\ logger -t docker Error: RAM-Disk bind mount failed!\ fi\ ");\ }' /usr/local/emhttp/plugins/dynamix/scripts/monitor else logger -t docker "Error: RAM-Disk Mod found incompatible files: $(md5sum /etc/rc.d/rc.docker /usr/local/emhttp/plugins/dynamix/scripts/monitor | xargs)" fi Further explanation: The backup part creates the directory "/var/lib/docker_bind" and a mount on it. After the backup is done the mount is removed. So it doesn't make sense to remove the mount additionally through the part which gets executed while docker is stopping (as the mount exists only while the backup is running). I think my actual idea was to remove the directory "/var/lib/docker_bind", but finally this is an absolutely unnecessary step as leaving an empty directory does not influence anything on the system. Actually this even saves the additional step to re-create the directory on the next docker start.
  12. I saw this error on the machine of one of my customers: Jul 28 20:35:49 Tower nginx: 2023/07/28 20:35:49 [error] 4080#4080: *33110 open() "/usr/local/emhttp/plugins/dynamix.file.manager/javascript/ace/mode-log.js" failed (2: No such file or directory) while sending to client, client: 192.168.2.124, server: , request: "GET /plugins/dynamix.file.manager/javascript/ace/mode-log.js HTTP/1.1", host: "192.168.2.127", referrer: "http://192.168.2.127/Main/Browse?dir=%2Fmnt%2Fdisk3%2Fbackups%2Fappdata%2F20230728_203308"
  13. A little feedback on that: This is not a place to help users of other containers like the one of Linuxserver and users using the command line to create multiple databases are additional special scenarios I'm not really willed to help only because some YouTubers are spreading bad How-Tos This is not recommend. Create dumps from each database. You can use phpmyadmin, HeidiSQL (Windows), Adminer, Command Line ...
  14. Wie gesagt. Warte auf eBay. Da spart man sicher 100 €. Vom Verbrauch her erwarte ich keinen Unterschied, da die Kühlkörper von dem 10G Controller auch nicht sonderlich unterschiedlich sind. Und unten rum bei Nichtnutzung dürften beide gute C-States erlauben, weil halt Intel. Wenn verkackt es wie so oft ASRock selbst.
  15. Ja. Aber richtig kacke bei dem Board: der m.2 Slot ist kurz. Du brauchst also eine m.2 Verlängerung. Hol 1x 32GB Gibt es gebraucht sicher günstiger
  16. Man kann es nun kaufen, aber der Preis ist krank: https://geizhals.de/asrock-rack-w680d4id-2t-g5-x550-a2988483.html Ich warte jetzt mal eBay.com, wo die Preise ja deutlich besser waren.
  17. Halt irgendeinen Intel mit iGPU. Ansonsten gäbe es noch die Möglichkeit einen Apple TV an den TV zu klemmen oder einen Nvidia Shield. Die spielen denke ich alles ohne Transcoding ab.
  18. Ich komme wegen solchen Threads darauf: Ansonsten sind gerade alte Setups ja eher von Vorteil in Linux.
  19. Ich meine mit den alten Ryzen hat man unter Linux nur Stress. Also mindestens 3000 würde ich wenn nehmen. Und klar, der Stromverbrauch ist bei AMD im Leerlauf deutlich höher als bei Intel.
  20. I successfully tested the following version with Unraid 6.12.3 # ------------------------------------------------- # RAM-Disk for Docker json/log files v1.5 # ------------------------------------------------- # check compatibility echo -e "ce45b19ceea8837f8143b8a5b64663f2 /etc/rc.d/rc.docker\n9f0269a6ca4cf551ef7125b85d7fd4e0 /usr/local/emhttp/plugins/dynamix/scripts/monitor" | md5sum --check --status && compatible=1 if [[ $compatible ]]; then # create RAM-Disk on starting the docker service sed -i '/nohup/i \ # move json/logs to ram disk\ rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\ mountpoint -q /var/lib/docker/containers || mount -t tmpfs tmpfs /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be mounted!\ rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\ logger -t docker RAM-Disk created' /etc/rc.d/rc.docker # remove RAM-Disk on stopping the docker service sed -i '/tear down the bridge/i \ # backup json/logs and remove RAM-Disk\ rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\ umount /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be unmounted!\ rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\ if [[ -d /var/lib/docker_bind ]]; then umount /var/lib/docker_bind || logger -t docker Error: RAM-Disk bind unmount failed while docker stops!; fi\ logger -t docker RAM-Disk removed' /etc/rc.d/rc.docker # Automatically backup Docker RAM-Disk sed -i '/^<?PHP$/a \ $sync_interval_minutes=30;\ if ( ! ((date("i") * date("H") * 60 + date("i")) % $sync_interval_minutes) && file_exists("/var/lib/docker/containers")) {\ exec("\ [[ ! -d /var/lib/docker_bind ]] && mkdir /var/lib/docker_bind\ if ! mountpoint -q /var/lib/docker_bind; then\ if ! mount --bind /var/lib/docker /var/lib/docker_bind; then\ logger -t docker Error: RAM-Disk bind mount failed!\ fi\ fi\ if mountpoint -q /var/lib/docker_bind; then\ rsync -aH --delete /var/lib/docker/containers/ /var/lib/docker_bind/containers && logger -t docker Success: Backup of RAM-Disk created.\ umount -l /var/lib/docker_bind\ else\ logger -t docker Error: RAM-Disk bind mount failed!\ fi\ ");\ }' /usr/local/emhttp/plugins/dynamix/scripts/monitor else logger -t docker "Error: RAM-Disk Mod found incompatible files: $(md5sum /etc/rc.d/rc.docker /usr/local/emhttp/plugins/dynamix/scripts/monitor | xargs)" fi In addition the modifications apply only if the files are compatible. This should prevent errors if Limetech changes the files in one of the future Unraid versions again.
  21. Habe das hier gerade gelesen und danke für den Hinweis. Ist ja gruselig. Erinnert mich gleich an das Vanmoof Cloud Disaster durch die Insolvenz. Und die können das Geschäftsmodell niemals halten. Wie wollen die den Traffic von 100.000 Drucker-Kameras langfristig bezahlen. Also werden sie über kurz oder lang mit Abos anfangen und das ist dann der Anfang vom Ende.
  22. Ich sag ja ich brauche diesen Bambulabs 3D Drucker 😁 https://www.eio.com/products/istarusa-s-915-compact-stylish-5x-5-25-bay-mini-itx-tower
  23. Im RAID würden die SSDs durchgehend laufen. Das ist kontraproduktiv für den Stromverbrauch. Ich würde mit der Situation ohne TRIM leben. Ich denke damit würde es eh erst Nachteile geben, wenn man die über 90% belegt. Wobei man beim Array ja normalerweise die niedrigere Geschwindigkeit kennt und die QVO drosseln beim dauerhaften Schreiben ja eh schon auf 160 MB/s.
  24. It has a similar meaning. So no, you don't need to replace it.