Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Für Arbeitsdaten nutze ich regelmäßige Backups auf einen Share, den man nicht als Freigabe nutzen kann (versteckt, ohne User). Für Medien habe ich mir manuell einen Share direkt auf dem Cache erstellt. Der Share steht auf Yes, d.h. nachts schiebt der Mover die Dateien ins Array. Der eigentliche Share besitzt nur Leserechte. Vorteil: Ransomware hat keine Chance, außer die Daten vom selben Tag. Nachteil: Wenn man ältere Dateien bearbeiten will, muss man sie entweder manuell auf den Cache schieben oder in unRAID selbst was nutzen wie zb Krusader.
  2. Sicher? Mach auf jeden Fall regelmäßig Backups!
  3. /boot/logs/syslog Bitte Tag / Uhrzeit.
  4. Den siehst du nur, wenn du dich über das Terminal anmeldest. Das sollte helfen, damit du die Daten sichtbar machen kannst: https://kittmedia.com/2018/synology-pakete-apps-auf-anderes-volume-verschieben/ Nutz aber lieber "cp" statt "mv". Also auf volume1 kopieren und nicht verschieben.
  5. Scroll up, the recent version is still broken: https://forums.unraid.net/topic/104437-support-dropbox-by-otherguy/?tab=comments#comment-1038858
  6. https://github.com/jc21/nginx-proxy-manager/issues/1172 https://github.com/jc21/nginx-proxy-manager/issues/230
  7. Auf jeden Fall, aber sie hat 125 € gekostet. Da konnte ich nicht nein sagen. Ca 2W (1 bis 2 Seiten vorher siehst du auch meine Messung des ITX): https://www.hardwareluxx.de/community/threads/die-sparsamsten-systeme-30w-idle.1007101/post-28446459 @Anym001 hat das im Einsatz und mit 4 Platten im Spindown um die 8W gehabt. Finde gerade das Foto nicht
  8. Yes. This is the default behaviour of Linux. Everything which is read from a disk is written to the RAM. So this is only a trick to prefill the RAM. And because of that it's impossible to use the SSD. I tried to use a swap file, but it's sadly not possible to read data directly into the swap file.
  9. Einfach den appdata Ordner über das Netzwerk freigeben? Oder den Krusader Container installieren (das wäre ein Datei-Explorer)? Gut. Wenn du jetzt zb alles in FilmRecords auf unRAID in den Share "Filme" kopierst, dann würdest du bei den Container Einstellungen einen neuen path hinzufügen, wo du bei Container /volume1/FilmeRecords setzt und bei Host /mnt/user/Filme. Nur den ersten Pfad sieht Emby. Emby weiß also gar nichts davon, dass die Filme in unRAID eigentlich woanders liegen und denkt sich nur "/volume1/FilmRecords", den Ordner kenn ich, ah da sind die Filme ja. Wie gesagt. Wenn du den Container auswählst, beantwortet sich die Frage von selbst. Moment, mach ich mal... ... Ich habe mir den Container von "binhex" und "linuxserver" angeschaut. Beide nutzen intern den Pfad /config: Hast du bei deiner jetzigen Emby Installation die Daten auch in diesem Ordner? Wenn ja: Easy, einfach alles aus dem Ordner nach /mnt/user/appdata/emby kopieren. Wenn nein: Erstmal wie zuvor probieren. Wenn das nicht klappt, dann musst du den Container-Pfad so anpassen, dass er intern auf den Ordner verweist, wo jetzt deine Nutzerdaten liegen. Deine jetzige Aufgabe ist es also herauszufinden wo Emby die Nutzerdaten bei deiner Syno abgelegt hat. Der Pfad von Emby sollte denke ich /volume1/@appstore/EmbyServer sein. EDIT: Ok. Wird doch nicht so einfach. Die Pfade sind nicht nur anders, sondern in der Datenbank selbst und müssen daher geändert werden: https://gist.github.com/Iristyle/0de6b9f7e8534366a28f2768eb94aa21 Sieh also zu, dass du genug Backups machst.
  10. Dann wird es schwerer, aber nicht unmöglich. Du musst erstmal das Emby Templates auf unRAID anschauen und dann siehst du welche Containerpfade die Nutzerdaten enthalten. Genau diese Pfade müssen die Dateien enthalten, die aus deinem Backup stammen. Also sagen wir Mal der Containerpfad wäre /usr/local/emby und verweist auf den Host /mnt/user/appdata/emby, dann musst du diesen Ordner erstellen und die Dateien dort hin kopieren, bevor du den Container startest. Auch ist es wichtig zu wissen auf welchen Pfad Emby zugreift um deine Medien zu finden. Ich vermute mal irgendwas mit "Volume/Filme"? Dann musst du einen neuen Pfad in dem Container hinterlegen, der von Volume/Filme (Container) nach /mnt/user/Filme oder so verweist. Es ist absolut wichtig, dass es im Container genauso aussieht wie jetzt bei deiner Installation auf der Syno. Also selbe Unterordner Struktur.
  11. Bei den HDDs wirst du das doch machen müssen, weil du ja nicht genug davon hast. Aber ich denke das ist klar?!
  12. Du baust alles ein. Fügst sie HDD(s) ins Array ein, den Pool aus den SSDs, startest und fertig. Die Standard Shares haben bereits alle die korrekten Cache Settings. Zb appdata steht auf Prefer (bleibt auf SSD).
  13. Nein, ist schlechter. Leider nein. Und eine W10 VM. Wobei da immer noch massig Luft ist: 10G muss ich immer noch messen. Wenn du es aber stromsparend (und günstig) haben willst, wäre eh das Optimum keinen 10G Switch zu verwenden, sondern NAS und Client direkt per 10G zu verbinden und über klassisch 1G dann zum Router / Internet. Habe leider nur 1x LAN im Büro, sonst hätte ich das gemacht. Messen muss ich tatsächlich mal. 10G Switch nutze ich aktuell den von Netgear mit 2x 10G. Ich habe aber auch den von Mikrotik und Zyxel hier. Wollte ich alle Mal messen. Ja läuft. Macht Laune. Jeden Tag Bash/Shell Chaos 😅
  14. There is no rule to put all vdisks into the "domain" share. So feel free to create as many shares as you like and set their caching rules as you prefer it. For example add the share "vmarray" and set its caching to "no". Now move the vdisk file (of course as long the vm isn't running) into this new share, edit the vm to update the vdisk path and you're done. PS you don't need to use /mnt/diskX/sharename as path in your VM config. You can use /mnt/user/sharename. Unraid automatically replaces /mnt/user against /mnt/diskX in the background, before starting the VM. Another solution could be to add multiple HDDs to a second pool. Its not as fast as the SSD cache pool, but would be a lot faster than your array. Some unraid users even create ZFS pools (through the command line) and use those paths for their VMs (or even for all data).
  15. Erstell mal bitte über die Kommandozeile eine große ZIP Datei um eine hohe CPU Last zu provozieren. Also mit "cd /mnt/disk1" auf die erste Disk wechseln und dann zb von deiner SSD ein Archiv erstellen mit "tar -czvf cache.tar.gz /mnt/cache"
  16. Ist dein syslog Server auf Mirror gestellt? Wichtig ist, dass wir den Zeitpunkt des Neustarts kennen und die Logs diesen Zeitpunkt umfassen. Ohne Mirror sind die Logs nach einem Neustart weg.
  17. Das macht irgendwie keinen Sinn. Meiner Ansicht nach solltest du Ubuntu auf einen Stick packen, alle Datenträger anklemmen und mal nur so Booten. Dann messen und solange Datenträger anschließen, bis du das Problem erkannt hast. Das hält nicht mal die beworbene Bronze ein: https://www.computerbase.de/2013-04/300-watt-netzteile-test/7/#abschnitt_effizienz Das Corsair RM550x (2021) oder das Be Quiet Pure Power FM 550 sind aktuell die sparsamsten ATX Netzteile im Niedriglastbereich. Sind die wirklich aktiv (also sichtbare Übertragungsrate) oder schlussfolgerst du das aus dem Icon? SSDs gehen sofort in den Standby, wenn sie nichts zu tun haben. Erkennt man auch an der Temperatur. Das macht gar nichts aus bzw wenn die aktiv sind, ist der Verbrauch von NVMe höher und nicht niedriger als SATA. Das liegt schon alleine daran, dass eine NVMe 4 PCIe Lanes nutzt, während sich alle SATA, USB usw Buchsen 4 Lanes teilen. Ich finde das viel zu hoch. Mit einem C246M-WU4 landet man bei den selben Datenträgern bei ~10W. Welches Messgerät nutzt du?
  18. Cec2019 aktivieren. Mehr braucht es bei dem Board nicht. Siehe auch: https://www.hardwareluxx.de/community/threads/die-sparsamsten-systeme-30w-idle.1007101/page-68#post-28446459
  19. Nvidia unterstützt die Virtualisierung erst offiziell ab der 700er Serie: https://nvidia.custhelp.com/app/answers/detail/a_id/5173/~/geforce-gpu-passthrough-for-windows-virtual-machine-(beta) Will man es mit einer älteren Karte realisieren, muss man das BIOS auslesen, die Datei modizieren und als vBIOS hinterlegen. Hast du das gemacht?
  20. Sobald du auf "Add Pool" klickst, fragt der dich aus wie vielen Datenträgern dein Pool bestehen soll. Solange du keinen Pool erstellst, tauchen die SSDs einfach nur als Unassigned Devices unter dem Array auf. Du musst also aktiv werden um sie irgendwo zuzuweisen. Theoretisch könntest du zB auch ein Array komplett aus SSDs erstellen und gar keinen Pool nutzen. Das kann der Nutzer eben alles frei entscheiden. Von Emby habe ich keine Ahnung. Ist das ein Docker? Dann solltest du mit den Daten des Nutzerverzeichnises 1:1 weitermachen können. Ein Docker interessiert sich nicht dafür worauf er läuft. Wichtig ist nur, dass die eingestellten Container-Pfade gleich bleiben und dass der Container in dem Pfad die Dateien so vorfindet, wie er sie auch vorher gefunden hat. Wenn dir das zu viel Kopfzerbrechen verursacht: Neue Platte kaufen 😁
  21. Yes, this option was removed since it's possible to add multiple pools (so each pool can have its own min free space).
  22. Yes, but it will use 100% of your RAM which could cause crashing your server. But /dev/shm would be an option. It uses "only" 50%.
  23. Was gar nichts für eine NVMe ist. Der zulässige Bereich geht laut technischer Daten von "0°C to 70°C". Drosseln tut sie erst ab 80 Grad: Es gibt eine Studie von Facebook auf die manche Websites verweisen und die angeblich kühleren SSDs eine längere Haltbarkeit zusprechen, aber laut dieser Studie hat man exakt die selben niedrigen Ausfallraten, wenn man die SSDs bei Höchsttemperatur betreibt, was die sich nicht erklären können. Für mich ist die Studie in dem Punkt daher ziemlich nichtssagend / zufällig.
×
×
  • Create New...