Enks

Members
  • Posts

    105
  • Joined

  • Last visited

Everything posted by Enks

  1. Lancache wird mit Hilfe von Umgebungsvariablen (environment variables)konfiguriert. Die Variablen kannst du im Template anlegen bzw. sollte ein Teil schon von Beginn an angelegt sein. cz13 hat bereits erläutert wie du die Variable für den Speicherplatz setzt, eine Liste der möglichen Variablen findest du hier: https://lancache.net/docs/containers/monolithic/variables/
  2. Den gewünschten Befehl mit einem Texteditor deiner Wahl in die go-file schreiben, diese findest du auf dem Unraid Stick im config-Ordner.
  3. Had the same issue. After downgrading to the version before the update everything works again
  4. Bei Tintenstrahldruckern: Verschleiß der Druckköpfe und Tintenverbrauch aufgrund der Selbstreinigung nach dem Einschalten
  5. Dir werden die C-States nicht richtig angezeigt. Nimm eine neuere powertop-Version damit sollten die "richtigen" C-States angezeigt werden.
  6. Ich habe dasselbe Board und habe nach Anschluss meines ZigBee Sticks (Sonoff) und Inbetriebnahme von Home Assistant keinen messbaren Mehrverbrauch feststellen können. Vor- und Nachher erreiche ich C9. Hast du mehrere Buchsen ausprobiert?
  7. Lt. Computerbase sollte der i5-13600K die Raptor-Lake Architektur nutzen: "Nur Core i9, Core i7 und der Core i5-13600K nutzen die neue Raptor-Lake-Architektur mit Raptor-Cove-P-Cores mit mehr Cache, die anderen Core i5 und Core i3 basieren auf Alder Lake aus dem Vorjahr." Quelle: https://www.computerbase.de/2023-01/intel-core-i9-13900ks-6-ghz-gaming-cpu/ , 2. Absatz über der Tabelle im Artikel Ich würde die P3 Plus meiden. Die ist eine lahme Gurke, z.B: oberhalb von 25% Füllstand bricht die Schreibleistung massiv auf ca. 70 Mb/s ein und die Speicherzellen werden anscheinend auch nicht mehr für den SLC-Modus bereinigt: https://www.computerbase.de/2022-09/crucial-p3-plus-ssd-test/
  8. i tried it with the game Aragami, which has a Windows and a Linux native version. After the completion of the prefill i booted Ubuntu and started downloading it. Download speed was about 5 MByte/s (speed of my internet connection) so prefill didn't work. After completing the download over the steam client I switched back to Windows and started the download of the game there. Speed was about 40 MByte/s (Lancache is on my array). Conclusion: Prefill only cached the Windows version of Aragami. Now after downloading it over the linux steam client both versions are cached (size of the cache-share increased with the download of the linux version). @tpill90 Is it possible to use prefill to cache more versions of the same game, for example Windows and Linux? If yes, how?
  9. I want to prefill my cache with two versions of the same game from Steam (Windows and Linux). Does the --os parameter accept more than one operating system? If yes, what is the correct way to set it: --os windows,linux or --os linux --os windows or even another way? You have a tiny error in one of the descriptions in your template: The SteamPrefill Schedule is by default set to: 0 2 * * *, which means 02:00. The description says: "Set your cron schedule for SteamPrefill if enabled (by default it is set to 05:00 - head over to https://crontab.guru/ to create your own if you want to customize it)"
  10. Ich glaube du hast seinen ersten Satz überlesen: @Zer0_Tw0: Das Plex nicht startet liegt sicher nicht an libusb_init Failed, ist wie bereits gesagt kein Fehler. Kommst du garnicht auf die GUI oder was verstehst du darunter, dass du es nicht gestartet bekommst? Der Container läuft sonst könntest du nicht den Log posten
  11. Ja Nextcloud gibt es als Docker-Container. Für den Betrieb brauchst du noch MariaDB (MySQL--Datenbank), ebenfalls als Docker-Container vorhanden. Die Installation von Nextcloud + MariaDB ist nicht besonders schwer und man findet zahlreiche Tutorials im www, sowohl als Videos als auch als Text. Die öffentliche IPv4 bekommst du von deinem Internetprovider. Es gibt jedoch mittlerweile viele Provider die für Privatkunden, aufgrund der Knappheit an IPv4-Adressen, keine Öffentliche IPv4-Adresse vergeben, sondern Verfahren wie Carrier-grade NAT oder Dual-Stack Lite verwenden. Bei diesen Verfahren erhält man keine öffentliche IPv4-Adresse, bei manchen Internetanbietern gibt es ggf. die Möglichkeit gegen ein zusätzliches Monatsentgelt dennoch eine öffentliche Adresse zu erhalten. Solltest du in Österreich heimisch sein, dann hast du lt. RTR (Rundfunk und Telekom Regulierungs-GmbH) das Recht auf eine kostenfreie öffentliche IPv4-Adresse, siehe dazu: https://www.rtr.at/TKP/was_wir_tun/telekommunikation/konsumentenservice/faq/FAQ_oeffentliche_IP-adresse.de.html Ja ist möglich und wird von vielen auch so genutzt, entsprechender Upload-Speed sollte halt vorhanden sein sonst dauert es, je nach Größe des Backups, entsprechend lange. Du kannst Unraid für 30 Tage kostenfrei testen (free trial) und danach nochmal um 2x 15 Tage verlängern, also in Summe 60 Tage ohne gekaufte Lizenz betreiben.
  12. Mir ist schon klar, dass dies die sicherste Methode ist. Der SSH-Key für die QNAP ist nur im luckybackup-Docker intern sichtbar und liegt nicht in appdata, sondern im Docker-Image (ja ich weiß, dass er bei jeder Änderung des Container-Templates und Updates verloren geht ist aber für mich irrelevant, da sich der Container nicht ändert bzw. geupdatet wird) sprich Unraid selbst hat quasi keine Zugangsdaten zur QNAP sondern nur über den Unweg des luckybackup-Containers, der per Skript hoch und runtergefahren wird. Daher war auch meine Frage ob heutige Ramsomware so "intelligent" sind, dass sie diesen Mechanismus ausnutzen könnten (z.B. anstoßen, des betreffenden User-Script).
  13. Ich benutze luckybackup zum sichern der Daten vom Unraid-Server auf mein QNAP. SSH-Key ist in luckybackup hinterlegt. Der Backup-Prozess selbst wird durch ein User-Script angestossen und gesteuert, sprich: Weckt über WOL QNAP auf Startet den luckybackup Container Gibt den Befehl, dass luckybackup die Backup-Jobs abarbeiten soll Gibt den Befehl über luckybackup, dass die QNAP herunterfahren soll Fährt Luckybackup hinunter Frage ist nun: Ist Ransomware so "Intelligent", dass sie diesen Prozess ausnutzen kann um die QNAP zu starten und auch dort die Daten zu verschlüsseln?
  14. Das hat nichts mit dem Pool zu tun, sondern wie du die Cache-Benutzung bei den einzelnen Shares einstellst. In deinem Fall die betreffenden Shares auf Prefer stellen damit Docker und MP3 auch bei anwerfen des Movers auf der NVME verbleiben. Die NVME solltest du aber so oder so in einen eigenen Pool geben und nicht mit der SATA-SSD mischen, da bei mehreren Geräten in einem Pool ein RAID-Verbund gebildet wird
  15. Dürfte ein Bug sein bzw. "unverträglichkeit" dieses Modells mit dem Kernel:
  16. Du musst für die einzelnen Shares angeben ob der cache genutzt werden soll, du hast hier mehrere Optionen: Yes, Prefer, Only (Only würde ich meiden). Weitere Informationen dazu findest du hier: Genau. Für Docker den Share "appdata" und "system" auf Prefer stellen damit die Daten und das Docker-Image beim anwerfen des Movers auf dem Cache verbleiben.
  17. Vielleicht hast du es schon selbst gesehen, aber der Vollständigkeit halber:
  18. Du kannst in Nextcloud über die App Externe Speicher die Shares einbinden, dazu musst du nur die entsprechenden Volume Mappings im Docker-Template vornehmen. Zugriffsrechte auf die Shares kannst du dann in Nextcloud selbst einstellen. Bezüglich File Browser gehst du analog zu Nextcloud vor: Einfach ein Volume Mapping für den gewünschten Share im Template eintragen und schon sollte File Browser auf den entsprechenden Share zugreifen können. Wenn du die Shares in Nextcloud über Externe Speicher einbindest dann kannst du auch über Webdav auf sie zugreifen. Solltest du trotzdem einen anderen Container dafür benutzen wollen, dann gilt das selbe Prinzip wie schon bei Nextcloud und File Browser (Volume Mapping)
  19. Enks

    Docker bind

    Hast du den Container schon vor der Fehlermeldung (welche?) im Betrieb gehabt? Ich habe jetzt vorher auch schnell besagten Container installiert und einen remote-Share übergeben. Funktioniert ohne Probleme, selbst wenn der Mount-Point des Shares nicht exisitert, in der duplicati-UI kann dann der gemappte Share einfach nicht geöffnet werden
  20. Enks

    Docker bind

    Wenn du mehrere Unraid Shares für duplicati verfügbar machen willst kannst du das direkt über das Template erledigen: Dadurch sind alle deine Shares in duplicati verfügbar. Wenn du nur einzelne Shares übergeben willst kannst du über "Add another Path, Port, Variable, Label or Device" für die gewünschten Shares ein eigenes mapping erstellen z.B: Unraid-Share daten1: /mnt/user/daten1 -> /source1 (in duplicati) Unraid-Share daten2: /mnt/user/daten2 -> /source2 (in duplicati)
  21. Same here, but I'll try the described start/stop mechanism to see if I can get close to the consumption of 6.9.2 In 6.9.2 power consumption of my server is around 0,62 kW per day I tested 6.11 for nearly a month. Power consumption was around 0,72 kW per day, that is 16% more than with 6.9.
  22. Enks

    Backup Konzept

    Hoch- und Runterfahren über Energiezeitplan? Wie holst du dir die daten bzw. mit was, HBS3?
  23. Alle Container ausschalten und immer nur einen aktivieren und schauen ob der Spindown möglich ist. Appdata und Docker Image liegen auf dem Cache?