Enks
-
Posts
105 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by Enks
-
-
Den gewünschten Befehl mit einem Texteditor deiner Wahl in die go-file schreiben, diese findest du auf dem Unraid Stick im config-Ordner.
-
37 minutes ago, Pixel5 said:
can confirm the last update broke everything.
Had the same issue. After downgrading to the version before the update everything works again
-
Bei Tintenstrahldruckern: Verschleiß der Druckköpfe und Tintenverbrauch aufgrund der Selbstreinigung nach dem Einschalten
- 1
-
-
Dir werden die C-States nicht richtig angezeigt. Nimm eine neuere powertop-Version damit sollten die "richtigen" C-States angezeigt werden.
-
Ich habe dasselbe Board und habe nach Anschluss meines ZigBee Sticks (Sonoff) und Inbetriebnahme von Home Assistant keinen messbaren Mehrverbrauch feststellen können. Vor- und Nachher erreiche ich C9.
Hast du mehrere Buchsen ausprobiert?
-
1 hour ago, mgutt said:
Ist der i5 K nun ein echter Raptor Lake geworden oder doch nur ein Alder Lake Refresh wie die ganzen i3 und kleineren i5?
Lt. Computerbase sollte der i5-13600K die Raptor-Lake Architektur nutzen:
"Nur Core i9, Core i7 und der Core i5-13600K nutzen die neue Raptor-Lake-Architektur mit Raptor-Cove-P-Cores mit mehr Cache, die anderen Core i5 und Core i3 basieren auf Alder Lake aus dem Vorjahr."
Quelle: https://www.computerbase.de/2023-01/intel-core-i9-13900ks-6-ghz-gaming-cpu/ , 2. Absatz über der Tabelle im Artikel
Ich würde die P3 Plus meiden. Die ist eine lahme Gurke, z.B: oberhalb von 25% Füllstand bricht die Schreibleistung massiv auf ca. 70 Mb/s ein und die Speicherzellen werden anscheinend auch nicht mehr für den SLC-Modus bereinigt:
https://www.computerbase.de/2022-09/crucial-p3-plus-ssd-test/
-
On 12/24/2022 at 7:26 PM, ich777 said:
Try to separate it by a space instead of a comma.
On 12/24/2022 at 11:41 PM, tpill90 said:Use `--os windows linux`
Thanks, it works perfectly now
- 1
-
21 hours ago, ich777 said:
BTW that's a specific thing from prefill itself and you can try it at least, I've already reached out to the developer about that.
i tried it with the game Aragami, which has a Windows and a Linux native version. After the completion of the prefill i booted Ubuntu and started downloading it. Download speed was about 5 MByte/s (speed of my internet connection) so prefill didn't work. After completing the download over the steam client I switched back to Windows and started the download of the game there. Speed was about 40 MByte/s (Lancache is on my array). Conclusion: Prefill only cached the Windows version of Aragami. Now after downloading it over the linux steam client both versions are cached (size of the cache-share increased with the download of the linux version).
@tpill90 Is it possible to use prefill to cache more versions of the same game, for example Windows and Linux? If yes, how?
-
I want to prefill my cache with two versions of the same game from Steam (Windows and Linux). Does the --os parameter accept more than one operating system? If yes, what is the correct way to set it: --os windows,linux or --os linux --os windows or even another way?
You have a tiny error in one of the descriptions in your template:
The SteamPrefill Schedule is by default set to: 0 2 * * *, which means 02:00. The description says:
"Set your cron schedule for SteamPrefill if enabled (by default it is set to 05:00 - head over to https://crontab.guru/ to create your own if you want to customize it)"
-
1 hour ago, mgutt said:
Der Thread wird dann gelöscht. Kurz: ist kein Fehler.
Ich glaube du hast seinen ersten Satz überlesen:
19 hours ago, Zer0_Tw0 said:Guten Abend ich habe versucht Plex über APPs zu instalieren. Aber ich bekomme es einfach nicht gestartet.
@Zer0_Tw0: Das Plex nicht startet liegt sicher nicht an libusb_init Failed, ist wie bereits gesagt kein Fehler. Kommst du garnicht auf die GUI oder was verstehst du darunter, dass du es nicht gestartet bekommst? Der Container läuft sonst könntest du nicht den Log posten
-
45 minutes ago, julianmueller said:
Ich habe über Nextcloud schon ein bisschen was gehört. Läuft die auch in einem Docker auf unraid? Wie schwierig ist es, eine NextCloud für den privaten Einsatz für einen Nutzer aufzusetzen?
Ja Nextcloud gibt es als Docker-Container. Für den Betrieb brauchst du noch MariaDB (MySQL--Datenbank), ebenfalls als Docker-Container vorhanden. Die Installation von Nextcloud + MariaDB ist nicht besonders schwer und man findet zahlreiche Tutorials im www, sowohl als Videos als auch als Text.
51 minutes ago, julianmueller said:Welche Anbieter für öffentliche IPv4s kannst du empfehlen? Mit welchen Kosten kann man da im Jahr rechnen? Ich meine mal etwas gehört zu haben, dass jede Fritzbox das auch von Haus aus mitbringt?
Die öffentliche IPv4 bekommst du von deinem Internetprovider. Es gibt jedoch mittlerweile viele Provider die für Privatkunden, aufgrund der Knappheit an IPv4-Adressen, keine Öffentliche IPv4-Adresse vergeben, sondern Verfahren wie Carrier-grade NAT oder Dual-Stack Lite verwenden. Bei diesen Verfahren erhält man keine öffentliche IPv4-Adresse, bei manchen Internetanbietern gibt es ggf. die Möglichkeit gegen ein zusätzliches Monatsentgelt dennoch eine öffentliche Adresse zu erhalten. Solltest du in Österreich heimisch sein, dann hast du lt. RTR (Rundfunk und Telekom Regulierungs-GmbH) das Recht auf eine kostenfreie öffentliche IPv4-Adresse, siehe dazu:
1 hour ago, julianmueller said:Könnte man für sowas nicht auch einen anderen Cloud anbieter nutzen, wo man "einfach eine komprimierte und verschlüsselte ZIP als Backup hochlädt"?
Ja ist möglich und wird von vielen auch so genutzt, entsprechender Upload-Speed sollte halt vorhanden sein sonst dauert es, je nach Größe des Backups, entsprechend lange.
1 hour ago, julianmueller said:Ich denke ich hole mir vlt erstmal einen Stick und die Basic Version von unraid und spiele über die Weihnachtstage ein bisschen damit rum, um zu schauen ob es was für mich ist.
Du kannst Unraid für 30 Tage kostenfrei testen (free trial) und danach nochmal um 2x 15 Tage verlängern, also in Summe 60 Tage ohne gekaufte Lizenz betreiben.
-
3 hours ago, warp760 said:
Darum immer Backup´s nur LESEND
Mir ist schon klar, dass dies die sicherste Methode ist. Der SSH-Key für die QNAP ist nur im luckybackup-Docker intern sichtbar und liegt nicht in appdata, sondern im Docker-Image (ja ich weiß, dass er bei jeder Änderung des Container-Templates und Updates verloren geht ist aber für mich irrelevant, da sich der Container nicht ändert bzw. geupdatet wird) sprich Unraid selbst hat quasi keine Zugangsdaten zur QNAP sondern nur über den Unweg des luckybackup-Containers, der per Skript hoch und runtergefahren wird. Daher war auch meine Frage ob heutige Ramsomware so "intelligent" sind, dass sie diesen Mechanismus ausnutzen könnten (z.B. anstoßen, des betreffenden User-Script).
-
44 minutes ago, mgutt said:
ein lesend abholen ist die einzige Methode, um vor Ransomware geschützt zu sein.
Ich benutze luckybackup zum sichern der Daten vom Unraid-Server auf mein QNAP. SSH-Key ist in luckybackup hinterlegt. Der Backup-Prozess selbst wird durch ein User-Script angestossen und gesteuert, sprich:
Weckt über WOL QNAP auf
Startet den luckybackup Container
Gibt den Befehl, dass luckybackup die Backup-Jobs abarbeiten soll
Gibt den Befehl über luckybackup, dass die QNAP herunterfahren soll
Fährt Luckybackup hinunter
Frage ist nun: Ist Ransomware so "Intelligent", dass sie diesen Prozess ausnutzen kann um die QNAP zu starten und auch dort die Daten zu verschlüsseln?
-
Das hat nichts mit dem Pool zu tun, sondern wie du die Cache-Benutzung bei den einzelnen Shares einstellst. In deinem Fall die betreffenden Shares auf Prefer stellen damit Docker und MP3 auch bei anwerfen des Movers auf der NVME verbleiben.
Die NVME solltest du aber so oder so in einen eigenen Pool geben und nicht mit der SATA-SSD mischen, da bei mehreren Geräten in einem Pool ein RAID-Verbund gebildet wird
-
Dürfte ein Bug sein bzw. "unverträglichkeit" dieses Modells mit dem Kernel:
- 1
-
1 hour ago, DerAndi said:
Dann habe ich über den Pool hinzufügen 1x 500GB SSD als Cache hinzugefügt. Ist die nun Automatisch der Cache für das Array oder muss man das noch gesondert einstellen?
Du musst für die einzelnen Shares angeben ob der cache genutzt werden soll, du hast hier mehrere Optionen: Yes, Prefer, Only (Only würde ich meiden). Weitere Informationen dazu findest du hier:
1 hour ago, DerAndi said:Zu guter letzt habe ich noch eine NVME, hier drauf möchte ich ein Docker und ein paar Bilder,MP3 ablegen. Diese nvme kommt damit in ein extra Pool den man anlegen muss richtig? und nicht mit ins array hoffe ich.
Genau. Für Docker den Share "appdata" und "system" auf Prefer stellen damit die Daten und das Docker-Image beim anwerfen des Movers auf dem Cache verbleiben.
- 1
-
22 hours ago, waylin2 said:
Ps Ich brauche für das System noch eine Lizenz weiß jemand von euch, ob es auf Unraid Lizenzen beim Cyber Monday dieses Jahr wieder Rabatte geben wird.
Vielleicht hast du es schon selbst gesehen, aber der Vollständigkeit halber:
-
Du kannst in Nextcloud über die App Externe Speicher die Shares einbinden, dazu musst du nur die entsprechenden Volume Mappings im Docker-Template vornehmen. Zugriffsrechte auf die Shares kannst du dann in Nextcloud selbst einstellen.
Bezüglich File Browser gehst du analog zu Nextcloud vor:
Einfach ein Volume Mapping für den gewünschten Share im Template eintragen und schon sollte File Browser auf den entsprechenden Share zugreifen können.
Wenn du die Shares in Nextcloud über Externe Speicher einbindest dann kannst du auch über Webdav auf sie zugreifen. Solltest du trotzdem einen anderen Container dafür benutzen wollen, dann gilt das selbe Prinzip wie schon bei Nextcloud und File Browser (Volume Mapping)
- 1
-
2 hours ago, Lucascoco said:
Aber wenn ich es, wie in Bild 2 eingebe kommt immer ein Fehler und der Container ist ganz weg......
Hast du den Container schon vor der Fehlermeldung (welche?) im Betrieb gehabt?
Ich habe jetzt vorher auch schnell besagten Container installiert und einen remote-Share übergeben. Funktioniert ohne Probleme, selbst wenn der Mount-Point des Shares nicht exisitert, in der duplicati-UI kann dann der gemappte Share einfach nicht geöffnet werden
-
Wenn du mehrere Unraid Shares für duplicati verfügbar machen willst kannst du das direkt über das Template erledigen:
Dadurch sind alle deine Shares in duplicati verfügbar. Wenn du nur einzelne Shares übergeben willst kannst du über "Add another Path, Port, Variable, Label or Device" für die gewünschten Shares ein eigenes mapping erstellen
z.B: Unraid-Share daten1: /mnt/user/daten1 -> /source1 (in duplicati)
Unraid-Share daten2: /mnt/user/daten2 -> /source2 (in duplicati)
-
2 hours ago, warp760 said:
Qnap fährt hoch > holt sich alle neuen Daten > komprimiert und verschlüsselt das Ganze > schickt den verschlüsselten Klumpen zu Hetzner nach Finnland > fährt wieder runter.
Hoch- und Runterfahren über Energiezeitplan?
Wie holst du dir die daten bzw. mit was, HBS3?
-
39 minutes ago, zw3ist3in said:
jetzt ist die Frage ob es an dem Docker service selbst liegt oder ob es an einem/mehreren Containern liegt
Alle Container ausschalten und immer nur einen aktivieren und schauen ob der Spindown möglich ist.
Appdata und Docker Image liegen auf dem Cache?
-
Naja best practice wäre die 3-2-1-Sicherungsstrategie, sprich 3 Dateienkopien (1 Original, 2 Backups) auf 2 verschiedenen Speichertypen mit einer Offsite-Kopie. Letztendlich muss jeder selbst entscheiden wie er mit seinen Daten und den entsprechenden Backups umgeht.
Ich hatte vor dem Umstieg auf Unraid auch ein Qnap. DIeses verwende ich nun als Backup-Ziel im Docker luckybackup. Mittels User Script läuft das ganze bei mir automatisiert ab und das Qnap wird nur für den Zeitraum des Backups automatisch eingeschaltet (Wake On Lan).
In deinem Fall würden sich die Qnaps auch als Backup-Ziel anbieten
- 1
Grundkurs Docker Container anpassen...
in Deutsch
Posted · Edited by Enks
Lancache wird mit Hilfe von Umgebungsvariablen (environment variables)konfiguriert. Die Variablen kannst du im Template anlegen bzw. sollte ein Teil schon von Beginn an angelegt sein.
cz13 hat bereits erläutert wie du die Variable für den Speicherplatz setzt, eine Liste der möglichen Variablen findest du hier:
https://lancache.net/docs/containers/monolithic/variables/