Enks

Members
  • Posts

    105
  • Joined

  • Last visited

Posts posted by Enks

  1. 1 hour ago, mgutt said:

    Ist der i5 K nun ein echter Raptor Lake geworden oder doch nur ein Alder Lake Refresh wie die ganzen i3 und kleineren i5?

    Lt. Computerbase sollte der i5-13600K die Raptor-Lake Architektur nutzen:

     

    "Nur Core i9, Core i7 und der Core i5-13600K nutzen die neue Raptor-Lake-Architektur mit Raptor-Cove-P-Cores mit mehr Cache, die anderen Core i5 und Core i3 basieren auf Alder Lake aus dem Vorjahr."

     

    Quelle: https://www.computerbase.de/2023-01/intel-core-i9-13900ks-6-ghz-gaming-cpu/ , 2. Absatz über der Tabelle im Artikel

     

    Ich würde die P3 Plus meiden. Die ist eine lahme Gurke, z.B: oberhalb von 25% Füllstand bricht die Schreibleistung massiv auf ca. 70 Mb/s ein und die Speicherzellen werden anscheinend auch nicht mehr für den SLC-Modus bereinigt:

    https://www.computerbase.de/2022-09/crucial-p3-plus-ssd-test/

  2. 21 hours ago, ich777 said:

    BTW that's a specific thing from prefill itself and you can try it at least, I've already reached out to the developer about that.

    i tried it with the game Aragami, which has a Windows and a Linux native version. After the completion of the prefill i booted Ubuntu and started downloading it. Download speed was about 5 MByte/s (speed of my internet connection) so prefill didn't work. After completing the download over the steam client I switched back to Windows and started the download of the game there. Speed was about 40 MByte/s (Lancache is on my array). Conclusion: Prefill only cached the Windows version of Aragami. Now after downloading it over the linux steam client both versions are cached (size of the cache-share increased with the download of the linux version).

     

    @tpill90 Is it possible to use prefill to cache more versions of the same game, for example Windows and Linux? If yes, how?

  3. I want to prefill my cache with two versions of the same game from Steam (Windows and Linux). Does the --os parameter accept more than one operating system? If yes, what is the correct way to set it: --os windows,linux or --os linux --os windows or even another way?

     

    You have a tiny error in one of the descriptions in your template:

    The SteamPrefill Schedule is by default set to: 0 2 * * *, which means 02:00. The description says:

     

    "Set your cron schedule for SteamPrefill if enabled (by default it is set to 05:00 - head over to https://crontab.guru/ to create your own if you want to customize it)"

     

     

  4. 1 hour ago, mgutt said:

    Der Thread wird dann gelöscht. Kurz: ist kein Fehler.

    Ich glaube du hast seinen ersten Satz überlesen:

     

    19 hours ago, Zer0_Tw0 said:

    Guten Abend ich habe versucht Plex über APPs zu instalieren. Aber ich bekomme es einfach nicht gestartet.

     

    @Zer0_Tw0: Das Plex nicht startet liegt sicher nicht an libusb_init Failed, ist wie bereits gesagt kein Fehler. Kommst du garnicht auf die GUI oder was verstehst du darunter, dass du es nicht gestartet bekommst? Der Container läuft sonst könntest du nicht den Log posten

  5. 45 minutes ago, julianmueller said:

    Ich habe über Nextcloud schon ein bisschen was gehört. Läuft die auch in einem Docker auf unraid? Wie schwierig ist es, eine NextCloud für den privaten Einsatz für einen Nutzer aufzusetzen?

    Ja Nextcloud gibt es als Docker-Container. Für den Betrieb brauchst du noch MariaDB (MySQL--Datenbank), ebenfalls als Docker-Container vorhanden. Die Installation von Nextcloud + MariaDB ist nicht besonders schwer und man findet zahlreiche Tutorials im www, sowohl als Videos als auch als Text.

     

    51 minutes ago, julianmueller said:

    Welche Anbieter für öffentliche IPv4s kannst du empfehlen? Mit welchen Kosten kann man da im Jahr rechnen? Ich meine mal etwas gehört zu haben, dass jede Fritzbox das auch von Haus aus mitbringt?

    Die öffentliche IPv4 bekommst du von deinem Internetprovider. Es gibt jedoch mittlerweile viele Provider die für Privatkunden, aufgrund der Knappheit an IPv4-Adressen, keine Öffentliche IPv4-Adresse vergeben, sondern Verfahren wie Carrier-grade NAT oder Dual-Stack Lite verwenden. Bei diesen Verfahren erhält man keine öffentliche IPv4-Adresse, bei manchen Internetanbietern gibt es ggf. die Möglichkeit gegen ein zusätzliches Monatsentgelt dennoch eine öffentliche Adresse zu erhalten. Solltest du in Österreich heimisch sein, dann hast du lt. RTR (Rundfunk und Telekom Regulierungs-GmbH) das Recht auf eine kostenfreie öffentliche IPv4-Adresse, siehe dazu:

    https://www.rtr.at/TKP/was_wir_tun/telekommunikation/konsumentenservice/faq/FAQ_oeffentliche_IP-adresse.de.html

     

    1 hour ago, julianmueller said:

    Könnte man für sowas nicht auch einen anderen Cloud anbieter nutzen, wo man "einfach eine komprimierte und verschlüsselte ZIP als Backup hochlädt"?

    Ja ist möglich und wird von vielen auch so genutzt, entsprechender Upload-Speed sollte halt vorhanden sein sonst dauert es, je nach Größe des Backups, entsprechend lange.

     

    1 hour ago, julianmueller said:

    Ich denke ich hole mir vlt erstmal einen Stick und die Basic Version von unraid und spiele über die Weihnachtstage ein bisschen damit rum, um zu schauen ob es was für mich ist.

    Du kannst Unraid für 30 Tage kostenfrei testen (free trial) und danach nochmal um 2x 15 Tage verlängern, also in Summe 60 Tage ohne gekaufte Lizenz betreiben.

  6. 3 hours ago, warp760 said:

    Darum immer Backup´s nur LESEND

    Mir ist schon klar, dass dies die sicherste Methode ist. Der SSH-Key für die QNAP ist nur im luckybackup-Docker intern sichtbar und liegt nicht in appdata, sondern im Docker-Image (ja ich weiß, dass er bei jeder Änderung des Container-Templates und Updates verloren geht ist aber für mich irrelevant, da sich der Container nicht ändert bzw. geupdatet wird) sprich Unraid selbst hat quasi keine Zugangsdaten zur QNAP sondern nur über den Unweg des luckybackup-Containers, der per Skript hoch und runtergefahren wird. Daher war auch meine Frage ob heutige Ramsomware so "intelligent" sind, dass sie diesen Mechanismus ausnutzen könnten (z.B. anstoßen, des betreffenden User-Script).

  7. 44 minutes ago, mgutt said:

    ein lesend abholen ist die einzige Methode, um vor Ransomware geschützt zu sein.

     

    Ich benutze luckybackup zum sichern der Daten vom Unraid-Server auf mein QNAP. SSH-Key ist in luckybackup hinterlegt. Der Backup-Prozess selbst wird durch ein User-Script angestossen und gesteuert, sprich:

     

    Weckt über WOL QNAP auf

    Startet den luckybackup Container

    Gibt den Befehl, dass luckybackup die Backup-Jobs abarbeiten soll

    Gibt den Befehl über luckybackup, dass die QNAP herunterfahren soll

    Fährt Luckybackup hinunter

     

    Frage ist nun: Ist Ransomware so "Intelligent", dass sie diesen Prozess ausnutzen kann um die QNAP zu starten und auch dort die Daten zu verschlüsseln?

  8. Das hat nichts mit dem Pool zu tun, sondern wie du die Cache-Benutzung bei den einzelnen Shares einstellst. In deinem Fall die betreffenden Shares auf Prefer stellen damit Docker und MP3 auch bei anwerfen des Movers auf der NVME verbleiben.

     

    Die NVME solltest du aber so oder so in einen eigenen Pool geben und nicht mit der SATA-SSD mischen, da bei mehreren Geräten in einem Pool ein RAID-Verbund gebildet wird

  9. 1 hour ago, DerAndi said:

    Dann habe ich über den Pool hinzufügen 1x 500GB SSD als Cache hinzugefügt. Ist die nun Automatisch der Cache für das Array oder muss man das noch gesondert einstellen?

    Du musst für die einzelnen Shares angeben ob der cache genutzt werden soll, du hast hier mehrere Optionen: Yes, Prefer, Only (Only würde ich meiden). Weitere Informationen dazu findest du hier:

     

     

     

    1 hour ago, DerAndi said:

    Zu guter letzt habe ich noch eine NVME, hier drauf möchte ich ein Docker und ein paar Bilder,MP3 ablegen. Diese nvme kommt damit in ein extra Pool den man anlegen muss richtig? und nicht mit ins array hoffe ich.

    Genau. Für Docker den Share "appdata" und "system" auf Prefer stellen damit die Daten und das Docker-Image beim anwerfen des Movers auf dem Cache verbleiben.

    • Thanks 1
  10. Du kannst in Nextcloud über die App Externe Speicher die Shares einbinden, dazu musst du nur die entsprechenden Volume Mappings im Docker-Template vornehmen. Zugriffsrechte auf die Shares kannst du dann in Nextcloud selbst einstellen.

    Bezüglich File Browser gehst du analog zu Nextcloud vor:

    Einfach ein Volume Mapping für den gewünschten Share im Template eintragen und schon sollte File Browser auf den entsprechenden Share zugreifen können.

     

    Wenn du die Shares in Nextcloud über Externe Speicher einbindest dann kannst du auch über Webdav auf sie zugreifen. Solltest du trotzdem einen anderen Container dafür benutzen wollen, dann gilt das selbe Prinzip wie schon bei Nextcloud und File Browser (Volume Mapping)

     

     

    • Like 1
  11. 2 hours ago, Lucascoco said:

    Aber wenn ich es, wie in Bild 2 eingebe kommt immer ein Fehler und der Container ist ganz weg......

    Hast du den Container schon vor der Fehlermeldung (welche?) im Betrieb gehabt?

    Ich habe jetzt vorher auch schnell besagten Container installiert und einen remote-Share übergeben. Funktioniert ohne Probleme, selbst wenn der Mount-Point des Shares nicht exisitert, in der duplicati-UI kann dann der gemappte Share einfach nicht geöffnet werden

  12. Wenn du mehrere Unraid Shares für duplicati verfügbar machen willst kannst du das direkt über das Template erledigen:

    grafik.thumb.png.410e5aed3285737828e60767fb97e80c.png

    Dadurch sind alle deine Shares in duplicati verfügbar. Wenn du nur einzelne Shares übergeben willst kannst du über "Add another Path, Port, Variable, Label or Device" für die gewünschten Shares ein eigenes mapping erstellen

    z.B: Unraid-Share daten1: /mnt/user/daten1 -> /source1 (in duplicati)

    Unraid-Share daten2: /mnt/user/daten2 -> /source2 (in duplicati)

     

     

  13. 2 hours ago, warp760 said:

    Qnap fährt hoch > holt sich alle neuen Daten > komprimiert und verschlüsselt das Ganze > schickt den verschlüsselten Klumpen zu Hetzner nach Finnland > fährt wieder runter.

    Hoch- und Runterfahren über Energiezeitplan?

    Wie holst du dir die daten bzw. mit was, HBS3?

  14. 39 minutes ago, zw3ist3in said:

    jetzt ist die Frage ob es an dem Docker service selbst liegt oder ob es an einem/mehreren Containern liegt

    Alle Container ausschalten und immer nur einen aktivieren und schauen ob der Spindown möglich ist.

    Appdata und Docker Image liegen auf dem Cache?

  15. Naja best practice wäre die 3-2-1-Sicherungsstrategie, sprich 3 Dateienkopien (1 Original, 2 Backups) auf 2 verschiedenen Speichertypen mit einer Offsite-Kopie. Letztendlich muss jeder selbst entscheiden wie er mit seinen Daten und den entsprechenden Backups umgeht.

    Ich hatte vor dem Umstieg auf Unraid auch ein Qnap. DIeses verwende ich nun als Backup-Ziel im Docker luckybackup. Mittels User Script läuft das ganze bei mir automatisiert ab und das Qnap wird nur für den Zeitraum des Backups automatisch eingeschaltet (Wake On Lan).

    In deinem Fall würden sich die Qnaps auch als Backup-Ziel anbieten

    • Like 1