mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. To reduce wear on your SSD this script moves your docker status and log files into your RAM. This script syncs every 30 minutes the RAM content to your SSD to reduce loss of log files. Paste the following script in your /boot/config/go File on your usb flash drive or create a script with the user scripts plugin which gets only executed on first array start (check the unraid version info in the script, maybe it was updated some pages later): Use the execute in the background button, to install the script the very first time. Now go to settings > docker and set docker to "no" and then to "yes" again. How it works Docker service is started - It creates the path /mnt/<path_to_your_docker_data>/containers_backup - It copies all files from /var/lib/docker/containers to /containers_backup - It creates a RAM disk /var/lib/docker/containers (on top of the already existing path, so the already existing path is not deleted) - It copies all files from /containers_backup back to the now empty RAM disk /var/lib/docker/containers Docker service is stopped - Reverses steps from before Every 30 minutes - It creates the path /var/lib/docker_bind - It mounts the path /var/lib/docker to /var/lib/docker_bind (this trick allows us to access the local path /var/lib/docker/containers) - It copies all files from the RAM Disk /var/lib/docker/containers to /var/lib/docker_bind/containers (which is the local /var/lib/docker/containers path) Reduce RAM Usage If you fear to much RAM usage, you can change your docker settings as follows: By that each container can only create a single log file which is limited to 50 MB. How much RAM is used Usually less then 512 MB: # df -h /var/lib/docker/containers Filesystem Size Used Avail Use% Mounted on tmpfs 32G 369M 31G 2% /var/lib/docker/containers Does it really help? For me it made a huge change (most of the time absolutely no writes on my SSD). But read the reactions of other users: https://forums.unraid.net/bug-reports/stable-releases/683-unnecessary-overwriting-of-json-files-in-dockerimg-every-5-seconds-r1079/?do=findComment&comment=15472
  2. Das könnte auch ein defektes Kabel sein. Nutzt du irgendwelche Stromsparmechanismen?
  3. Ich gehe eher vom Gegenteil aus. Mehrere Instanzen heißt besseres Multi-Threading und die Datenbank kann auch in jeder Installation separat entscheiden was in den Cache gehört und was nicht. Also optimal auf die jeweilige Applikation ausgelegt. Die anderen Argumente hatte ich in dem Link bereits genannt: - man kann direkt sehen was eine Applikation in der Datenbank belegt und wie diese ausgelastet ist - man kann ein simples dateibasiertes Backup vom kompletten Container machen und muss gar nicht erst mit sqldump arbeiten - eine Applikation spielt nicht mit dem neuesten Update der Datenbank zusammen? Dann machen wir eben bei dieser einen Datenbank kein Update. Die anderen Datenbanken können dagegen unabhängig aktualisiert werden - wenn ich zb die Datenbank von Nextcloud aktualisiere, dann stoppe ich Nextcloud, dann stoppe den entsprechenden DB Container und aktualisiere die DB, starte die DB, check die Logs.. alles gut. Starte Update von Nextcloud und starte Nextcloud. Check dann auch noch mal die Logs. Wenn irgendwas dabei in die Hose geht, kann ich mit wenigen Schritten auf den Zustand von davor, ohne dass ich andere Applikationen stoppen muss oder gar Daten von denen verliere, weil ich einen riesen Datenbank-Container restoren muss. - Adminer habe ich noch nie gebraucht, denn ich führe eben keine SQL Statements aus oder exportiere / importiere irgendwelche Dumps. Ich hatte übrigens auch noch keinen einzigen Kunden, der Adminer ordentlich abgesichert hat und alle speicherten fleißig ihre DB-Rootpasswörter in der Adminer-GUI Es ist für den User komplizierter und es widerspricht dem Template des Containers, dass nur eine Datenbank erstellen kann. Alles darüber hinaus kann man ja gerne empfehlen, doch dann bitte auch mit entsprechender Anleitung. @ullibelgie hat dich zB in dem anderen Thread mehrfach gefragt wie das geht. Aus deiner Sicht ist das easy-peasy. Für andere offensichtlich nicht.
  4. Hab ich mir auch geholt und tatsächlich schlechte Messwerte gehabt. Dazu veröffentliche ich aber dann noch meine Ergebnisse. Ich habe sowohl das fanless als auch das normale geholt. Beide das selbe.
  5. Ich kann dazu nur sagen, dass der Rebind Schutz auch bei IPv6 greift, aber die hast du ja schon in deiner Liste stehen. Das hatte ich auch irgendwann rausgefunden: https://forums.unraid.net/topic/105909-mein-10-zoll-server/?do=findComment&comment=1177837
  6. Ok. Ja, das mit den Rechten ist korrekt. Der Ordner gehört nur dem User und der Gruppe 33. Nichts außer diesen beiden und root dürfen auf ihn zugreifen. Ist das ein Problem? Nein. Backup-Apps müssen immer als root laufen. Wie sollten sie sonst wirklich alles sichern. Natürlich setzt das voraus, dass man den Zugriff auf die App absichert. Sollte Duplicati also eine GUI haben oder welche andere Zigriffsart auch immer, sie muss gut abgesichert sein.
  7. Ich verstehe den Zusammenhang nicht. Nextcloud und Duplicati. Das sind doch zwei verschiedene Container oder nicht? In Duplicati gibt es den Pfad doch gar nicht?!
  8. Yes, if you use prefer, then a share should be completely on the cache, while your appdata is spread across cache and disk1. You should set docker in the settings to no and start the mover. This should solve your issue.
  9. Jedesmal wenn der Server abschmiert müssen alle Platten repariert werden. Defekte Dateisysteme können auch zu Crashes führen. Ich empfehle auch die Installation dieses Scripts: https://forums.unraid.net/topic/121039-syslog-notify-create-notifications-if-specific-words-occur-in-the-logs/
  10. Hier meine Antwort dazu: https://forums.unraid.net/topic/83786-support-ich777-application-dockers/page/110/#comment-1236787 Ich halte also nicht viel von mehreren Datenbanken in einem Container. Mir erschließt sich auch nicht der Mehrwert.
  11. mgutt

    Docker Fragen

    Steht bei dir Docker auf IPVLAN oder MACVLAN? Die Range kann in den Docker Einstellungen hinterlegt werden. Nein CLI CLI und sehen tut man das in der GUI nicht Brauchst du nicht. Einmal erstellen und die Docker Einstellung für Custom Networks aktivieren. Dann bleiben sie auch nach einem Neustart erhalten. Allerdings auch nur solange das docker.img nicht neu aufgebaut wird. Ich würde es vermutlich verscripten, also prüfen ob da, wenn nein erstellen usw. Ich denke dein gesamtes Vorhaben ist zum Scheitern verurteilt, solange du nicht mit unterschiedlichen IP Ranges und VLANs arbeitest und dann explizite Routen in der Firewall erlaubst. Und dann alles auf einer Kiste... Ich denke damit hat man nur Stress. Bedenke, dass VM und Docker nur laufen, wenn das Array läuft. Da hast du immer wieder die Situation, dass nichts mehr läuft.
  12. Den Controller kannst du für unRAID dann denke ich vergessen. Weil unRAID ja regelmäßig prüft ob die Platte läuft, würde sie ständig geweckt werden.
  13. NPM läuft im Host Netzwerk? Nur dann hat er auch die IPv6 vom Server. Bei manchen NPM Containern muss IPv6 in der Container Config aktiviert werden. Beim offiziellen ist es standardmäßig aktiv.
  14. Input/output error is because of a defective disk or corrupt file. It's strange that your backup is killing files. Are you sure your disk is fine? Check it! If everything is ok, then restore your last running backup.
  15. I do not recommend this for the official MariaDB container, because the user - needs to know how to connect to a database - needs to know which SQL statements are needed - needs to know how to execute these statements - needs to create backups with sqldump and not only the appdata backup plugin (how to restore the yesterday's backup of Nextcloud?) - is not able to create multiple databases with the template as it allows only to create a single database: - is not able to update single applications without influencing other applications (we already had an incompatibility between Nextcloud and specific MariaDB version in the past). - is not able to find out which application's database causes how many CPU, Storage and RAM usage. And the Totschlagargument: Having multiple databases in a single container is against the principles of a microservice architecture 🫡
  16. Das hatte ich auch mal, noch lange vor dem Patch. In dem Fall habe ich Advanced View aktiviert und Force Update gemacht. Danach passte die Anzeige.
  17. Ja das ist korrekt. Ich vermute aber bei @marcus010676 geht genau das nicht. Tja... Keine Ahnung was er als Auslöser nutzt, um den Startzeitpunkt für den Spindown Timer zu setzen?! Keine Ahnung ob der Bug noch existiert: Du hast aber keine Lücke im Array oder? Also zb Disk3 wurde nicht zugewiesen, dafür aber Disk4 usw. Das hatte ich mal und dabei herausgefunden, dass deswegen der Spindown nicht mehr ging.
  18. Bestimmt gegen die Nutzungsbedingungen, aber man könnte evtl versuchen pro Array Festplatte eine Windows VM zu erstellen, die dann mit Backblaze gesichert wird. Das wäre dann aber auch 5,4 Dollar pro Monat und pro Festplatte, wenn man jeweils 2 Jahre im Voraus zahlt: https://help.backblaze.com/hc/en-us/articles/217665008-How-much-does-Backblaze-Cost- Hat allerdings auch den Nachteil, dass die VM ewig läuft und CPU Last bedeutet am Ende ja auch Stromverbrauch und wieder Kosten. Wäre auch die Frage, ob Backblaze die VM evtl erkennt und den Account dann sperrt?! EDIT1: Nein, ist laut FAQ sogar erlaubt: https://help.backblaze.com/hc/en-us/articles/217665598-How-Can-I-Back-Up-Virtual-Machines-Such-as-Parallels-or-VMware-Fusion- Noch eine Variante: Eine Festplatte in den PC bauen, die so groß ist wie eine Array Platte. Darauf dann Disk1 kopieren. Nun Backblaze installieren und mit Account1 sichern. Danach das Spiel mit Disk2 wiederholen und diesmal mit Account2 sichern. Da wäre dann die Frage ob sich Backblaze irgendwie die Hardware merkt?! Naja und ständig den PC laufen lassen, ist auch nicht wirklich sexy. Ich glaube ja nicht an Unlimited. Crashplan wird doch niemals meine 126 TB für nur 120 Dollar pro Jahr bereithalten. Und würde ich dagegen meine Idee von oben bei Backblaze umsetzen, hätte ich 7 Accounts, also 460 Dollar pro Jahr. Selbst wenn ich mutig wäre und zwei Platten pro Account nehmen würde (also 36 TB), wären das auch noch 230 Dollar pro Jahr. Der Server bei meiner Mutter kostete dagegen "nur" initial 2500 € und wenn es hoch kommt 50 € pro Jahr an Strom. Gut, irgendwann sterben die Platten und ich muss neue kaufen. Ich denke alle durchwechseln wird in 10 Jahren passieren... Also der Sweet Spot für einen Cloud-Speicher liegt demnach bei 2 € pro TB pro Jahr. Wo gibt es das? ^^ EDIT2: Ok, das ist interessant. Ein Mitarbeiter hat mal gesagt, dass es einen Kunden mit 430TB gibt: https://www.reddit.com/r/IAmA/comments/b6lbew/comment/ejlbsqo/ Die verlinkten Grafik zeigt außerdem, dass es mehrere Kunden mit 25 TB gibt. Also rein theoretisch könnte das mit den einer / mehreren Platten in einer VM sogar gehen 🤷 EDIT3: Tatsächlich hatte schon jemand die Idee und ist daran gescheitert, das man eine Array Disk nicht innerhalb einer VM nutzen kann: https://forums.unraid.net/topic/57777-pass-through-share-as-disk-in-windows-vm/ EDIT4: Demnach ist die einzige Lösung: Externe USB Platte anschließen, Disk1 darauf syncen, in die VM einbinden und die dann sichern. Danach das Spiel mit Disk2 wiederholen. Das ist erlaubt, weil Backblaze das Wechseln von USB Platten erlaubt: https://help.backblaze.com/hc/en-us/articles/217666718-What-happens-if-I-rename-or-replace-an-external-drive- EDIT5: Da hatte ich einen kleinen Punkt übersehen. Die VM muss mindestens 1x alle 30 Tage laufen und ALLE Dateien müssen von Backblaze gefunden werden: https://help.backblaze.com/hc/en-us/articles/217664898-What-happens-to-my-backups-when-I-m-away-or-on-vacation- Ansonsten schmeißt sie Backblaze aus der Cloud wieder raus. Aber man kann was extra zahlen, um den Zeitraum auf 1 Jahr oder unendlich zu verlängern: https://help.backblaze.com/hc/en-us/articles/360035247494-Version-History-FAQ Gilt dann aber eben auch nur pro Computer. Da tendiert man dann eher nur eine VM / einen Backblaze Account zu haben. Aber das ganze Array lokal auf USB Platten zu klonen... da kann man auch schon wieder einen Server bei Mutti hinstellen... 😅
  19. Smartphones mit vorinstallierter Nextcloud App auf jedem Tisch verteilen (oder welcher Cloud auch immer). Natürlich mit Hinweis wofür die gedacht sind. Vorzugsweise so, dass sie irgendwo automatisch auf einem TV ausgegeben werden und mit dem Hinweis wo man sich die Fotos später herunterladen kann. Die Smartphones vielleicht sogar im Kiosk Modus, wo man nur die Kamera nutzen kann. Dass die Leute irgendwas von ihrem eigenen Smartphone hochladen, ist denke ich zu komplex. Auch hat man mit verteilten Geräten die Qualität auf einem Niveau.
  20. Viele Container dienen nur als Basis für andere Container. Also du kannst schon Debian starten und die Konsole nutzen: docker run -ti --rm debian:latest bash Aber dadurch hast du noch keinen VNC Server aktiv oder SSH oder .... Was auch immer man damit machen will. ich777 hat den Container zb so aufgebaut: https://github.com/ich777/docker-debian-bullseye/blob/master/Dockerfile Dort siehst du oben das: ich777/novnc-baseimage Das ist wiederrum der Docker: https://github.com/ich777/docker-novnc-baseimage/blob/master/Dockerfile Wo du das siehst: FROM ich777/debian-baseimage Und der: https://github.com/ich777/docker-debian-baseimage/blob/master/Dockerfile Basiert auf dem offziellen Debian Container: FROM debian:bullseye-slim Seine Struktur ist also: Möglichst nackter Container, dann den noch mal plus Apps und dann den noch mal plus Anpassungen für unRAID. So bleibt er flexibel in der Gestaltung und muss nicht immer einen komplett neuen Container bauen.
  21. Dann unterstützt der USB SATA Controller evtl nicht die Rückgabe des Status ohne aufzuwachen. Bitte mal in den Spindown versetzen: smartctl -s standby,now /dev/sdX Und dann den Status abfragen: smartctl -n standby -i /dev/sdX Die Disk muss stehen bleiben und es darf keine Disk Info zurückkommen.
  22. Es gibt dafür andere Apps. Lies mal hier durch: https://forums.unraid.net/topic/121551-erlaubt-der-neue-linux-kernel-stromsparende-amd-server/
  23. Lucky Backup macht seinen Job automatisch. Reicht doch eigentlich als Argument.
  24. Powertop erkennt die Hardware nicht richtig. Bei AMD häufig der Fall.