Jump to content

mgutt

Moderators
  • Posts

    11,374
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Die DS kann man über Zeitpläne automatisch ein- und ausschalten. Das Skript solltest du dann auf der DS ausführen, damit diese mit einem rein lesenden User die Daten von Unraid abholt. Ansonsten macht dein Backup-Konzept wenig Sinn, weil ja auch jeder Angreifer die DS hochfahren könnte und die Backups wieder löschen könnte. Auch kann nur der lokale root User der DS die Dateirechte aus Unraid 1:1 übernehmen. Mountest du dagegen die DS zB über SMB, dann machst du das nur als irgendein Nicht-Root-User und alle Dateirechte gehen kaputt. Der Aufbau wäre als besser so: - rsync server Container in Unraid installieren und read-only den Zugriff auf /mnt/user gewähren, außerdem den SSH Key der DS hinterlegen - DS mit Einschaltzeitpunkten versehen - rsync Backup Skript als Aufgabe in der DS hinterlegen (am besten irgendwo als Datei ablegen und in der Aufgabenplanung dann nur den Pfad zum Skript hinterlegen) - am Ende des Skriptes noch einen shutdown-Befehl ergänzen, damit er nach dem Backup das NAS herunterfährt Willst du trotzdem vom automatischen Docker-Stop / Start profitieren, musst du zusätzlich: - auf Unraid ein Skript hinterlegen, was alle aktiven Container stoppt, dann einen Snapshot nach /mnt/cache/backup/appdata erstellt und die Container wieder startet (könnte ich dir noch zur Verfügung stellen) - die DS soll dann NICHT /mnt/user/appdata, sondern /mnt/user/backup/appdata sichern (muss dann natürlich zu einem späteren Zeitpunkt erfolgen) Das macht es zwar von der Einrichtung her etwas aufwendiger, aber es ist deutlich sicherer als mit vollen Lese- und Schreibrechten auf Quelle und Ziel zu agieren.
  2. Hat jemand eine Idee wie ich es schaffen könnte, dass der Zigbee Switch des Netzwerk-Drucker automatisch angeht, wenn die IP des Druckers angesprochen wird? Gibt es Switche, die sowas machen können: Wenn Traffic der Art X auf IP Y, dann ruf URL Z auf? Andere Ideen?
  3. Klick auf das Container Icon und dann Support. Das sollte dich zu dem Thread vom Maintainer bringen. Und ja, das sind Variablen. Das chown macht irgendwie keinen Sinn. Warum macht der Container das nicht selbst?!
  4. It's always a bad sign if the error message is not found on many websites: https://www.google.com/search?q="Trying+to+read"+"bytes+at“+"outside+the+bounds+of+the+file" I would try it here: https://dba.stackexchange.com/
  5. Keine Ahnung was du meinst. Also wer sagt das denn? Wenn man die User und Gruppen ID setzen kann, kann das ja alles sein.
  6. Ist das der? https://hub.docker.com/r/nold360/borgserver Da steht auch von von PUID und GUID. Also sollte man doch auch auf 99 und 100 ändern können.
  7. The subforum is a little bit visible now: steals a lot of the page content 👎
  8. Syslog mirror aktivieren, Monitor anschließen. Dann Fehler reproduzieren und Monitor beobachten ob da was kommt. Nach dem Reboot die zusätzliche /log Datei sichten und schauen was zum Fehlerzeitpunkt geloggt wurde. Logs gehen sonst bei jedem Reboot verloren. Hast du irgendwelche Stromsparmechanismen umgesetzt oder läuft der Server quasi noch in Grundeinstellungen?
  9. Nein möchtest du nicht. Wie kommst du überhaupt auf die Idee?! Du brauchst: 2x 16TB fürs Array 2x 4TB SSD für den Cache Pool HDDs und SSDs gehören nicht zusammen.
  10. mgutt

    Data Rebuild

    1.) Du darfst auf keinen Fall formatieren! 2.) Das Dateisystem der emulierten Disk ist defekt. Setzt du nun eine Disk ein und startest den Rebuild, wird auch diese Disk das kaputte Dateisystem erhalten. Pass jetzt also ja auf was du tust. 3.) Hattest du die Platte während dem Betrieb einfach rausgezogen oder warum ist das Dateisystem kaputt gegangen? 4.) Sind auf der entfernen Disk noch die Daten drauf oder ist deren Dateisystem auch kaputt (ans System klemmen und per UD Plugin mounten und Inhalt prüfen)? 5.) Nach dem Rebuild kannst du auf die Disk klicken und diese reparieren. Dann Daumen drücken, dass die Reparatur klappt. 6.) Du kannst keine 16TB Disk gegen eine 12TB ersetzen, aber ich nehme an du meintest es andersherum. 7.) Ja, eine Parität ist kein Backup. Wenn das Dateisystem einer Disk unwiderbringlich zerstört wird, was zB durch defekten RAM passieren kann, sind die Daten weg. Daher immer auch externe Backups machen!
  11. Your target You want to use a single destination path for all your backup tools like scripts and plugins, but you don't want to use only a single eSATA/USB backup disk. Instead you want to swap them every now and then. Problem Each backup disk has a different name and by that the UD plugin mounts it at a different path. Solution - install the Unassigned Devices (UD) Plugin - format your backup disks (Hint: Use ext4 as you can mount it with Windows 11 and OSX and instead of NTFS it fully supports linux file permissions!) - change the disk names to BACKUP1, BACKUP2, etc or BACKUP_A, BACKUP_B, whatever you prefer. The only requirement is: Its name needs to start with "BACKUP" - open the settings of your eSATA/USB backup disk in the UD list - paste the following script into the device script content area - enable automount - mount the disk the first time - the disk is now mounted at /mnt/disks/BACKUP1 (or whatever the disks name is) - the script automatically does its job and creates a symlink of this disk at /mnt/disks/BACKUP - use /mnt/disks/BACKUP for all your backup tools Successfully tested with the appdata and vm backup plugins. Script #!/bin/bash if [[ $ACTION != 'REMOVE' ]] && [[ $ACTION != 'ADD' ]]; then logger skip exit fi unset disk_found while IFS= read -r -d '' disk_name; do if [[ $disk_name == /mnt/disks/BACKUP ]]; then continue fi if mountpoint "$disk_name"; then disk_found=true # symlink targets the correct HDD if [[ $(readlink -f /mnt/disks/BACKUP) == "$disk_name" ]]; then break fi # symlink is wrong if [[ -L /mnt/disks/BACKUP ]]; then rm -v /mnt/disks/BACKUP fi # a dir with the same name is not allowed if [[ -d /mnt/disks/BACKUP ]]; then logger "Error: /mnt/disks/BACKUP is a directory (should be symlink)!" break fi ln -v -s "$disk_name" /mnt/disks/BACKUP break fi done < <(find /mnt/disks -name "BACKUP*" -print0) if [[ ! $disk_found ]]; then Logger "No Disk found" if [[ -L /mnt/disks/BACKUP ]]; then rm -v /mnt/disks/BACKUP fi fi Example Notes - successfully tested with backup scripts and the vm and appdata backup plugins - accidentally mounted multiple BACKUP disks? No problem. The script skips additional disks. - accidentally created a disk with the name "BACKUP" (which would be the same as the symlink)? No problem. The script skips creating the symlink and writes an error to the logs.
  12. Nein. Der Plugin-Entwickler behebt das einfach nicht. Ich hatte ihm dazu schon mal eine Lösung vorgeschlagen, aber wurde ignoriert.
  13. Wenn Du Windows 11 verwendest, kannst du jegliches Linux Dateisystem verwenden: https://learn.microsoft.com/de-de/windows/wsl/wsl2-mount-disk https://devblogs.microsoft.com/commandline/access-linux-filesystems-in-windows-and-wsl-2/
  14. mgutt

    VmDisk 0 GB ?

    Du hast vermutlich nur eine Zahl eingegeben. Also keine korrekte Formatierung in dem Feld verwendet.
  15. Maybe Ubuntu is worth a try? To exclude a problem inside of unRAID.
  16. Ok und wo kann ich auf die zugreifen? Laut Doku werden die niemals gelöscht, dann bräuchte ich meine lange Rekorder-Zeit ja nicht. EDIT: Ok, man kann sich zb ein Statistik Diagramm hinzufügen. Nehme ich da die vom Aktor ermittelte Summe und dann "Änderung", so sollte das der Vebrauch der jeweiligen Woche sein. Allerdings scheint es Ende Dezember zu irgendeinem Fehler gekommen sein: Ich sollte mir in jedem Fall neue Entitäten erstellen, wo PC + Schreibtisch summiert wird oder TV + Lautsprecher. Dann hat man nachher nur noch eine Linie. Wobei HA das eigentlich auch gleich bei dem Statistik Diagramm anbieten sollte, statt dass der User jetzt basteln muss. Ich habe keine AVM Aktoren. Nur Aqara und Shelly. Aber davon eben immerhin schon 21.
  17. Braucht man alles nicht machen. Im BIOS habe ich auch noch nie was eingestellt. Hast du denn den Plex Pass? Und wie sieht es hier aus (WebGUI)?
  18. Kannst du von deiner NVMe mal das ausgeben lassen: smartctl -a /dev/nvme0
  19. mgutt

    Error 403

    Sehe ich nun mal anders Das kann damit zusammenhängen, aber in den meisten Fällen ist es einfach ASPM. Gigabyte ist hier präsenter, weil sie nicht wie andere Hersteller hingehen und einfach Schlafzustände vollständig deaktivieren. Siehe zb Asrock, wo viele Boards nicht unter C7 gehen. Da hat man weniger Probleme, zeugt aber eher von Inkompetenz. Ich denke viele wenden den Wert nicht korrekt an. Dieser ist individuell zu ermitteln, da bei jedem NVMe Modell anders. Hatte ich hier erklärt: Oder man deaktiviert ASPM der NVMe komplett: nvme_core.default_ps_max_latency_us=0 Das wäre zumindest ein Versuch wert.
  20. mgutt

    Error 403

    So sehe ich das auch. AER Fehler zu unterdrücken ist genauso wenig sinnvoll wie CRC Fehler einer SATA Disk zu ignorieren. Es gab ja einen Fehler bei der Übertragung der Daten, der dank der Checksumme erkannt und dann korrigiert wurde. Ich sehe hier keinen Bug im Kernel. Tatsächlich wurden bei zahlreichen SSD Modellen im Kernel Listen geführt, wo bestimmte Funktionen deaktiviert werden: https://www.heise.de/hintergrund/c-t-wirkt-Problematische-SSD-im-Bauvorschlag-fuehrt-zu-Bugfix-im-Linux-Kernel-5074713.html Bei der Kingston wurde zb NVME_QUIRK_NO_DEEPEST_PS gesetzt. Der Bug ist also wenn überhaupt in der Firmware der NVMe zu suchen. Ich würde daher den Ansatz verfolgen den tiefsten Schlafzustand der NVMe zu deaktivieren. Also was in meinem Link weiter unten gemacht wurde.
  21. Isn't normal. Something is wrong with your npm installation. The easiest way would be to do a fresh install. Or you need to check the proxy config files in appdata or the npm database itself. Or you open an issue at GitHub and post your logs there.
×
×
  • Create New...