Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Es ist eigentlich egal ob der Cache voll läuft. Ist der voll, werden weitere Dateien direkt aufs Array geschrieben.
  2. Virtuelle Disks sind immer gleich groß. Es ist also Schnurz wie voll der Cache ist. Und "pausiert" ist Ruhezustand und keine gecrashte VM. Dieser Zusammenhang macht also keinen Sinn.
  3. Wenn du auf die linke Spalte einer Einstellung klickst, erscheint ein Hilfetext. Wenn du das im laufenden Betrieb beim Share appdata auf No umgestellt hast, hast du übrigens mit hoher Wahrscheinlichkeit nach alle Container zerlegt. Ansonsten auch mal das lesen: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=951565
  4. Und die Konfiguration bezieht sich nicht auf vorhandene Slots? Weil du kannst keine Slots mit einem Bifurcation Adapter aufteilen, wenn die Aufteilung bereits auf dem Board selbst passiert (glaube ich).
  5. Die Karte ist auch von C Payne. Er bietet da verschiedene an: https://c-payne.com/ Die mit den 2x M.2 habe ich nicht genommen, weil man dann wirklich nur M.2 verbauen kann.
  6. Ja Nein Über eine SATA Buchse ist die Performance extrem mies. Willst du nicht.
  7. Du könntest rein zur Vorsicht die erweiterte Ansicht aktivieren und bei Extra Parameters "--memory=2G" ergänzen, um den LucyBackup Container auf 2GB RAM zu begrenzen. Ich mache das grundsätzlich bei allen Containern.
  8. Ich tippe darauf, dass der Name des Datenträgers vom USB Controller geändert wird, sobald mehr Disks verbaut werden. unRAID findet die Disk dann nicht mehr, weil unRAID strikt nach dem Namen+Seriennummer geht. Lösen könnte man das, in dem man die Disks über Tools > New Config komplett neu dem Array zuordnet (vorher Screenshot machen). Bedenke aber, dass USB beim Array nicht empfohlen wird.
  9. Das heißt nichts. Unraids Standard-Warnwerte sind für HDDs gedacht. SSDs dürfen bis zu 70 Grad warm werden und eigentlich alle haben eine Hitzeschutz integriert und drosseln ab 80 Grad. So wie ich geschrieben habe. Wichtig ist, dass nichts läuft, also Docker und VM komplett aus ist. Wenn es schief geht, hast du ja das Backup auf der 500GB SSD. Gerne kannst du mir das Log per PN senden, wenn ich nach dem rsync mal wegen Fehlern schauen soll.
  10. Bei den Settings findest du diesen Block: # rsync options which are used while creating the full and incremental backup rsync_options=( # --dry-run --archive # same as --recursive --links --perms --times --group --owner --devices --specials --human-readable # output numbers in a human-readable format --itemize-changes # output a change-summary for all updates --exclude="[Tt][Ee][Mm][Pp]/" # exclude dirs with the name "temp" or "Temp" or "TEMP" --exclude="[Tt][Mm][Pp]/" # exclude dirs with the name "tmp" or "Tmp" or "TMP" --exclude="Cache/" # exclude dirs with the name "Cache" ) Da könntest du eine oder mehrere exclude-Zeilen ergänzen. Beispiele: --exclude="ordner/unterordner/" --exclude="dateiname.txt" --exclude="ordnername/" --exclude="ordner-wird-gesichert-aber-nicht-die-dateien-darin/*"
  11. Behalte die Backups, die dir wichtig sind. Wenn die alten weg dürfen, dann hau sie alle weg.
  12. The appdata Backup plugin creates tar files which differ on every backup. So you don't benefit from hardlinks?!
  13. Einfaches Drücken löst einen sauberen Shutdown aus. Damit auf dem Monitor was angezeigt wird, musst du nur eine Taste auf der Tastatur drücken. Geht beides nicht, ist der Server gecrasht.
  14. Dann Monitor anschließen. Du musst ja erstmal herausfinden, ob der Server gecrasht ist oder einfach nur die Netzwerkverbindung verloren gegangen ist. Oder reagiert der Server auch nicht mehr auf einfaches Drücken der Powertaste? Ergibt sich auch aus dem Link. Syslogs mirror aktivieren und beim nächsten Boot die Logs prüfen. Ohne Mirror hast du keine Logs.
  15. mgutt

    Netzwerkfrage

    Warum willst du den Traffic durch den Server laufen lassen?!
  16. Dann ist die neue SSD 12MB größer als die Parität. Das ist nicht erlaubt. Die Parität muss den größten Datenträger besitzen. Die ist 12GB kleiner als Disk1. Auch das ist nicht erlaubt. Du denkst in Dateien, aber die Parität enthält keine Dateien, sondern Paritätsdaten. Und diese belegen 512GB, egal wie viele Dateien auf Disk1 liegen. Ich würde folgendes machen: - Einstellungen > Docker > Nein - Einstellungen > VM > Nein Jetzt überlegst du dir welche SSDs du später wo im Array verwenden möchtest. Sagen wir mal du entscheidest dich dafür die 12MB größere SSD als neue Parität zu verwenden und die aktuelle 1TB Paritäts SSD als Disk 1. Dann würde ich die neue 500GB als UD mounten und zb als XFS formatieren und alle Dateien von Disk 1 auf die USB HDD kopieren: rsync -iahS /mnt/disk1/ /mnt/disks/<name-usb-hdd> --log-file=/mnt/boot/logs/rsync.log Bei eventuellen Abbruch einfach erneut ausführen. rsync überspringt bereits transferierte Dateien. Wenn fertig, dann evtl noch mal auf dem USB Stick die logs/rsync.log anschauen, ob es auch keine "error" im Text auftauchen. Nun: - Array stoppen - Tools > New Config, sofern du neben dem Array auch Pools hast, musst du die hier auf "Preserve/Behalten" im Dropdown klicken Jetzt hast du kein Array mehr. Du kannst also alle Disks wie du willst neu zuordnen. Du ordnest also die größte 1TB SSD als Parität zu und die etwas kleinere als Disk1. Starte das Array und lasse die Parität erstellen. Parallel kannst du nun die 500GB SSD wieder mounten und die Dateien zurückkopieren: rsync -iahS /mnt/disks/<name-usb-hdd>/ /mnt/disk1 --log-file=/mnt/boot/logs/rsync.log Wichtig: Bitte achte bei beiden rsync Kommandos auf den letzten Schrägstrich beim Quellverzeichnis. Dieser darf nicht beim Zielverzeichnis gesetzt werden. Ansonsten erstellt rsync einen unnötigen Unterordner. Erneut Logs prüfen und zum Schluss kannst du Docker und VM wieder aktivieren. Alternative: Wenn du die externe 1TB SSD nicht ausbauen kannst, dann weist du wieder die vorherige 1TB als Parität zu und als Disk1 könntest du zb die 500GB zuordnen. Bereits formatierte Disks werden von unRAID nicht neu formatiert. Der zweite rsync würde entsprechend wegfallen. PS: Die besten Performance hast du, wenn die Parität eine NVMe ist.
  17. Wenn du den 27.02. mit allen Backups danach löschst, dann gibt es keinen Link mehr auf die Datei, die am 27.02. gesichert wurde. Dann ist sie weg. Löschst du aber alle Ordner, aber behältst den 15.03., dann gibt es noch exakt einen Dateipfad (Hardlink) auf die Datei und die Datei ist noch da (Natürlich vorausgesetzt, dass die Datei am 15.03. noch Teil der Quelle waren). Also die Datei wurde exakt 1x kopiert. Und zwar am 27.02. Danach hat jedes Folgebackup, das vorherige als Basis verwendet und geschaut ob die Datei bereits kopiert wurde und wenn das der Fall war, wurde die bereits vorhandene Kopie einfach nur erneut verlinkt. Gab es nun seit dem 27.02. 16 Backups, wurden also 16 Hardlinks für die selbe Datei erstellt. Und dass die Datei nicht verschwindet, wenn man das Backup vom 27.02. löscht, liegt daran, dass das Dateisystem mehrere Hardlinks pro Datei erlaubt und die Datei erst unerreichbar macht, wenn wirklich der letzte Hardlink gelöscht wurde.
  18. Dass Nextcloud irgendwas in den Nextcloud-Ordner auf Disk1 schreibt und damit auch die Parität weckt: Ist halt so. Würdest du die HA VM auf Disk1 verschieben, hättest du das selbe "Problem". Viel mehr kann man da nicht zu sagen. Nextcloud ist nun mal eine moderne Webanwendung mit zahlreichen Schnittstellen und kein reiner FTP-Server, der nur darauf wartet, dass sich mal einer anmeldet und Dateien transferiert. Fazit: Große SSD kaufen und Ruhe im Array. Oder: HDDs und Cache wegwerfen und nur SSDs ins Array.
  19. Siehst du falsch. Du kannst jeden Ordner löschen wie du magst. Jedes Backup bleibt voll intakt. Das "du" Kommando ist bereits so intelligent und zeigt dir nur die Differenzen zu den vorherigen Ordnern an. Dh zwischen dem 26. und dem 27. sind 9.4GB dazu gekommen. Allerdings wird dir das Löschen vom 27. vermutlich nichts sparen, da die selben Dateien auch im 28., 29. usw enthalten sind Allerdings scheint vorher mal was falsch gelaufen zu sein, denn du hast mehrere Backups ohne Hardlinks, da mehrere 286GB anzeigen. Es scheint zb als wäre das Backup vom 20. das erste Vollbackup für alle Folgetage. Die davor belegen noch mal extra Speicherplatz. Hast du mein Skript zufällig aktualisiert? Ich hatte leider bei einem Update was geändert, so dass alte Backups nicht mehr weiter für Hardlinks genutzt werden konnten. Das kann das verursacht haben.
  20. Der Server lief ja viele Monate ohne Probleme (und läuft ja jetzt auch). Da bin ich eher zurückhaltend was BIOS Updates anbelangt. Ich warte also erstmal ab.
  21. mgutt

    Forced SSL/TLS

    Was ist das für ein Browser? Mal einen anderen getestet? Einfach nur zur Sicherheit, dass der Browser nicht evtl grundsätzlich unbekannte Zertifikate ablehnt.
  22. Das hat nichts mit der Bandbreite, sondern mit dem jeweiligen Controller zu tun. Es gibt zig verschiedene. Bei 2 Buchsen wäre eine Karte mit ASM1064 absolut mit unRAID kompatibel. Ist nur eben die Frage wie viele Ports es am Ende werden sollen. Der ASM1166 bietet zb 6 Ports.
  23. Nur damit du mal eine Zahl gelesen hast. Mit Parität wird diese 10-fach Karte das Array auf 10 bis 20 MB/s begrenzen. Auch ist dir hoffentlich klar, dass wenn es ein Consumer Board werden soll, nur manche AMD Boards 4x X4 Bifurcation unterstützen (um insgesamt 6 NVMes unterbringen zu können). Intel Consumer Boards können das nicht. Für dich optimal wäre denke ich ein AMD Board mit Bifurcation Support für 4x NVMe, 1x X4 für Dual 10G und 2x X1 Slots für jeweils eine 6-fach SATA Karte mit ASM1166: https://m.de.aliexpress.com/item/1005003435254795.html Zb mit dem ROG Strix X570 sollte das gehen. Dann teilen sich zwar 5x HDDs eine Bandbreite von ~1GB/s, aber das ist immer noch viel besser als diese lahme 10-fach SATA Karte.
×
×
  • Create New...