Jump to content

Artur01

Members
  • Posts

    55
  • Joined

  • Last visited

Everything posted by Artur01

  1. vielen Dank für die Tipps und Anregungen. 400TB 😲? Hast du das Deutschland-Videoarchiv auf deinem Server 😲 ? Spaß beiseite, das müsste ja fast das maximum sein was in Unraid zur Zeit geht, ca 24x 16TB und 2x16TB Parity? Hast du deinen Server mal vorgestellt?
  2. ich möchte wirklich ein Plex Server für zuhause aufbauen und habe Fotos, Musik und Videos. Bevor ich starte habe ich mir Gedanken wie man das am besten macht ohne dass beim Angucken eines Fotos drei Festplatten angehen. Soll ich Plex die Disks direkt geben "/mnt/diskx/sharename/" ? Hat das Vorteile im späteren Betrieb? Meine Überlegung ist im Moment so: Shares anlegen: /mnt/user/Bilder /mnt/user/Movies /mnt/user/Musik /mnt/user/TV Shows/ (entstehen eventuelle Nachteile wenn man ein Leerzeichen im Namen hat?) Macht es Sinn Musik nochmal zu teilen in Musik , Hörbücher? Macht es Sinn Movies nochmal zu teilen in Movies, Animes? Macht es Sinn alles in Kinder, Erwachsene zu Teilen? Danach dem Docker die Disks einzel übergeben also so: /mnt/Disk1/Bilder /mnt/Disk2/Bilder /mnt/Disk3/Bilder .... /mnt/Disk1/Movies /mnt/Disk2/Movies /mnt/Disk3/Movies
  3. ich versthe schon wie Unraid im Groben funktioniert und was der Unterschied zum Raid ist, aber woher weiß Unraid dass die mp3 auf DISK2 liegt ohne alle Festplatten zu starten und reinzugucken? Was würde z.B. passieren wenn ich von Hand die MP3 von DISK2 nach DISK3 verschieben würde ohne diesen user Pfad (/mnt/user/..) zu benutzen. Und jetzt startet man die MP3, aber durch den User Pfad (/mnt/user/...). Weiß unraid dann dass die MP3 jetzt auf DISK3 liegt? oder würde er DISK2 und DISK3 starten und reingucken auf welcher Platte die MP3 liegt?
  4. Hallo, ich habe eine Mediensammlung (Filme, Musik) und möchte diese über einen Share ("Medien") ins Array übertragen. Da es viele Dateien sind würden diese auf meheren Festplatten verteilt werden (z.B. Disk1, Disk2, Disk2). Wenn man jetzt eine MP3 abspielen würde (liegt auf Disk2), würden dann alle Festplatte starten (Disk1, Disk2, Disk2) die mit dem Share verbunden sind oder hat Unraid eine interne Datenbank wodurch es weiß auf welcher Festplatte die MP3 Datei liegt und nur diese Festplatte (Disk2) würde starten.
  5. 😅 das ist der Nachteil an einer konfortablen Oberfläche ...
  6. Hallo, ich nutze den Plex Docker und habe den Pfad /mnt/user/ mit dem Plex Docker verknüpft damit Plex eine Verbindung zu meinen Medien hat. Das ganze bereitet mir ein bischen Bauchschmerzen da der Plex Docker auch auf meine anderen Daten Zugriff hat. Jetzt könnte man ja einen eigenen Plex Share erstellen und seine Medien da reinkopieren. Das negative ist jedoch, dass meine Musiksammlung auf dem Pool liegt und man beim Erstellen eines Plex Shares nicht mehr differenzieren kann wo die Filme und wo die Musik gespeichert ist. Gibt es hierfür eine elegante Lösung?
  7. Ich hatte das selbe Problem mit win10 vms . Selbst wenn ich Backups zurückgespielt hatte funktionierten die vms nicht mehr,, es kam immer der repariermodus. Seit dem ich unraid auf 6.12.0 rc5 upgedatet habe und mein pool auf zfs, wo die vms liegen, umgestellt habe, ist das Problem weg. Kann aber nicht sagen ob es wirklich daran lag.
  8. Bezüglich cloud: wenn du deinen unraid Server gebaut hast empfehle ich dir seafile für deine Arbeitsdaten/Dokumente die du mit deinem Notebook bzw. Smartphone syncst. Die Daten legst du dann auf deinen unraid ssd Cache. Für deine Archiv/medien Daten, die im array liegen, die du nicht auf deinem notebook/Smartphone hast empfehle ich runfile. Mit runfile kann man gut durch die Daten stöbern und für andere freigeben. Wer kennt das nicht, ein verwandter fragt, ob ich ihm die Fotos von Omas Geburtstagsfeier vom vorletzem Jahr geben kann.? kein Problem, per Smartphone und runfile den Ordner suchen und link generieren. Link per WhatsApp weiterleiten, fertig.
  9. Hallo, Ich weiß nicht ob ich alles verstanden habe aber was hältst du davon den AMD als gaming PC mit Windows zunutzen und einen zweiten sparsamen Intel PC als unraid Server für deine Medien Aufgaben.
  10. Hallo, mir ist aufgefallen, dass bei ZFS Snapshot die Daten fehlen welche in Shares liegen, die mit dem Array verknüft sind (z.B: Array als Secondary Device). Z.B. habe ich einen Share "Test" mit Primary storage Cache und Secondary storage Array, also ein Share wo der Mover die Daten vom Cache ins Array befördert. Wenn ich jetzt eine frische Datei in den Share "Test" reinlege, befindet sie sich erstmal im Cache solange der Mover nichts macht. Der Cache ist jetzt als ZFS formatiert, sodass man ein Snapshot machen kann. Jetzt wird ja folgender Snapshot Pfad erstellt: /mnt/cache/.zfs/snapshot/"snapshot_bezeichnung"/Test/ und dieser Ordner ist bei mir leer! Eigentlich hätte ich erwartet, dass hier ein Verweis auf die neu erstellte Datei ist. Bei Shares mit Only Cache, also ohne Secondary storage, sieht man alle Dateien und Ordner.
  11. es kommt die Meldung: cp: failed to clone "Zielverzechnis" from "Quellverzeichnis" operation not supported
  12. Ich bin jetzt einen Schritt weitergekommen. Bei zfs funktionert die snapshot Methode so nicht: if cp -a --reflink=always "$src_path" "$snapshot_path"; then der Copy Befehl mit dem Argument --reflink=always funktioniert bei zfs nicht und erstellt deswegen keinen snapshot und dann passiert ein durcheinander. Eigentlich müsste man im Script abfragen auf welches Dateiformatierungssystem die BackupQuellen sind und für zfs dann eine andere Methode programmieren. Viellleicht kann man dann für zfs das Container stoppen und starten sein lassen 🤷‍♂️.
  13. Hallo mgutt, ich nutze dein tolles Script um den Pool (cache) auf das Array zu sichern. Das funktioniert soweit gut und hat mir schon paar mal geholfen eine Datei wiederherzustellen. Ich benutze die Version 1.5 . Seidem ich auf Unraid Version: 6.12.0-rc5 umgestiegen bin und den Pool auf ZFS umgestellt habe, ist mir aufgefallen, dass nach einem Lauf die Docker nicht mehr automatisch starten. Das muss ja damit zusammenhängen, hier ein Auszug aus der Log Datei: # remove snapshot (containers are already running) if [[ $snapshot_path ]]; then rm -r "$snapshot_path" # start containers else echo "Start containers (slow method):" docker container start "${container_ids[@]}" fi sent 2.15G bytes received 136 bytes 1.43G bytes/sec total size is 109.52G speedup is 50.99 File count of rsync is 5 rm: cannot remove '/mnt/cache/.appdata_snapshot': No such file or directory Make backup visible ... ... through local mv renamed '/mnt/disk2/BackupGeraete/UNRAID_Cache/system/.20230528_232637' -> '/mnt/disk2/BackupGeraete/UNRAID_Cache/system/20230528_232637' # ##################################### Clean up outdated backups Keep daily backup: 202305 ....
  14. Hallo, hat jemand ein gutes BackUp Script geschrieben mit dem man seine UserShares Backuppen kann? Dabei soll berücksichtigt werden, dass ein Teil der Shares wie z.B. die appdata auf einem ZFS Cache liegen und andere Daten auf dem array. Vom ZFS Cache soll ein Snapshot erstellt werden und dieses berücksichtigt werden. Ich habe mal was versucht aber gemerkt dass es viele Stoplersteine gibt. z.B. kann man einen Snapshot nicht "überschreiben" und machnmal nicht löschen weil er "busy" ist. Dann würde eventuell beim nächsten Backup ein Chaos entstehen.
  15. Du öffnest das Terminal in Unraid und tippst einfach: zfs snapshot -r cache@irgendeinebezeichnung . Das vor dem @ ist der name des zfs pools, bei mir heißt er cache und nach dem @ schreibst du deine Snapshot-Bezeichnung rein. Mit: zfs list -t snapshot siehst du deine snapshots und was diese an Speicher belegen. Mit: zfs destroy -r cache@irgendeinebezeichnung löscht du den Snapshot, also nach dem rumspielen daran denken wieder alles zu löschen weil das mit der Zeit enetuell viel Speicherplat verbraucht und man später nicht versteht was da im Hintergrund den Speicher belegt. Mit: cd /mnt/cache/.zfs/snapshot kommst du in den Snapshot rein, dann ls eintippen und du siehtst deine Snapshot Ordner. Der Pfad ist wirklich unsichtbar und muss direkt eingegeben werden. Man kann die Snapshots auch mounten wie ein Laufwerk.
  16. Hallo, ich teste gerade die zfs Funktionen und habe Snapshots vom Cache erstellt. Das Erstellen funktioniert, per Konsole kann man die Snapshots auflisten. Laut Internet soll man dann die Snapshots im Stammverzeichnis mit dem Namen .zfs/snapshot finden. Ich finde aber keinen Ordner der so beginnt, habe schon in / und in /mnt und in /mnt/cache gesucht aber finde dort nichts.
  17. So der Umzug auf ZFS hat funktioniert, Docker und VM laufen. Alle Dateien kopiert, also auch die docker Image Datei. Ich habe die Option "Compression" aktiviert und der Speicherverbrauch ist von 720GB auf 495GB (ca.30%) geschrumpft (Anzahl Files ist gleichgeblieben). Die Funktion scheint Sinnvoll zu sein da Cache bei den meisten eine SSD ist und diese von der Perfomance den anderen Gliedern (Netzwerk, Array) überlegen ist sodass hoffentlich in der Praxis nix zu spüren ist.
  18. Ich würde gerne auch meinen Cache nach ZFS umstellen. Spricht eigentlich was dagegen den Cache ins Array zu kopieren, dann nach zfs umformatieren und den Inhalt zurück kopieren? Docker und vm Dienst vorher deaktivieren.
  19. ich fahre normaleweise normal runter, also nutze nicht force stop. Ich werde mal noch eine VM installieren und die image Dateien nicht mehr backuppen.
  20. die Imagedateien der VMs liegen im Pool und das ist btrfs. Den Share wo die Image Dateien liegen ist auf Only gestellt, das heist der Mover rührt die Image Dateien nicht an. Die VMs habe ich immer kurz benutzt, also danach wieder runtergefahren. Der Unraid VM Manager ist immer an .
  21. Hallo, ich habe mir Windows10 VMs installiert. Die VMs werden selten genutzt und sind die meiste Zeit aus. Jetzt habe ich das Problem, dass wenn ich nach Wochen eine VM starte, diese im Porblembehandlungsmodus starten und eine reperatur fehlschlägt. Inzwischen sind drei VMs erstellt worden und alle mit diesem Problem. Anfags funktioneren die VMs. Ich mache mit rsync wöchentliche inkrementale Backups, mit dem Script von mgutt, vom Share "domains" wo die Image Dateien liegen. Wenn ein altes Image zurückgespielt wird bleibt das Problem bestehen. Inzwischen habe ich den verdacht, dass nach einem Backup die Probleme entstehen. An den Zugriffsrechte der img Dateien habe ich auch mal rumgeschraubt: Benutzer root oder nobody und mit chmod auf 777 gestellt, da der Verdacht auf fehlende Zugriffrechte viel, jedoch alles ohne Erfolg. Hat jemand noch einen Rat?
  22. Das Skript von mgutt funktioniert wunderbar. Kann man das Skript noch nach Wochentagen erweitern, sodass man z.B. am Wochenende andere Aufwachzeiten einstellen kann.
  23. Hallo, mit welchem Befehl versetze ich den Unraid Server in den Standby Modus, also so als wenn man im Dashboard auf das Mondzeichen klickt.
  24. Das ganze hat mir keine Ruhe gelassen sodass ich die 160W PicoPSU gekauft und das LEICKE 120W Netzteil, da beim hochfahren schon mal die 100W kurzzeitig erreicht werden (wahscheinlich sogar mehr weil das Messgerät mittelt). Erstaunlicher Weise ist diese Kombi ca 0,5-1W sparsammer als meine alte Kombi aus 90W PicoPSU und MeanWell 80W Netzteil (ich hatte damals das Leicke 90W mit der 90W Pico getestet, da war das MeanWell sparsammer) Naja, auf jedenfall kann ich jeden empfehlen direkt das 160W PicoPSU mit einem Leicke (wegen dem besserem Preis) zu kaufen. Wegen der höheren Leistung hatte ich gerechnet dass eine kleinere Auslegung sparsammer wäre.
  25. Hallo, ich habe jetzt seit längerer Zeit Seafile als Dockercontainer am laufen und bin sehr zufrieden mit der Cloud. Die Daten werden unter ...appdata... auf dem SSD-Cache-Pool dauerhaft gespeichert, also nicht ins Array durch den Mover verschoben. Die Perfomance ist super und das Array bleibt im SpinDown. Das einzige was mich stört, ist der knappe Speicherplatz in Pool. Gibt es eine clevere Möglichkeit das Array mit einzubeziehen für älter und wenig genutzte Daten, sodass das Array aus bleibt?
×
×
  • Create New...