Jump to content

mgutt

Moderators
  • Posts

    11,367
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Yes. Finally you have the same result. It seems so. I tested it and Plex creates the complete movie file, before it is downloaded through the client. My RAM Disk is limited to 6GB and as you can see it is automatically removed after the file hits this limit: This means we need 10 to 50GB per movie, depending on the size of the movie. But there is another problem. Multiple downloads per user, creates at least two parallel transcodes: I did not tested multiple users, but I think this will be even more. So we really need to be able to change the download transcoding path somehow or we are forced to use an SSD for all transcodes or install much more RAM 🙈
  2. Jo, korrekt. Ein Bug, den es leider schon ewig gibt.
  3. Das ist keine Fehlermeldung, sondern einfach das BIOS was kein Bootmedium gefunden hat. Also deine ISO funktioniert nicht.
  4. Ok. Gut zu wissen, dass man bei BTRFS also defragmentieren muss, obwohl man SSDs hat ^^ Das hat aber nur "total" verkleinert und nicht "used" oder? Denk dran, dass die Metadaten alleine 2GB belegen und dies auch im RAID1. Bei BTRFS steige ich da nicht ganz durch, aber es liegt wohl an dem Copy on Write. Da werden dann bei Änderungen der Daten nicht in die selben, sondern in neue Datenblöcke geschrieben: https://en.wikipedia.org/wiki/Copy-on-write#In_computer_storage Und ich denke mal, dass die bisher verwendeten Bereiche erst durch die Defragmentierung so richtig frei werden. Aber studiert habe ich BTRFS jetzt auch nicht 😅
  5. No. By that you create the dir /tmp/PlexRamScratch inside of the container, which will be a ram disk inside of your container and as your plex server writes to /transcode, it won't use it. It would only use it, if you change /transcode to /tmp/PlexRamScratch in the transcode settings. By that you could delete all your other changes like the script and the mounted container path as everything happens inside the container then. Thats why I changed the manual as it became easier. But finally this won't solve your problem. Your problem is that the download feature fills up the /transcode dir and as you limited it to 8GB, you can't solve this without making it much bigger. But why does the download feature fill up the /transcode dir? Is this a new behavior? Is it possible to change the dir for download transcodes?
  6. Ich habe mal eine Ubuntu VM aufgesetzt und es getestet. Mein Script lĂ€uft auch auf Ubuntu fehlerfrei. Wie hast du es gestartet? Ich vermute mal mit "sh script.sh"? Das ist falsch, weil das ein Bash Skript ist. Also wenn "bash script.sh" oder einfach "/pfad/script.sh". Dann zu den Hardlinks. Beim Abholen gab es wie zu erwarten gar kein Problem. Beim Senden zu einem Ubuntu SMB Share hatte ich dann wie du das Problem, dass keine Hardlinks erstellt wurden. Also habe ich die Unix Extensions und SMB1 (NT1) aktiviert: unix extensions = yes server min protocol = NT1 client min protocol = NT1 [backups] comment = backups on ubuntu path = /home/marc/backups read only = no browseable = yes writeable = no read list = write list = marc case sensitive = auto preserve case = yes short preserve case = yes force user = root Wie man sieht habe ich außerdem den User "root" erzwungen, denn nur so ist rsync in der Lage die Dateirechte zu setzen. Und im rsync Skript habe ich das am Anfang ergĂ€nzt, damit er das Ziel ĂŒber SMB1 mountet: mkdir -p /mnt/remotes/ubuntu_backup_smb1 mount -t cifs -o username=marc,password=<password>,vers=1.0 //ubuntu/Home /mnt/remotes/ubuntu_backup_smb1 Und zum Schluss wieder unmounten: umount -l /mnt/remotes/ubuntu_backup_smb1 rmdir /mnt/remotes/ubuntu_backup_smb1 Aber abholen ĂŒber Ubuntu ist immer noch die beste Methode, weil ein gehackter Unraid Server dann nicht ans Backup kommt.
  7. Wenn du diesen Login gespeichert hast, dann ja. Danach fragt Windows aber nicht mehr nach einem Login. Also wirst du noch gefragt? Dann hat Windows den Login nicht gespeichert. Wenn schon beim Anklicken ein Fehler kommt, dann hat Windows einen Login verwendet (den falschen).
  8. HĂ€ttest du dann gesehen. Ist aber nichts da. Dann ist es einfach klassisch die Differenz zwischen "du" und "df". "du" addiert alle DateigrĂ¶ĂŸen und "df" schaut einfach nur in den Superblock des Dateisystems. Das Dateisystem kann durchaus reservierte Datenblöcke enthalten, die gar nicht real als Datei vorhanden sind. Manchmal hĂ€ngen zB Dateien im Löschzustand fest, was man zB so ermitteln kann: lsof +L1 Falls da nichts auf /mnt dabei ist, wird es das aber nicht sein. Eventuell wurden gelöschte subvolumes nicht ordentlich entfernt (durch Docker), dann mal das versuchen: btrfs filesystem sync /mnt/cache Oder vielleicht werden mehr Datenblöcke belegt als eigentlich notwendig, so dass eine Defragmentierung hilft: btrfs filesystem defragment -rvf /mnt/cache Ich bin mir aber gerade nicht sicher, ob das auch die "Chunks" bei BTRFS aufrĂ€umt. Mach danach auf jeden Fall noch mal das und schau ob sich "total" verkleinert hat: btrfs filesystem df /mnt/cache Wenn nicht, dann musst du einen balance machen. Keine Ahnung was Unraid fĂŒr einen Wert nutzt, aber probiere es mal so: btrfs balance start -dusage=85 /mnt/cache Damit sollte sich "total" verkleinern, allerdings ist dein Problem ja eigentlich, dass "used" schon viel zu viel belegt. Daher bin ich aktuell echt ĂŒberfragt.
  9. @daNick73 You are trying to execute a bash script as a shell script. Either you execute "bash backup_rsync.sh" or you use only "./backup_rsync.sh" and let the OS decide which language should be used.
  10. Subvolumes gibt es aber keine oder? btrfs subvolume list /mnt/cache Und es liegt auch nichts unsichtbares auf dem Cache? ls -lah /mnt/cache Weil das "used" in Höhe von 87GiB irritiert mich. Wobei es bekannt ist, dass die Standard Linux Tools mit BTRFS nicht klar kommen. Daher gibt es df und du auch extra fĂŒr BTRFS: btrfs filesystem du -sh /mnt/cache/* Allerdings ist es eigentlich andersherum. Also das normale du zeigt mehr an, weil es mit den Snapshots nicht klar kommt und daher Dateien doppelt zĂ€hlt. Bei dir ist es aber andersherum?!
  11. Und was gibt das aus? btrfs device usage /mnt/cache Und: btrfs filesystem df /mnt/cache
  12. Eins muss man ja sagen. Du ignorierst konsequent, dass ĂŒberall TB steht ^^
  13. Man könnte versuchen, dass nur der Unterordner mit den Dateien auf dem Array landet und der Rest auf dem Cache. Ich habe Nextcloud testweise vor 3 Tagen installiert. Seitdem hat sich in /data nichts getan. Dann habe ich mich eingeloggt und folgende Pfade wurden aktualisiert: /data/owncloud.db /data/<username>/cache Nach löschen einer Datei: /data/owncloud.db /data/<username>/files /data/<username>/files_trashbin Daraus schließe ich, dass du /data einfach auf den Cache linken musst und /data/<username>/files und /data/<username>/files_trashbin auf das Array. Leider fĂŒr jeden Usernamen einzeln und bevor man neue User hinzufĂŒgt, muss man das ebenfalls machen (ansonsten landen deren Dateien auf dem Cache). NatĂŒrlich muss dafĂŒr erstmal der Container gestoppt werden und /data ohne /data/<username>/files bzw /files_trashbin auf den Cache verschoben werden, da du ja bereits ein laufendes System hast. Wenn du ĂŒber die config.php den Cache-Pfad in data/cache/$user Ă€nderst, brauchst du nur /data/<username> fĂŒr jeden User auf das Array verlinken und nicht noch explizit die files-Unterordner. Alternativ Ă€ndert man den Cache-Pfad und verlinkt nur /data/cache und die /data/owncloud.db auf den Cache und lĂ€sst /data auf das Array linken. Dann muss man nicht alle Userpfade einzeln angeben. Kommt drauf an was du noch so an DateiĂ€nderungen erkannt hast. Wobei owncloud.db bei mir denke ich nur existiert, weil ich beim Testen keine externe SQL Datenbank verwendet habe. Vielleicht aktualisiert sich bei dir ja nur /data/<username>/cache?! Dann mĂŒsstest du einfach nur den Pfad auf die SSD verbannen. Also zb im Container auf var/www/html/config/cache/$user, der ja eh schon auf der SSD liegt. Oder vielleicht in /tmp/$user und das mit /tmp/nextcloud/tmp verlinken? Also in den RAM von unRAID? Ich weiß leider nicht wie groß die cache Dateien sein können. In jedem Fall eine ziemlich dĂ€mliche Pfad-Struktur, die Nextcloud da umgesetzt hat. Bitte aber in jedem Fall vorher Backups machen.
  14. Also du hast jetzt 22.2.1? Darin ist der Patch ja enthalten.
  15. Wenn du regelmĂ€ĂŸig Daten aus deinem HDD Array benötigst, ist dein Setup falsch. Heiße Daten gehören auf den SSD Cache. Oder du erstellst dir einen separaten HDD Pool. Aber mit dem lahmen HDD Array hantiert man eigentlich nicht dauerhaft herum. Ansonsten kannst du das ziemlich easy per Skript umsetzen. Als Cron Schedule zwischen 6 und 20 Uhr alle 15 Minuten auslösen: https://crontab.guru/#*/15_6-20_*_*_* Und pro Disk eine solche Zeile: dd if=/mnt/disk1 of=/dev/null bs=1 count=1 seek=$(shuf -i 1-1000000 -n 1) Dann liest er 1 Byte von einer zufĂ€lligen Stelle der Disk (ist wichtig, weil das Byte danach im RAM zwischengespeichert wird und bei Wiederholung nicht mehr von der Disk abgerufen wird), was den Sleep Timer wieder zurĂŒcksetzt.
  16. Und was ist, wenn eine SSD ausfĂ€llt? Das wĂ€re nur so, wenn du eine ParitĂ€t verwendest. Ohne ParitĂ€t, lĂ€uft jede Array Disk fĂŒr sich alleine. Aber warum sollte man ein Array oder ĂŒberhaupt einzelne Disks ohne Ausfallsicherheit haben wollen? Ich sehe da kein Problem. Eine M.2 als ParitĂ€t und der Rest vom Array kann dann SATA oder M.2 sein wie du magst. Solange ein Parity Check keine Fehler resultiert, sind die SSDs fĂŒrs Array geeignet. Alternativ erstellst du ein ZFS RAID aus den SSDs und packst in das Array einen leeren USB Stick. Geht auch. Oder eben alles ins Array ohne Paritat, wenn fĂŒr dich Ausfallsicherheit kein Thema ist.
  17. Shares > Ordner Symbol von "appdata" > LOCATION Sind alle Dateien auf dem Cache oder wird auch eine Disk angezeigt? Wenn alles auf dem Cache liegt, kannst du den Pfad problemlos Ă€ndern. Zu beachten ist, dass man die Dateien nicht von der SSD runternehmen darf, solange der Container lĂ€uft. Also Appdata muss auf Prefer eingestellt bleiben. Sollte man das auf Yes Ă€ndern wollen, muss man erst alle Pfade der Cotnainer zurĂŒck in /mnt/user Ă€ndern.
  18. Ja. Man stellt 100MB ein und so schreibt er direkt alles weg. Wobei der Schreibpuffer wirklich nur beim Schreiben neuer Daten aktiv ist. Da wird also nicht stÀndig was im RAM gehalten.
  19. Unraid spielt keine Rolle bei diesem Feature. Das ist einzig Sache von Samba Server der Ubuntu Maschine. War der Eintrag denn schon drin oder hast du den hinzugefĂŒgt? Danach Samba neu gestartet? Edit: es scheint als mĂŒsste man explizit SMB1 dafĂŒr verwenden: https://bugs.launchpad.net/ubuntu/+source/samba/+bug/1883234 Du kannst alternativ ĂŒbrigens auch mit SSHFS mounten. Oder NFS wĂ€re auch noch eine Option.
  20. Die IronWolf SSDs brauchst du nicht bzw ich empfehle jetzt nur noch Samsung SSDs, da die die wenigsten Probleme machen. Die IronWolf sind eigentlich auch nie im Angebot. Beim RAM hol lieber 1x 16 als 2x8. So hast du mehr AufrĂŒstpotential und meiner Ansicht nach kann man nie genug RAM haben. WĂ€re eines dieser Boards nicht besser? Also 2x M.2 und 8x SATA: https://geizhals.de/?cat=mbp4_1200&xf=11924_2~1244_8&sort=r&hloc=at&hloc=de&v=e Kommt natĂŒrlich drauf an was du vor hast. Mein Lieblinge sind nach wie vor das C246M und W480M. Die findest du unter Xeon.
  21. Ich finde 4TB ist eine Grenze wo man ĂŒber SSD Only nachdenken sollte. Also separaten Cache weglassen und zb nur SanDisk 3D Ultra 4TB verbauen (nicht die billigen Plus). Ob jetzt im Array oder Pool, kann man dann immer noch sehen. Toshiba haben meistens keine Garantie fĂŒr Endkunden. Bitte mit dem HĂ€ndler klĂ€ren. Bei kleinen HDDs auch immer vergewissern, dass es CMR und keine SMR sind. Ansonsten kannst du kaufen was du magst. Schlechte HDDs gibt es nicht (mehr). Bei AMD kannst du die iGPU nur fĂŒr Transcoding und unRAID nutzen, aber nicht in VMs. Das geht nur mit Intel und auch nur bis zur 10ten Generation.
  22. Nun dann funktionieren die Unix Extensions des Samba Servers nicht. Sicher, dass deine Config korrekt ist und auch geladen wurde? Sicher, dass der Share selbst diese Regel nicht aushebelt? Das kann nur eine Kleinigkeit sein. Ich schaue mal, dass ich herausfinde, wo es in Ubuntu hakt.
  23. Nein. Sollte sogar die sicherste Methode sein.
  24. Nein und daran wird sich erstmal auch nichts Àndern, da denke ich eine Testprozedur entwickelt werden muss, die eine ungeeignete SSD erkennt. Bis dahin muss man es selbst ausprobieren. Also Array mit Parity, Dateien löschen, Garbage Collection abwarten und einen Parity Check machen. Wenn keine Fehler auftreten, ist die SSD geeignet. Wenn man auf Nummer sicher gehen will, nimmt man Enterprise SSDs wie Samsung SM883 oder PM897. Gegen "normale" Samsung spricht aber meiner Ansicht nach auch nichts.
×
×
  • Create New...