Jump to content

hawihoney

Members
  • Posts

    3,497
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Der Vollständigkeit halber schau auch mal in die Global Share Settings innerhalb der Einstellungen. Dort kann man ebenfalls Festplatten ein- und ausschließen. Vielleicht hattest Du dort etwas eingestellt.
  2. Ja. Mit Spinnern im Unraid Array - nur wenn alle Platten permanent angeschaltet bleiben (das ist ein konfigurierbarer Modus des Arrays). Unraid ist im Kern auf Sparsamkeit, Erweiterbarkeit und Einfachheit getrimmt. Im Unraid Array schlafen nicht benötigte Platten standardmäßig. Wenn Performance gewünscht ist, nutzt man den in Unraid eingebauten Schreib-Cache (siehe Link). Dieser Schreib-Cache kann auf SSDs bzw. NVMe M.2 SSDs gelegt werden. Ein sogenannter Mover schiebt dann zu Ruhezeiten des Arrays (Nacht?) die neuen Daten vom Schreib-Cache auf das Array. Daten auf dem Schreib-Cache sind für den Benutzer transparent (Summe aus Array und Cache). Es gibt natürlich Rand-Anforderungen bei denen täglich Terrabyte-Weise Daten neu geschrieben werden. Da kann dieses Konzept eines Schreib-Caches an seine Grenzen kommen. Was sind Deine Anforderungen? https://wiki.unraid.net/UnRAID_6/Overview#Cache
  3. Ja. Es wird nur der FTP Server von Unraid abgeschaltet. Über Docker Container kannst Du dir dann eigene FTP Server installieren.
  4. Da fehlen Verzeichnisse (mnt, Library, etc).
  5. 1. Wo liegt denn /config/transcode auf dem Host? Ist das wirklich so gewollt? 2. Deine Ordnerstruktur lautet "/mnt/user/appdata/binhex-plexpass/Library/Application Support/Plex Media Server/Plug-in Support/Databases". Wenn das nicht klappt, dann stimmt etwas anderes nicht.
  6. Ich muss ja immer alles automatisieren Im Moment und für ein paar Wochen läuft noch das Plex Deep Analyze. In der Zwischenzeit werde ich mir mal darüber Gedanken machen. Habe auch schon ein paar Links gesammelt. Manuelles Handling ist keine Option ...
  7. Die Kombo ist etwas über ein halbes Jahr im Einsatz und hat alle Erwartungen erfüllt - wenn nicht mehr. Drei durchgehend laufende Unraid Server dümpeln im Leerlauf bei insgesamt 1% der CPU. 4K Transcodes? Kein Thema. Derzeit läuft durchgängig ein Plex Deep Analyze Skript, da Plex das nicht für älteren Content ab Aktivierung nachpflegt. Das erzeugt eine hohe Lese- und CPU-Last. Kein Thema für den 1290P. Nur die PGS Subtitle können bei 4K Content mit hoher Bitrate zwicken - solche Mechanismen sind leider immer noch single-threaded.
  8. Eine Alternative: Nicht ganz so üppig mit PCIe (3x) bzw. M.2 (2x) ausgestattet wie gewünscht. Aber ich stehe halt auf Supermicro server-grade Hardware: Supermicro X12SCA-F Mainboard Intel Xeon W-1290P CPU Samsung 32 GB M391A4G43AB1-CVF RAM Da steht dem "data-collecten" nichts im Wege:
  9. Bei Dir ist das schon i.O. Du hättest sonst die Duplikat-Einblendungen auf den Covern. Ob Du Duplikate hast kannst Du auch in der Mediathek sehen wenn Du dort den Filter Duplikate wählst. Klick mal auf "Alle" und wähle dann "Duplikate". Die Duplikate verschwinden durch das Leeren des Papierkorbs. Sollten einzelne nicht verschwinden, dann hast Du tatsächlich Duplikate. Klick dann auf dem Content auf "Medien Info", dann siehst Du wo die Duplikate liegen.
  10. Vor ca. einem halben Jahr stand das mal im Changelog des Plex Media Servers (intelligenter Umgang beim Pfad-Wechsel). Ich habe aber meine alte Vorgehensweise beibehalten. Kostet nix. Bin halt Old-School. Da ich ausschließlich mit Disk-Shares arbeite, und zugleich oft bessere Versionen von Content einspiele, bedeutet das zwangsläufig eine Änderung der Disk wenn der neue Content größer ist. Ich habe diesen Vorgang also nahezu täglich.
  11. Erst in Plex Mediathek Dateien einlesen, dann erst Papierkorb leeren. Sonst verliert man Informationen. Beim Einpflegen neuer Daten kostet es etwas mehr Aufmerksamkeit, aber beim Abspielen ist es unschlagbar.
  12. Ich nehme an mit dem User Scripts Plugin. Da kann sudo tatsächlich weg. Verwirrt nur. Ok.
  13. Nur so am Rande, weil es mich interessiert: Wieso sudo? Führst Du die rsync Befehle in einer Container Konsole aus oder in der Unraid Konsole? Und wenn in einer Container Konsole dann könnte hier ein mögliches Problem liegen.
  14. In Deinem / sind 7,6 GB. In meinem 2 GB und mein Server wird wahrscheinlich ungleich fetter sein. Da musst Du suchen. Fang mit Deinen rsync Skripten an.
  15. Ich hatte meinen Post gelöscht, da ich erst beim zweiten Blick gesehen hatte, dass Du damit einen Backup zurückspielst. Wie auch immer: Irgendetwas schreibt ins RAM. In nahezu 100% der Fälle ist das /mnt oder /tmp. Das können fehlkonfigurierte Container oder eben rsync sein. Da musst Du ansetzen. Schau genau in /mnt bzw. /tmp rein. Alles was z.B. unter /mnt nicht wie ein Disk/User/Pool/Share unter user oder disks oder remotes lautet ist falsch. Da es meist bei rsync passiert ist das wohl der Auslöser.
  16. Die Vorgehensweise zwischen Array und Cache/Pool Devices unterscheidet sich. Für ein BTRFS RAID im Cache/Pool: -stop array, remove failing device in the pool -start array, let BTRFS work -stop array, add replacement device -start array, let btrfs work
  17. Es gibt mehrere mit dieser Fehlermeldung - mich eingeschlossen. Bei mir reicht es ein Update der VM Konfiguration zu erzwingen bzw. sie mit einem Backup der Konfiguration im XML Modus zu füttern. Irgendwie verhaspelt sich das System manchmal und durch Ändern, ggfs. mit identischen Werten, klappt es dann. Insofern muss m.M.n. eine Änderung des RAMs nicht die Lösung zu sein. Einfach die Tatsache, dass etwas geändert wurde, könnte schon die Lösung gewesen sein.
  18. Just a simple test: Change the Container Mapping from /mnt/user/downloads to the corresponding /mnt/diskx/downloads and look what happens. If the result is the same, you need to check within NZBGets path settings.
  19. It's worth checking the Path settings within NZBGet. The main path is /config as default ...
  20. Alles klar. Da liegen die von Nextcloud generierten previews, etc. Die meinen mit appdata einen Ordner innerhalb des data Ordners. Der data Ordner wurde beim Anlegen von Nextcloud erstellt. Dieser appdata Ordner hat nix mit Unraids appdata Ordner zu tun. Hatte schon einen Schreck bekommen
  21. Den kenne ich nicht, habe ich noch nie gemacht. Muss mal nachlesen was der macht. Meine Devise: Don't touch a running system. Wenns läuft, würde ich die ignorieren. Das muss Nextcloud aufräumen. Das sind die Rechte dieser Datei. Ist bei mir ebenfalls. Da ich da nie dran war ignoriere ich das: root@bb4117473da0:/# ls -lisa /etc/my.cnf.d/custom.cnf 8389742 0 lrwxrwxrwx 1 root root 18 Nov 21 05:35 /etc/my.cnf.d/custom.cnf -> /config/custom.cnf
  22. Ist aus der Ferne schwer zu sagen. In der MariaDB liegen nur die Verwaltungsdaten von Nextcloud. Die eigentlichen Daten als Dateien in Nextcloud. Du kannst den o.a. mysqldump im laufenden Betrieb von der Unraid Konsole ausführen. Wenn der klappt bist Du auf der sicheren Seite. Ich tippe eher auf Nextcloud. Das ist für mich der eigentliche Wackelkandidat von den beiden Containern. Hast Du den OCC Scan über den gesamten Nextcloud Content laufen lassen?
  23. Unraid runterfahren, defekte Platte ersetzen (max. 8 TB), Unraid hochfahren. Die Anweisungen auf der Hauptseite aufmerksam lesen und befolgen. In der Dropdownliste die defekte Platte gegen die neue tauschen und den Rebuild starten. Während des Rebuilds kann weiter gearbeitet werden. Besser aber keine Massendaten gleichzeitig bewegen. Unbalance? Keine Ahnung wofür das in der Situation gut sein soll.
×
×
  • Create New...