Jump to content

hawihoney

Members
  • Posts

    3,497
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Weil je nach Auslastung die Informationen nicht mehr im Cache liegen. Die zusätzliche Verwaltungsebene FUSE (!!!) muss irgendwo zwischenspeichern, was alles auf dem User-Share und dessen zugeordneten Platten liegt während in meinem Fall die exakte Platte in der sqlite Tabelle media_parts Spalte file von Plex direkt vermerkt ist. Ich rede von großen Installationen bzw. begrenzten Ressourcen bei denen das passieren kann. Bei mir war es über ein Jahr so, bis ich in Plex auf Disk Shares umgestellt habe. Den Effekt den ich persönlich erfahren hatte ist: Ich klickte in Plex auf Content. Danach starteten nacheinander alle Platten des in Plex hinterlegten User-Shares. Bei damals 24 Platten im User Share dauerte das ca. 3-4 Minuten bis der Content tatsächlich startete. Damals hatte ich dann auf Disk-Shares umgestellt und alles war gut - maximal 15 Sekunden bis die eine, direkt angesprochene Platte gestartet war. Plex ist übrigens in so einem Fall des Verschiebens oder Umhängens clever genug und tauscht nur den Wert in der Spalte file in der Tabelle media_parts aus. Der Rest bleibt unverändert. Lass uns aufhören, wir drehen uns im Kreis.
  2. Süß Irgendjemand muss am Ende des Tages entscheiden, wo die tatsächliche Adresse des Content liegt. In meinem Fall (Disk-Shares) fragt Plex nach: /mnt/disk1/Bilder/yyyy/yyyy xyz/yyyymmdd hhmmss abc.jpg Im alternativen Fall (User-Shares) fragt Plex nach: /mnt/user/Bilder/yyyy/yyyy xyz/yyyymmdd hhmmss abc.jpg Wir sind uns doch einig, dass im letzteren Fall eine weitere Verwaltungsebene zwischengeschaltet ist, oder? Und wenn wir uns darüber einig sind, dann könnte es doch sein, dass wir uns darüber einigen könnten, dass diese Verwaltungsebene zusätzliche Resourcen benötigt. Und an dieser Stelle einfach weiter denken Wie gesagt, wir reden nicht über - ahem - 8 Platten. Wir reden über mächtig viel Content. Da gibt es zwei Varianten und beide wurden in diesem Thread angesprochen.
  3. Welche Platte fährt denn Plex im User-Share hoch? Nein, so funktioniert das nicht. Plex greift auf Content im User-Share zu und wenn Unraid die Verwaltungsdaten der zugehörigen Platte des Contents im Cache hat, dann klappt der unmittelbare Zugriff. Sonst nicht. Warum gibt es denn sonst diese Cache Plugins. Ist aber auch egal. Ich habe das selbst erfahren müssen und erst die Umstellung auf Disk-Shares in Plex hat Abhilfe geschafft. BTW, es geht um über 400 TB hier.
  4. Weil Format nur die Verwaltungsinformationen für ein leeres Dateisystem schreibt. Wie machst Du das denn jetzt? Array inkl. dieser Platte gestartet oder nicht? Ich befürchte, dass Du alles machst ohne die Hintergründe von Unraid zu beachten. Dann wird es noch viele weitere Probleme geben.
  5. Du hast das System mit den Parity Platten nicht verstanden. Darauf befinden sich die kumulierten Bits aller Array Platten. Da kann man nix runter kopieren. Parity Platten haben noch nicht mal ein Dateisystem. Wenn der letzte von Dir oben beschriebene Schritt die Datenwiederherstellung war, dann wurde genau das, was zuvor auf der Platte war, rekonstruiert. Und das war dann wohl eine frisch formatierte Platte. Wie gesagt, es sollte vorsichtshalber noch eine weitere Person hier rein schauen. Ich bin mir aber ziemlich sicher ...
  6. Wie gesagt, dass hängt am RAM-Ausbau, der Menge des Content, der Anzahl der Platten im User-Share und dem Cache-Status. Bei kleineren Systemen mag das klappen, bei mir war der Schwellenwert schon vor Jahren überschritten:
  7. Ich denke, dass nur die Zuordnung "Cache=Nur|Only" im Share "Downloads" das Problem ist. Alles landet auf dem 250 GB Cache und wird niemals ins Array geschrieben. Meiner Meinung nach muss er nur beim Share "Cache=Ja|Yes" setzen und den Mover anschmeißen, oder?
  8. Ich fürchte Du hast durch das Formatieren die Platte leer gemacht. Gleichzeitig wurde durch das Formatieren die Parity aktualisiert. Bei der Datenwiederherstellung wurde das Ergebnis des Formatierens wieder zurückgespielt. Hast Du ein Backup der Daten? Wenn ja, kopiere es einfach wieder auf die Platte. Wenn nein, dann muss jemand anderes hier reinspringen. Meiner Meinung nach wurde die Platte beim Formatieren gecleared und anschließend erst formatiert. Kann das jemand bestätigen?
  9. Plex spricht dann halt gezielt die eine Platte an und nicht einen User-Share. Je nach RAM-Ausbau, und RAM-Cache Status, kann Unraid bei Nutzung des User-Shares gezwungen sein mehrere Platten hochzufahren. Das entfällt dann komplett. Es gibt hier sogar Disk-Caching Plugins um das Problem zu umgehen. Diese Plugins lesen dann regelmäßig alle Platten um den RAM-Cache zu füllen. Das braucht man bei Nutzung von Disk-Shares in Plex überhaupt nicht. So sieht das bei mir aus:
  10. Wie hast Du das formatiert? Du hast das Array gestoppt, die Platte auf XFS gesetzt, das Array gestartet und dann? Der exakte Ablauf wird benötigt. Je nach durchgeführten Schritten hast Du nun eine leere Platte oder durch die Datenwiederherstellung nach wie vor verschlüsselte Daten auf der Platte.
  11. Der Share Downloads nutzt den Cache und der steht auf Cache=Only|Nur. Meines Wissens schreibst Du damit den Cache voll und es wird nichts ins Array verschoben. Ich denke dort müsste Ja|Yes stehen.
  12. Verstehe ich nicht: Handelt es sich um eine neue Platte oder eine Austauschplatte.
  13. Mußt Du nicht. Du kannst ja nach wie vor mit beidem arbeiten. Befüllen über die User-Shares, Plex liest über die Disk-Shares. Das Beste aus beiden Welten.
  14. Tut mir echt leid, aber meine alten Augen können diese winzige Schrift mit dem schwarzen Hintergrund nicht lesen. Irgendwas stimmt nicht mit der Download Zuordnung, aber das ist eher auf Grund des Musters geraten, die Buchstaben kann ich nicht erkennen. Jetzt verstehe ich auch warum weiße Schrift auf schwarzem Hintergrund augenschonender sein soll, man liest halt nicht mehr
  15. Bevor ich das Ensemble bei eBay einstelle: Verkaufe die u.a. Komponenten gebraucht gegen Abholung im Kölner Norden. Diese Komponenten waren lange Jahre bei mir im Einsatz und funktionierten bis zum Ausbau einwandfrei - mgutt war beim Ausbau dabei Das ist eine Monster Zusammenstellung mit extrem hoher konstanter Leistung. Ich dachte an irgendwas zwischen EUR 150 und EUR 200. Wie gesagt, gegen Abholung. Sollte das System wider Erwarten DoA sein, dann gibt es den Kaufpreis im Austausch gegen die Ware zurück (inkl. ggfs. notwendiger Versandkosten). 1x Supermicro X9DRi-F Mainboard 2x Intel Xeon E5-2680 v2 CPU (insgesamt 20 Kerne/40 Threads) 2x Supermicro SNK-P0050AP4 Cooler 8x 16GB RAM --> 128 GB Ein paar Bilder hängen an. Hier ein Link zu meinem alten System:
  16. In dem Du in Plex statt mit den User-Shares mit Disk-Shares arbeitest. Trage in den Libraries einfach alle Platten ein, die den entsprechenden Content enthalten. Z.B. Statt: /mnt/user/Movies --> /mnt/disk1/Movies --> /mnt/disk3/Movies Dazu muss natürlich in den Container-Settings /mnt (r-slave) statt /mnt/user/Movies gemappt werden.
  17. Weiß nicht wie Du auf den Betrag kommst. Habe selbst Anfang des Jahres aufgerüstet für eine dicke Kiste. Neues Server Motherboard (Supermicro X12SCA-F), neuer Prozessor (Intel Xeon W-1290P), neues RAM und Lüfter. Damit lag ich auf einem Drittel Deines o.g. Preises. Aber meine Kiste fährt, im Gegensatz zu Deinen erheblich höheren Anforderungen, "nur" 3 VMs und wird nicht zum Spielen genutzt. Es gibt hier professionelle/kommerzielle Hardware-Berater. Die können solche Einteilungen in Preissegmente/Use-Szenarien sicherlich vornehmen. Allerdings befürchte ich, dass es das nicht für lau gibt. Das geht m.E. weit über eine einfache Kaufberatung hinaus. Unter einer einfachen Kaufberatung verstehe ich "ich mache das, was brauche ich dafür". Im Gegensatz dazu ist "mach mir mal eine Liste was man alle machen könnte und was ich dafür benötigen würde" etwas ganz anderes ...
  18. The error says: Drive full. Download paused. Show screenshot of cache disk (main page) and container settings.
  19. Es waren Deine Anforderungen. 6 VMs, diverse Container, dedizierte Gaming Grafikkarte, dedizierte Soundkarte... Was hattest Du erwartet?
  20. Wo kommt denn das her - achtet auf den Schreibfehler: Ignoring unknown parameter "direcetory mask" Starte mal bitte im Maintenance Mode ohne Plugins. Meines Erachtens stimmt etwas nicht mit der Installation.
  21. Offline uncorrectable und Current pending sectors sind eindeutige Fehler. Sofern es eine funktionierende Parity sowie Backups der relevanten Daten gibt würde ich die Platte aber nicht sofort rauswerfen. Ich würde sie unter genauer Beobachtung halten. Mach regelmäßige Parity Checks und prüfe ob die Werte steigen.
  22. Habs gefunden, sorry für den überhasteten Post: lsusb -D /dev/bus/usb/001/010 [...] iSerial 3 4C530001110213121321 [...]
  23. Mir ist einer von zwei USB Devices abgestürzt. Das erste USB Device hängt als Unraid Boot Stick am Host. Das zweite USB Devices ist an eine VM durchgereicht. Beide sind vom selben Typ (Product:Vendor). Deshalb werden beide per Bus:Device angesprochen. Was mir nun fehlt ist die Verknüpfung zwischen einer disk-by-id zu einem Bus:Device. Das kann ich bisher sagen: root@Tower:~# ls /dev/disk/by-id/usb-* /dev/disk/by-id/usb-SanDisk_Cruzer_Fit_4C530001110213121321-0:0@ /dev/disk/by-id/usb-SanDisk_Cruzer_Fit_4C530001220213122434-0:0@ /dev/disk/by-id/usb-SanDisk_Cruzer_Fit_4C530001110213121321-0:0-part1@ /dev/disk/by-id/usb-SanDisk_Cruzer_Fit_4C530001220213122434-0:0-part1@ root@Tower:~# lsusb Bus 001 Device 004: ID 0781:5571 SanDisk Corp. Cruzer Fit Bus 001 Device 010: ID 0781:5571 SanDisk Corp. Cruzer Fit root@Tower:~# lsscsi [0:0:0:0] disk SanDisk Cruzer Fit 1.00 /dev/sda [2:0:0:0] disk SanDisk Cruzer Fit 1.00 /dev/sdc Im lsusb sind beide SanDisk zu sehen (Bus:Device 001:004 und 001:010). Eine ist aktiv im Host, von der zweiten suche ich nun den Bus:Device. Da ich Bus:Device vom Host ebenfalls nicht kenne, ist das schwierig. Gibt es irgendeinen Befehl mit dem man die Zuordnung zwischen diesen Informationen finden kann? TLDR: Wie finde ich vom /dev/disk/by-id/usb-SanDisk_Cruzer_Fit_4C530001110213121321-0:0 die Bus:Device Kennung? Vielen Dank.
  24. Nein. Ich würde grundsätzlich keine unterschiedlichen Techniken in einem Array oder Pool mischen. Entweder HDDs, SSDs oder NVMe/PCIe. Wenn man mischt, dann bekommt man immer den jeweils kleinsten Nenner. Ich will dich nur darauf aufmerksam machen, dass die beiden o.g. Pool Devices in einem Pool beim Schreiben maximal 550 MB/s erreichen und nicht die theoretisch möglichen 3500 MB/s der NVMe. Beim Lesen sieht es anders aus. Wenn Du Ausfallsicherheit brauchst aber keine andere Möglichkeit siehst, dann mach halt diesen Pool. Du solltest dann halt nur wissen was Dich erwartet.
  25. Sehe ich das richtig? Du kombinierst eine SSD und eine NVMe in einem Pool? Die NVMe ist 6x schneller als die SSD. Der Pool wird nie sein Potential ausschöpfen können.
×
×
  • Create New...