Nextcloud, external Storage Plugin


SidM

Recommended Posts

Gunten Abend zusammen.

 

Ich habe mir jetzt mal Nextcloud aus der knex666's Repository geladen und dazu den MariaDB von @mgutt.

Funktioniert soweit und jetzt wollte ich meine Shares mit den external Storage Plugin von Nextcloud einbinden.

 

Dies funktioniert leider nicht da mir der Hinweis "smbclient ist nicht installiert. Das Hinzufügen von “SMB/CIFS”, “SMB/CIFS mit OC-Anmeldung” ist nicht möglich. Bitte wende Dich zur Installation an den Administrator." angezeigt wird.

 

Einen SMB Clienten habe ich aber nicht unter den Nextcloud Plugin gefunden, unter dem Link habe zwar die Befehle gefunden, dies hat aber nicht ab dem Befehl "vi php.ini" funktioniert.

Auch glaube ich nicht, dass dies der richtige weg ist, da nach einen Update des Container die Änderung wieder rückgängig gemacht werden oder?

 

Gibt es noch einen anderen Weg die Shares einzubinden, der vielleicht auch besser ist als über den external Storage? Spricht was dagegen die Shares direkt über weitere Path's in den Nextcloud Docker einzubinden?

 

Ich habe auch Testweise mal den Nextcloud Container von "linuxserver's Repository" probiert, hier bekomme ich aber keine Verbindung zur MariaDB zustande. Dort kommt dann die Fehlermeldung "MySQL-Benutzername und/oder Passwort ungültig Sie müssen Details von einem existierenden Benutzer einfügen." 🤷‍♂️🤷‍♂️🤷‍♂️

 

Und zu guter Letzt, welchen von den Containern sollte man wählen? Ich habe den von knex666's Repository ausgewählt, weil dort stand dass Onlyoffice mit Integriert ist. Sollte doch aber über die Plugins auch bei linuxserver's Repository möglich sein oder nicht?

 

Vielen Dank!

 

LG Pierre.

 

Link to comment
24 minutes ago, SidM said:

Gibt es noch einen anderen Weg die Shares einzubinden, der vielleicht auch besser ist als über den external Storage?

 

Es gibt verschiedene Wege - hier wie ich es machen würde:

 

1.) Unraid Plugin "Unassigned Devices", mit diesem werden SMB Zugänge "Unraid-konform" verwaltet.

2.) In den Nextcloud Container diese Zugänge (/mnt/remotes/...) als r/w/slave Path-Mappings aufnehmen.

3.) Diese Zugänge innerhalb Nextcloud als "External Storages" mit "nobody:" aufnehmen.

 

Welcher Container: Ich nutze LSIO - benötige aber auch kein Online Office Tool wie in neueren Containern. Mir reicht das.

 

Edited by hawihoney
Link to comment

Den Punkt mit Unassigned Devices verstehe ich nicht wirklich. 

Nur um keine Missverständnisse zu erzeugen: Ich möchte keine Remoteshares aus einen anderen Rechner einbinden sondern "nur" die Shares von meinen Unraid, auf den jetzt auch Nextcloud installiert ist. 

Deswegen sollte ja das reguläre Path-Mapping wie z.b. /mnt/user/Betriebssysteme reichen?

Mit "nobody meinst du genau was?

 

So ist das Okay?

2022-09-28.thumb.png.c9f6cc87633c1d166a3d3c0b7fbff62f.png

 

Verbesserungsvorschläge?

Hätte die alternative Anbindung über SMB irgendwelche Vorteile im Gegensatz zu dieser Variante?

Ich frage nur weil in dem Video von The Geek Freaks dort die Shares so angebunden werden. Für mein Verständnis sehe ich kein Grund das so zu machen🤷‍♂️

 

LG Pierre.

Link to comment
36 minutes ago, SidM said:

alternative Anbindung über SMB

 

Worauf zeigt "/mnt/share2"? Ist das ein lokaler Pool? Aus Deinem Post ging nicht hervor ob es sich um lokale oder remote Ordner handelt. Die vielen Worte zu SMB und CIFS verleiteten mich in die remote Ecke. 

 

Wenn das also lokal ist: nobody kommt dann in die globalen Anmeldeinformationen.

 

Link to comment

Das war jetzt einfach erstmal als Testversuch, deswegen dieser Name. In diesem Beispiel habe ich den Share "/mnt/user/Betriebssysteme" über das Path-Mapping des Nextcloud Containers mit "/mnt/share2" an Nextcloud eingebunden.

 

Bei mir geht im Moment wirklich nur um die lokalen Share's von Unraid auf den auch selber der Nextcloud Container läuft. 

Ich war nur aufgrund des Videos der Annahme, dass die Anbindung über SMB die "richtigere wäre", schau mal ab Minute 22:15, da wird der Punkt genannt.

Da ich selber noch Anfänger bin, kann ich das auch schlecht beurteilen, welches jetzt der richtige Weg ist.

 

Da ich bis jetzt die Globale Anmeldeinformation nicht angerührt habe, also kein Eintrag dort getätigt habe und es trotzdem funktioniert. Was bewirkt der Eintrag von nobody ?

Ich verstehe das so: Wenn ich remote Shares einbinden möchte, kann ich hier einmalig den User und Password eingeben um das nicht für jeden einzelnen externen Speicher einzeln machen zu müssen. (natürlich nur wenn mehrere Share's den gleichen Benutzer/Passwort haben) Hingegen wird das bei Local nicht benötigt, da hier unter Authentifizierung auch nur "Keine" ausgewählt werden kann.

 

 

Link to comment

ich würde eher vorschlagen den "normalen" Weg zu gehen.

 

du willst deine lokalen shares einbinden, dazu müssen diese auch in Nextcloud gemounted sein

 

Beispiel in den Docker Einstellungen, /mnt/user/... ist jetzt in Nextcloud unter /mnt/Share/... eingebunden.

image.thumb.png.91c25571a90dd22c416128c3b49a96fd.png

 

und jetzt in Externer Speicher einfach einbinden, hier wäre dann __MEDIA und /mnt/Share/Media was lokal /mnt/user/Media ist

image.thumb.png.4fcfa370fec5e4485a5349bdd52a75ff.png

Resultat

image.thumb.png.50799d60965d2e9dc552d7ae9d77d1cf.png

 

erledigt.

  • Thanks 1
Link to comment
11 hours ago, SidM said:

Was bewirkt der Eintrag von nobody ?

 

nobody ist der Standard-User unter Unraid. Ok fangen wir vorne an:

 

Ich bin faul, nutze aus verschiedenen Gründen keine User-Shares und weiß was ich mache. Ich übergebe einen Disk-Share an den Container an die selbe Position:

 

image.png.f854ff1114600a7f067e851c3c72813d.png

 

Meine existierenden Ordner trage ich in Nextcloud als Externe Speicher ein:

 

image.png.b1b0bd054ca2e73b0514eec5461943c5.png

 

Und da wir hier kein Hochsicherheitssystem betreiben nutzen wir den Standard-User nobody ohne Passwort als Zugang. Wer zugreifen darf lösen wir beim Externen Speicher in der Spalte "Verfügbar für":

 

image.png.68f627f71802e528592f7ce9d7bda758.png

 

Das ist alles. Das Ergebnis sieht dann unter "Dateien" so aus:

 

image.png.f23d68af15c4cc65dca787e014a1bbf9.png

 

Unter Windows oder auch Android nutzen wir WebDAV als Nextcloud Zugang zu den Dateien, Den Link findest Du in Nextcloud unter "Dateien" in den "Einstellungen". Da Nextcloud i.d.R. ohnehin von außen erreichbar gemacht wird, hat das den charmanten Vorteil, dass Du mit jedem Gerät, von überall, auf Deine Nextcloud Instanz zugreifen kannst:

 

Clipboard01.jpg.a3adffc1bb724f36a9edc9ede6bd1796.jpg

 

Das hat den smarten Vorteil, dass die Dateien Unraid-konform mit dem User "nobody" auf der Platte landen. Es gibt noch einige andere Wege um Nextcloud zu konfigurieren. Wir nutzen es so seit Jahren:

 

image.png.10452e2a2c948683598ba273c09dcc43.png

 

 

Edited by hawihoney
  • Thanks 1
Link to comment
12 hours ago, SidM said:

smbclient ist nicht installiert.

Dh der Nextcloud Container besitzt die Software "smbclient" nicht. Und nein, man kann keine Software nachinstallieren (geht schon, ist aber nicht unbedingt zuverlässig).

 

Es wäre aber über SMB eh mit unnötigem Overhead verbunden, als wenn man gleich lokal auf die Dateien zugreift. Daher ist @hawihoneys Lösung die beste. Natürlich geht auch /mnt/user/sharename als Pfad, wenn du nicht /mnt/diskX/sharename nehmen möchtest.

  • Thanks 1
Link to comment

Danke wieder einmal für die großartige Hilfe hier.

 

Das mit den Path-Mappings in den Container kannte ich ja bereits und wäre auch mein erster Weg gewesen die Shares so einzubinden, wenn ich nicht durch das Video so verunsichert bzw. auf die andere Fährte gebracht worden wäre.

 

Momentan ist meine Einstellung bei allen Shares so, dass alle Festplatten inkludiert sind. Das hieße z.B. beim Share "Movies" der auf 5 Platten verteilt ist, dass ich dann 5 Path-Mappings alleine für diesen Share machen müsste, um alles unter Nextcloud zu sehen.

Wenn ich dann noch 5 weitere Shares einbinden möchte, die auch über die Platten verteilt sind kommen einige Path-Mapping zusammen.

 

Von daher denke ich, ist in diesem Fall die Nutzung von User-Shares besser als Disk-Shares.

Aber apropos Overhead @mgutt, korrigiere mich bitte, wenn ich falsch liege: Die Performance über Disk--Share ist immer besser, als wenn ich die User-Shares nutze!?

Das hieße, dass ich meine Shares lieber so umstellen sollte, dass z.B. die Shares Dokumente, Bilder, Musik lieber jeweils nur auf einer Festplatte liegen.

 

Wisst ihr was das ungefähr an Durchsatz/Latenz ausmacht? Also lohnt es sich überhaupt?

 

 

Da ich noch am Probieren und am einlesen bin, ist meine Nextcloud noch Offline. Hier habe ich schon oft die Begriffe SWAG, Nginx-Proxy-Manager gelesen, weiß aber noch nicht was das richtige für mich ist. 

Da ich auf meinen Laptop, iPhone und iPad eh einen Wireguard VPN-Tunnel On-Demand habe, ist das bis jetzt auch nicht notwendig.

Da aber das Ziel ist, für jedes Familienmitglied einen Zugang für Nextcloud zu erstellen, ist VPN hier nicht die richtige Lösung.

 

@hawihoney gibt es einen Vorteil mit WebDAV? Auf den PC und iPhone hatte ich mir für den Zugriff einfach die Nextcloud APP/Anwendung geladen.

 

LG Pierre.

 

Link to comment
2 hours ago, SidM said:

Auf den PC und iPhone hatte ich mir für den Zugriff einfach die Nextcloud APP/Anwendung geladen.

 

Die hat bei uns nicht immer funktioniert. Deshalb wurde sie gelöscht und WebDAV im ohnehin installierten Dateimanager+ eingerichtet.

 

2 hours ago, SidM said:

Das hieße z.B. beim Share "Movies" der auf 5 Platten verteilt ist, dass ich dann 5 Path-Mappings alleine für diesen Share machen müsste, um alles unter Nextcloud zu sehen.

 

Movies in Nextcloud? Was will man denn damit? Dafür gibt es bessere Lösungen wie Plex und Konsorten. Wir haben den gesamten Content unter den beiden Spezialisten (Nextcloud, Plex) strikt aufgeteilt.

 

Link to comment
4 hours ago, SidM said:

korrigiere mich bitte, wenn ich falsch liege: Die Performance über Disk--Share ist immer besser, als wenn ich die User-Shares nutze!?

Das hieße, dass ich meine Shares lieber so umstellen sollte, dass z.B. die Shares Dokumente, Bilder, Musik lieber jeweils nur auf einer Festplatte liegen.

 

Wisst ihr was das ungefähr an Durchsatz/Latenz ausmacht? Also lohnt es sich überhaupt?

So gesehen ist der Durchsatz höher, wenn man von verschiedenen Platten liest, aber da man ja selten 10 Dokumente parallel lädt, wird man davon nichts haben. Es macht eher Sinn Dokumente auf einer Platte zu haben, damit die anderen Platten schlafen können.

 

Ansonsten sind Zugriffe auf /mnt/disk1/sharename tatsächlich schneller als auf /mnt/user/sharename und verursachen auch weniger Last auf der CPU, aber einen spürbaren Vorteil hast du dadurch nicht. Spürbar ist es aber bei Containern und dem Appdata Share. Eine MariaDB auf /mnt/cache/appdata/mariadb ist 10x schneller als auf /mnt/user/appdata/mariadb

Link to comment
15 hours ago, SidM said:

Das hieße, dass ich meine Shares lieber so umstellen sollte, dass z.B. die Shares Dokumente, Bilder, Musik lieber jeweils nur auf einer Festplatte liegen.

 

Nein, so pauschal würde ich es nicht sagen. Was aber bei größeren Systemen (viele Platten) bei Zugriff auf /mnt/user/ Shares vorkommen kann:

 

Wenn die Verzeichnisstruktur oder deren Inhalt, aus welchen Gründen auch jmmer, nicht vom OS gecacht ist, dann wird jede Platte in diesem User-Share nacheinander hochgefahren und durchsucht. Das kann dann schon mal bis zu 15 Sekunden pro Platte Verzögerung bewirken.

 

Wenn Du nur 1-4 Platten nutzt (ist keine offizielle Regel sondern nur mal so rausgehauen) dann geh ruhig mit User-Shares.

 

Jetzt kennst Du einige der Gründe und kannst für Dich selbst entscheiden.

 

Edited by hawihoney
Link to comment
19 hours ago, hawihoney said:

 

Die hat bei uns nicht immer funktioniert. Deshalb wurde sie gelöscht und WebDAV im ohnehin installierten Dateimanager+ eingerichtet.

Okay gut zu Wissen, ich werde es beobachten, bei den ersten Versuchen sah es ganz gut aus!

 

19 hours ago, hawihoney said:

Movies in Nextcloud? Was will man denn damit? Dafür gibt es bessere Lösungen wie Plex und Konsorten. Wir haben den gesamten Content unter den beiden Spezialisten (Nextcloud, Plex) strikt aufgeteilt.

Ich wusste es schon beim schreiben, dass der Movie-Share hier jemanden triggern könnte 🙂 

War nur als provokatives Beispiel gedacht und habe selbstverständlich PLEX dafür im Einsatz. Wüsste auch nicht was ich damit in Nextcloud machen sollte ;-) 

 

17 hours ago, mgutt said:

So gesehen ist der Durchsatz höher, wenn man von verschiedenen Platten liest, aber da man ja selten 10 Dokumente parallel lädt, wird man davon nichts haben. Es macht eher Sinn Dokumente auf einer Platte zu haben, damit die anderen Platten schlafen können.

Klingt logisch und wird so umgesetzt! Also Dokumente nur auf einer Platte.

 

17 hours ago, mgutt said:

Ansonsten sind Zugriffe auf /mnt/disk1/sharename tatsächlich schneller als auf /mnt/user/sharename und verursachen auch weniger Last auf der CPU, aber einen spürbaren Vorteil hast du dadurch nicht. Spürbar ist es aber bei Containern und dem Appdata Share. Eine MariaDB auf /mnt/cache/appdata/mariadb ist 10x schneller als auf /mnt/user/appdata/mariadb

10x Schneller? Wow das ist mal ne Ansage! Dann werde ich mal meine Docker nach und nach auf /mnt/cache/appdata/.... umstellen!

 

6 hours ago, hawihoney said:

 

Nein, so pauschal würde ich es nicht sagen. Was aber bei größeren Systemen (viele Platten) bei Zugriff auf /mnt/user/ Shares vorkommen kann:

 

Wenn die Verzeichnisstruktur oder deren Inhalt, aus welchen Gründen auch jmmer, nicht vom OS gecacht ist, dann wird jede Platte in diesem User-Share nacheinander hochgefahren und durchsucht. Das kann dann schon mal bis zu 15 Sekunden pro Platte Verzögerung bewirken.

 

Wenn Du nur 1-4 Platten nutzt (ist keine offizielle Regel sondern nur mal so rausgehauen) dann geh ruhig mit User-Shares.

 

Jetzt kennst Du einige der Gründe und kannst für Dich selbst entscheiden.

 

Mit OS meinst du das von den Clienten, die auf Unraid zugreifen oder? Ich wusste gar nicht dass es OS gibt die Verzeichnisstrukturen cachen?

Dazu wollte ich mir mal das Plugin "Dynamix Cache Dirs" anschauen, welches ja das Verhalten verhindern sollte?

 

Bei mir werden nämlich noch die Platten hochgefahren wenn ich z.B. mein Win 10 Laptop starte, bzw. den Explorer öffne.

Was ja auch logisch ist, da ich dort ein paar Shares über die Netzwerkadresse hinzugefügt habe.

 

 

Link to comment
1 hour ago, SidM said:

werde ich mal meine Docker nach und nach auf /mnt/cache/appdata/.... umstellen!

Achte bitte darauf, dass wirklich keine Daten von appdata im Array liegen, denn sonst zerstörst du dir die Container. Daher auch appdata auf cache prefer oder only stellen. Am besten prefer, docker dienst stoppen, mover starten und wenn der fertig ist kannst du auf /mnt/cache umstellen.

Link to comment
4 hours ago, SidM said:

Mit OS meinst du das von den Clienten, die auf Unraid zugreifen oder?

 

Nein, den Server. Beispiel: Ich habe ein Skript welches täglich über alle Platten läuft und prüft ob Plex neue Metadaten (folder, fanart, etc) hat als die, die auf der Platte liegen. Wenn ja, dann wird die Datei ersetzt. Wenn ich das Skript nach einem Reboot des Unraid Servers das erste mal starte, dann wird jede Platte aufgeweckt und durchsucht. Beim zweiten Start des selben Skriptes wird keine Platte mehr aufgeweckt bzw. nur die, auf die etwas geschrieben werden soll. Das meine ich mit gecachten Verzeichnisstrukten bzw. Dateistrukturen.

 

Wenn Du also von einem Klienten aus auf einen User-Share zugreifst (hinter dem sich - sagen wir mal - 4 Platten befinden) und deren Verzeichnis- und Dateistruktur sind nicht gecacht, dann wird Unraid unter Umständen jede Platte nacheinander hochfahren und suchen. Das passiert dann aber i.d.R. nur einmal.

 

Deshalb liegen bei uns in Plex ausschließlich Disk-Shares. Plex ist das egal ob Du 100 Disk-Shares in einer Mediathek hinterlegst. Wenn nun ein Content benötigt wird, dann weckst Du garantiert maximal nur eine einzige Platte auf. Selbst wenn nix gecacht ist.

 

image.png.861ce724d348a5df3eac455117bf8fe5.png

Edited by hawihoney
Link to comment
55 minutes ago, hawihoney said:

Wenn nun ein Content benötigt wird, dann weckst Du garantiert maximal nur eine einzige Platte auf. Selbst wenn nix gecacht ist.

@hawihoney ich hab das mal zum Spaß auch so gemacht ...

 

image.png.be70d4b23ccd7d60271f40200976d3ed.png

 

das Verhalten ist hier jedoch identisch mit meiner Ordnerstruktur, egal ob ich die Mounts separat anlege (screen) oder einmalig als /mnt/user/Media/TVRIPS

 

Anfangs wachen beim move und Einlesen in Plex trotzdem mehrere Platten auf, je länger Unraid läuft (mehr cached ist) desto stabiler ist das Spindown, nach einer Weile wachen die Disks hier dann gar nicht mehr auf ... aber Eingangs macht es (hier zumindest) 0 Unterschied ...

 

nur am Rand erwähnt ... so ganz geht die These (leider) hier zumindest nicht auf, am Ende kam ich zum Schluss, 1 - 2 Tage laufen lassen, nach ein paar Encodings und Spinups war es das dann und danach passiert nichts mehr ... das cache dir plugin hat das vielleicht etwas beschleunigt, aber den Overhead spare ich mir mittlerweile da es auch so funktioniert ...

 

meine Medien liegen auch verstreut muss ich sagen ...

 

image.thumb.png.72e426cb41815dab03dec6c8f33f8762.png

Link to comment
41 minutes ago, alturismo said:

Anfangs wachen beim move und Einlesen in Plex trotzdem mehrere Platten auf

Hast du die Überwachung in Plex an? Dann überwacht Plex jeden Ordner und durch Timestamp Änderungen dürfte dann der Ordner "TVRIPS" global triggern. Die Lösung wäre also ohne Ordner zu arbeiten, die auf mehreren Disks auftauchen. Wobei ich einfach komplett ohne Überwachung arbeite. Ich trigger das über die App. Und dieses Cache Plugin ist eh Banane. Der RAM wird ständig mal überschrieben. Dadurch hat man am Ende immer irgendeine Aktivität auf den Disks alleine durch das Plugin, die man sonst nicht hätte.

Link to comment
39 minutes ago, alturismo said:

das cache dir plugin hat das vielleicht etwas beschleunigt

 

Das Plugin nutze ich nicht. Wenn Du richtig testen willst, mach es ohne das Cache Dirs Plugin. Da ich heute morgen eine Zigbee Steckdose vor meinen Server gesteckt hatte, musste ich einmal komplett runter und wieder hoch fahren. Danach konnte ich den Effekt, wie eigentlich immer, beobachten. Ich nutze keine User-Shares habe sie aber nicht abgeschaltet.

 

Zum testen:

 

1.) Cache Dirs eleminieren. Einen User-Share in Plex eintragen der über mehrere Platten geht. Server neu starten. Spin-Down aller Platten. Zugriff auf Content - der nicht unbedingt auf der ersten Platte liegt. Alle Platten starten nacheinander.

 

2.) Cache Dirs eleminieren. Alle Platten des o.g. User-Shares als Disk-Shares in Plex eintragen. Server neu starten. Spin-Down aller Platten. Zugriff auf Content - der nicht unbedingt auf der ersten Platte liegt. Nur die eine Platte startet.

 

Ist bei mir immer so.

 

Link to comment
56 minutes ago, alturismo said:

cache dir plugin

 

Noch eine Analogie zu diesem Plugin:

 

KFZ-Hersteller schicken die Fahrzeuge unzählige Stunden in den Windkanal um sie möglichst effizient und mit wenig Wind-Widerstand zu produzieren. Das Fahrzeug wird verkauft und irgendein Depp schraubt einen Spoiler dran.

 

So kommt mir das Cache Dirs Plugin vor. Die Kernel Entwickler haben unzählige Stunden in das Paging und Caching investiert. Dann kommt ...

 

Nicht böse sein. IMHO ist das Plugin die Lösung für ein Problem das es nicht gibt. Lieber einen RAM-Riegel mehr rein und das Plugin raus, das erspart häufige Lesezugriffe des Plugins und damit verbundenes Aufwachen der Platten. Der Riegel ist dann schnell bezahlt ...

 

Nur meine 2 Cent.

 

Edited by hawihoney
Link to comment
19 minutes ago, mgutt said:

Ich trigger das über die App.

ich triggere auch manuell per API call in meinen script(s), nach Verschieben durch Filebot und nach Encoding nochmal (Format update) durch mein script.

 

21 minutes ago, mgutt said:

Und dieses Cache Plugin ist eh Banane

 

9 minutes ago, hawihoney said:

IMHO ist das Plugin die Lösung für ein Problem das es nicht gibt

Hier kann ich aktuell zustimmen, aber ganz ohne Funktion ist es anscheinend nicht, es gab eine Weile (6.7.x oder 6.8.x) wo das caching in Unraid (Kernel) kaputt war, und mit dem plugin konnte man das brücken ... sprich, es hat seinen Job gemacht, hat jedoch CPU Spikes mit sich gebracht ... nur als Info ...

 

Mittlerweile ist es jedoch kein Thema mehr, da stimme ich zu und wie erwähnt nutze ich es ja auch schon länger nicht mehr ;)

unnötiger Overhead ex wie oben erwähnt.

 

Meine Tests sind aktuell und ohne plugins dieser Art ... und auch egal wie, nach einem Reboot und 1 - 2 Spinups läuft alles wie es soll

meine Platten bleiben alle down da ich ja alles recht lange im cache belasse ... (Medien mind. 90 Tage, Rest immer mit tägl. Backup Strategie)

bei Medien Zugriff startet nur die Platte wo das entsprechende Medium liegt (egal ob single mounted oder /mnt/user ...)

 

Daher kann ich für mich sagen macht es 0 Unterschied ob so oder so in Plex und co mounted wird, es liegt anscheinend mehr daran wie der Server cached hat, wenn das passiert ist dann passt alles, frisch nach Reboot's dauert es ein oder zwei Durchgänge ... meine Erfahrung in meiner Konstellation.

 

und hier reden wir nur von Medien die "verstreut" liegen

 

als Beispiel, wenn ich bei diesen Serien eine Folge anmache dann läuft auch nur die spezifische disk an und nicht alle wo die Serie oder gar Staffel verstreut liegt, das funktioniert mittlerweile muss ich sagen und daher haben sich auch hier jegliche zusätzliche plugins erledigt ...

 

image.thumb.png.d6ff6c7dd998a7b777421b0625d7ccbd.png

 

ich hab den Spaß lange getestet und eine Zeit lang hart damit gehadert, am Ende war es dann die Kernel Version ... ;)

Link to comment
1 hour ago, alturismo said:

nach einem Reboot und 1 - 2 Spinups läuft alles wie es soll

 

Aber genau das ist hier der Unterschied. Bei Nutzung von Disk-Shares gibt es das nicht. Ich greife auf Film X zu, Plex weiß, daß der auf /mnt/diskX liegt und startet diese, und nur diese. Egal ob beim ersten Zugriff oder später.

 

Im Übrigen ist mir aufgefallen, dass beim Installieren von Unraid Updates (hier 6.11), nach dem Sync, der Cache entleert ist. Das würde bedeuten, dass nach dem simplen Installieren (ohne Reboot) eines Unraid Updates, User-Shares bei den ersten 1-2 Zugriffen komplett durchsucht würden.

 

 

Link to comment
18 minutes ago, hawihoney said:

Aber genau das ist hier der Unterschied. Bei Nutzung von Disk-Shares gibt es das nicht.

hier schon ;) du siehst doch oben dass ich auch disk shares aktuell nutze ;) anscheinend beschreibe ich nicht deutlich genug was ich meine ;)

 

ist ja jetzt auch egal und offtopic, wollte nur anmerken dass dies nicht generell gültig ist ... übrigens auf 2 unabhängigen Systemen hier im Vergleich, das Verhalten ist bei beiden Systemen identisch, meins mit parity, das andere (welches ich komplett warte) ohne parity.

Link to comment
8 hours ago, alturismo said:

hier schon

 

Ich weiß, ist off topic. Meiner Meinung nach stimmt dann aber etwas nicht. Das darf einfach nicht sein. Hätte viel zu viel IT in meinem Leben gebaut und begleitet um das bei mir zu akzeptieren. Zudem kenne ich sowohl die Plex Datenbank und die Metadaten Struktur auf der Platte ziemlich genau um zu verstehen wie das abläuft.

 

Wenn Plex appdata auf einem eigenen Device(Pool) liegt und Du mit Disk-Shares in den Mediatheken arbeitest, dann sind nur diese gefragt. Warum sollte Unraid auf die konkrete Frage nach /mnt/.../appdata/ und /mnt/diskx/.../*.mkv antworten "Ich mach mich mal auf die Suche auf ein paar anderen Platten".

 

Das widerspricht jeglicher Logik und Erfahrung und würde mich, wäre ich denn betroffen, fuchsteufelswild machen und ich würde Otto bei Plex bzw. die Jungs hier stündlich nerven. Auf der einen angefragten Platte dauert der erste Zugriff dann logischerweise minimal länger da noch nix gecacht ist.

 

Jedenfalls läuft das hier so. Und m.E. muss das auch so sein.

 

Was Plex alllerdings ganz gerne nach einem Neustart macht ist selbst mal kurz überall zu schauen. Das geht aber schnell und ich merke es nur wenn ich mich darauf konzentriere. Nach einem Server Neustart kontrolliere ich noch schnell ob alles läuft (VMs, Container, Mounts) und aktiviere dann den Spin-Down. Ab da ist dann Ruhe und nur betroffene Platten starten bei Bedarf.

 

Edited by hawihoney
Link to comment
  • 3 weeks later...

Kaum ist man mal weg, wird hier gleich der Thread gekapert 😆 Nee spaß beiseite...

Wenn hier gerade das geballte Plex wissen aktiv ist, hätte ich auch noch ne Offtopic Frage:

 

Ich habe in Plex verschiedene Mediatheken erstellt. Z.b 4K Blu-ray, Blu-ray, DVD, Märchen etc. Und dann noch eine Mediathek namens Movies, in der alle Ordner der einzelnen genannten enthalten sind. Dies ist dem geschuldet da Plex leider nicht die Möglichkeit bieten nach individuellen bzw. vorher manuell gescrapten Tags zu filtern.

Aber das ist ein anderes Thema.

 

Jedenfalls ist es so, dass wenn ich in der Mediathek "Movies" auf dem Reiter "Sammlung" gehe, dort mir leider die Filme nicht gruppiert angezeigt werden sondern auch bloß die gleiche Ansicht wie unter dem Reiter "Mediathek".

Aber dies passiert nur bei der Gesamten Mediathek "Movies" bei den anderen funktioniert es hingegen einwandfrei🙉

 

Jetzt wollte ich eigentlich deswegen mal die betreffende Mediathek unter Plex löschen und danach einfach nochmal neu anlegen.

Da gibt es aber noch ein Problem. Ich habe viele Filme mit Dolby Atmos und habe bei den entsprechenden Filmen den Zusatz manuell mit im Titel angegeben.

Die Filme selber sind auch alle so benannt, aber Plex übernimmt halt leider nicht den Dateinamen, sondern nimmt den originalen Filmtitel aus seiner Datenbank.

 

Wenn ich jetzt die Mediathek wieder neu hinzufüge, hieße das bei ca 300 Filmen wieder die Titel manuell zu ändern und darauf habe ich keine Lust.

Habt ihr noch ne andere Möglichkeit wie ich das wieder fixen kann?

 

Vielen Dank!

 

 

Link to comment
1 hour ago, SidM said:

da Plex leider nicht die Möglichkeit bieten nach individuellen bzw. vorher manuell gescrapten Tags zu filtern

 

Was soll denn ein Tag z.B. sein? Ich löse das über Sammlungen (z.B. "Logo" für Content mit Logo). Für Editions gibt es mittlerweile ein eigenes Handling - selbst im Dateinamen z.B. "Film (2022) {imdb-1234567} {edition-Director's Cut}.mkv".

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.