Jump to content

hawihoney

Members
  • Posts

    3,497
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Ursprünglich ja. Wusste nicht, dass es auch weitergehende Möglichkeiten gibt. Bin aber nach wie vor offen. Kommt auf den späteren USB-Stick bzw. die SSD an. Nein, der kommt definitiv nicht ins Array. Der Stick bzw. die SSD soll mal das NZBGet complete Storage aufnehmen. Bis vor Kurzem lief das NZBGET Storage auf dem Array und somit waren immer drei Platten (Datenplatte sowie zwei Parity Platten) involviert. Davon wollte ich weg. Und da ich die Backplane voll habe, suchte ich nach einer weiteren Möglichkeit. Seit Kurzem "hängt" eine 3,5" Platte nackt am eSATA Slotblech das ich mit @mgutts Hilfe hinten rausgeführt habe. Diese "nackte" Platte wiederum hängt an einem externen Stromadapter. Auch davon will ich weg. Da mein Supermicro SC846 Gehäuse nur einen Power Distributor besitzt, und ich mir schon dutzende Male vergeblich den Kopf darüber zerbrochen habe, welche der freien Kabel noch Strom liefern könnten, hänge ich völlig fest und suche jetzt nach der USB Lösung. Theoretisch müsste es am Power Distributor noch ein freies Stromkabel geben, denn in das Gehäuse kann man zwei interne Platten einbauen. Die Montage-Kits dafür habe ich sogar, aber meine Kenntnisse enden tatsächlich an der Stromversorgung. Mit diesem armdicken Kabelgedöns komme ich halt nicht weiter.
  2. Ich muss noch mal nachfragen: Die Beschreibung bei Amazon enthält den Text "Tipps: Bitte überprüfen Sie vor der Installation ob der USB 3.1 Typ E Port am Motherboard ist". Was bedeutet Typ-E? Ich habe weder im Quick Manual noch im User Manual von Supermicro weitergehende Informationen zu diesem USB 10 Anschluss gefunden.
  3. @alturismo Ja, genau. Da bei dem Adapter auch noch ein Slotblech dabei zu sein scheint, wäre das sogar noch besser. Ich habe leider noch keinen - sagen wir mal 2 TB - USB C Stick gefunden. Das sind immer gleich SSD Gehäuse. Die benötigen meines Wissens aber eine externe Stromversorgung. Ich wollte das aber gleich über den internen USB-Anschluss abwickeln. Gibt es überhaupt 2 TB USB die über den USB Port mit Strom versorgt werden können?
  4. Ich würde gerne an meinem X12SCA-F Motherboard einen USB-Stick an den internen USB Port mit der Bezeichnung "USB10/Front Panel Accessible USB 3.2 Gen 2 20-pin Connector" anschließen. Benötigt man dafür einen Adapter, und wenn ja welchen? Meine Back Panel USB Slots sind belegt und ich suche nach der Möglichkeit intern noch etwas anzuschließen. Außerdem suche ich genau für diesen USB Port einen USB-Stick. Der soll dann in den Unassigned Devices erscheinen. Der Stick muss nicht extrem schnell sein sondern eher verlässlich mit hoher TBW. Die Größe soll mindestens 2 TB betragen. Habt Ihr Tipps und Vorschläge für mich? Vielen Dank.
  5. Habe Schwierigkeiten Deinen Text zu verstehen. 2 Mbit/s klingt nach: 1.) Keine direkte Verbindung zu Deinem Server möglich also läuft die Verbindung indirekt. 2.) Alle Plex Klienten sind bei Remote Verbindung standardmäßig auf 2 Mbit/s gestellt. Das kann man in den Klienten ändern. Für mehr Hilfe benötigt man mehr Details.
  6. thetvdb liefert 16 Serien mit dem Titel. Wenn eine davon passt, dann kann das auch Plex. Man kann die imdb-id, tvdb-id, tmdb-id als Suchkriterium verwenden. Plex befindet sich mittlerweile auf dem Weg zum CDN. Mit dem neuen Plex Movie Scanner ging es los. Plex aggregiert die Datenbanken von imdb, tmdb, etc. und liefert die Daten aus dem eigenen Netzwerk: https://thetvdb.com/search?menu%5Btype%5D=series&query=terry-x Für alles andere: Ich habe mehrere Bibliotheken innerhalb Plex vom Typ "Andere Videos" für Familienvideos etc. Wenn es wirklich etwas gibt, was Plex nicht erkennt, dann kann man entweder zu den kostenfreien Datenbanken selbst beitragen oder auf "Andere Videos" auswechen.
  7. Nicht wirklich gut umgesetzt. Die Laufzeit der Intro-Detection ist hier bei allen Episoden der selben Serie in etwa gleich. Na ja, und manchmal liegt das Ergebnis eben daneben. IMHO gibts hier noch Verbesserungspotential.
  8. Plex nutzt ebenfalls Upstream ffmpeg. Du schreibst bei der Erwähnung von remote Wiedergabe immer von den schlechten kleinen Devices. Das muss nicht so sein. Im letzten Hotel vor vier Wochen in der Sonne hingen 65" an der Wand. Plex auf Smart TV installiert, via plex.tv mit meinem Server gelinkt und fertig. Natürlich muss da der Transcoder ab und zu auf dem Server einspringen, das liegt dann aber am WLAN im Hotel. Granaten Bild zum wegdösen im Bett nach 1-3 Daikiri DingsBums. Der TV wird dann bei Abreise in der Device Liste von Plex gelöscht und schon kennt der TV meinen Server nicht mehr. Ich muss schon sagen, das ist sehr komfortabel. plex ist beileibe nicht perfekt, ich selbst hadere mit einigen Nickeligkeiten, von denen einige erst kürzlich durch Updates rein kamen, aber als Client/Server Lösung für Medien Playback in der Ferne für sich selbst oder Familie/Freunde. Da sehe ich keine Alternative auf Augenhöhe. Und mal ehrlich: Der Server-Betreiber zahlt einmalig für die lebenslange Lizenz was? Etwas über 100 EUR? Und darüber muss man diskutieren?
  9. Was ich vergaß: Ich nutze in meinen rsync Befehlen, die in User Scripten stehen, bestimmt ein halbes dutzend --excludes hintereinander - z.B. bei Plex. Wenn Du tatsächlich mehr benötigst, dann würde ich mit voll qualifizierter Pfadangabe beim --exclude-from= arbeiten. Vom User Scripts Verzeichnis würde ich die Finger lassen. Erstell Dir doch einen eigenen Ordner für die Datei auf dem Flash. Da sie keine ausführbare Datei ist dürfte es kein Problem sein sie zu verwenden. rsync -avPX --delete-during --delete-excluded --exclude="Cache/" --exclude="Crash Reports/" --exclude="Logs/" --exclude="Updates/" --exclude="Diagnostics/" ...
  10. This ^^ Deshalb ist hier Untouched Zone 😉
  11. ... Inkl. die Möglichkeit eigene Preplay Videos vorzuschalten - Library übergreifende Collections - z.B. Musik und Filme. Diese Erscheinen dann auf den jeweiligen Detail Seiten. Man kann so eine Doku über einen Interpreten beim Interpreten anzeigen lassen und gleichzeitig den Interpreten beim Film - Extrem umfangreiche Web-URL API auf die Datenbank. Hab über 20 Python Skripte drumherum gebaut - Sonic Fingerprinting um ähnlich klingende Titel zu finden - Deep Content Analyze - damit keine Pause bei plötzlich auftauchenden Bitraten Spitzen passieren. Hab Content mit mehr als 100 Mbit/s in der Spitze. TV hat aber nur 100Mbit/s Anbindung. Da kickt der Transcoder wohl rechtzeitig rein
  12. Wäre schön, funktioniert aber leider nicht so. Du musst das Device Script wählen. Erst dann steht Dir das User Scripts Eingabefeld zur Verfügung. Die Logik hat sich mir nach erstem Lesen nicht erschlossen. Scheint also nix für mich zu sein:
  13. Fairerweise sollte man sagen, dass genau diese Kombination nur ein Teilbereich von Vielen innerhalb Plex ist. Einer der Stärken von Plex ist halt die Vielfalt an Plex Klienten. Deren Funktionsumfang unterscheidet sich ein wenig von Plattform zu Plattform. Ich bin viel unterwegs: In Hotels, in gemieteten Ferienhäusern. Erster Schritt ist immer zum TV. 1.) Kann ich Plex auf dem TV installieren oder muss ich meinen mitgebrachten Fire-TV anstecken. 2.) Ggfs. WLAN auf dem Fire-TV konfigurieren 3.) Klient mit plex.tv koppeln 4.) Nach insgesamt maximal 2 Minuten lehne ich mich zurück und hab, egal wo auf der Welt, das volle Programm inkl. meines Contents und des deutschen TV Programms (wenn man das denn braucht) zur Verfügung. Und das will man ernsthaft mit Kodi vergleichen ... Plex ist durch die remote Connection doch eine ganze andere Liga.
  14. Auch von unterwegs? Wenn Du das von Dir genutzte, ausschließlich lokal zu nutzende, Software-Produkt mit anderen vergleichen willst, dann ziehe zum Vergleich auch entsprechende Produkte heran. Plex spielt in einer Gruppe mit Emby, Jellyfin, ... Kodi spielt in einer Gruppe mit <keine Ahnung>. Genauso wenig wie ich Kodi remote verwenden kann, so würde ich Plex nicht bei ausschließlich lokaler Nutzung verwenden. Blöder Vergleich - der aber immer wieder hoch poppt. keine Ahnung warum.
  15. Gib mal folgenden Befehl auf der Unraid Konsole ein und poste das Ergebnis. Danach wissen wir von welchen Docker Containern noch die Konfigurationen existieren: ls -lisa /boot/config/plugins/dockerMan/templates-user/
  16. X12SCA-F mit Xeon W-1290P iGPU transkodiert in Plex astrein. IPMI läuft ebenfalls. Server läuft headless (keine Monitore mehr im Haus). Kein Passthru der Grafik in den VMs. 2x M.2 sprinten und drei LSI 9300-8(i/e) HBAs stecken. Das ist mit 128GB RAM quasi Vollausbau. Benötige derzeit keine SATA Ports. Feines Gespann.
  17. Beides widerspricht sich. Wie schon @mgutt geschrieben hat, hast Du System-Bestandteile verschoben - nicht nur nackte Daten. Das Konsolidieren und Entfernen von Festplatten ist nicht gerade einfach. Meiner persönlichen Meinung nach gehört das nicht in User Hände. Und nur weil man unter Unraid Administrator spielen kann ist man noch lange keiner. Für manche Tasks halte ich die ganzen Videos für sau gefährlich, denn sie suggerieren, dass man das Hirn abschalten kann. Die Container selbst bekommst Du mit allen Settings zurück. Was ggfs. problematisch ist, sind die Daten außerhalb des appdata Verzeichnis. Über welche Container reden wir?
  18. Du meinst, dass Du nun ggfs. globale Docker, individuelle Container, globale VM oder indivduelle VM Settings anpassen musst? Wenn ja, das hätte klar sein müssen. Oder meinst Du das nackte Verschieben von Daten mit dem Unbalance Plugin?
  19. Doch genau darum ging's. Durch das Verschieben von Dateien wird die Party aktualisiert, aber nicht in dem Maße, dass die Platte entfernt werden könnte. Fürs Entfernen muss sie zusätzlich gecleared werden. Und dieser Clearing Prozess muss ebenfalls die Parity aktualisieren. Deshalb umfasst der oben von mir verlinkte Prozess zum Entfernen von Festplatten gefühlt 30 Schritte. Nachtrag: Ich weiß nicht wie ich das besser erklären soll. Ich vermute, dass Du das Löschen auf Dateisystem-Ebene als ausreichend betrachtest. Das ist es aber nicht. Die Parity kennt keine Dateisysteme. Deshalb kannst Du XFS-, BTRFS- und ReiserFS-formatierte Datenplatten im selben Array durch die selben Parity-Platten hochverfügbar halten. Zum Entfernen einer Datenplatte muss (!!!) die Datenplatte, unter gleichzeitigem aktualisieren der Parity, komplett gecleared werden. Nur so ist die Parity zu jedem Zeitpunkt sauber. Jede andere Vorgehensweise bricht die Hochverfügbarkeit.
  20. Nein, das ist völlig falsch. So funktionieren Dateisysteme nicht. Durch das Verschieben bzw. Löschen einer Datei wird die Quelle im Dateisystem nur als gelöscht markiert. Da wird nichts "richtig" gelöscht. Das würde einfach viel zu lange dauern. Das bedeutet, dass die gesamten Bits und Bytes der gelöschten Datei noch auf dem Datenträger liegen und nur in dessen Dateisystem die Lösch-Markierung aktualisiert wurde. Für die Parity bedeutet das dann ebenfalls, dass nur die paar Bytes der Lösch-Markierung aktualisiert wurden und nicht der komplette Inhalt der gelöschten Datei. Das ist übrigens auch der Grund warum es Tools wie Undelete überhaupt geben kann. Würde beim Löschen einer Datei tatsächlich alles auf 0 gesetzt, dann gäbe es den Markt der Wiederherstellungs-Werkzeuge überhaupt nicht. Und jetzt kommt das Problem. In der Parity liegen noch die Ergebnisse der Parity-Kalkulation für den gesamten Inhalt der gelöschten Dateien inkl. Dateisystem der entfernten Platte. Würdest Du nun den Datenträger entfernen dann ist die Parity sofort ungültig und das Array gefährdet. Der Grund ist, dass bei einem Ausfall einer der verbliebenen Platten, aus der Parity und den anderen Disks der Inhalt der defekten Platte berechnet wird. Und dort ist noch der Müll der entfernten Datenplatte einberechnet. Dadurch wird die Austausch-Platte mit Schrott gefüllt. Nachtrag: Nehmen wir exemplarisch und der Einfachheit halber ein einzelnes Byte auf vier Platten plus Parity und nehmen das Dezimalsystem (und Addieren) statt die bei Unraid/RAID4 verwendete bitweise XOR Kalkulation: 1. Auf vier Platten liegen 1+2+3+4. Das ergibt auf der Parity 10 2. Nun füllen wir die zu entfernende vierte Platte nicht komplett mit 0 sondern entfernen sie. New Config wird ausgeführt mit Parity ist gültig. 3. In der Parity liegt nach wie vor 10. Es gibt aber nur noch 1+2+3 4. Jetzt fällt die zweite Platte aus und der Inhalt muss rekonstruiert werden. 5. Platte 1+3 ergeben 4, in der Parity liegt nach wie vor 10, also muss die zweite Platte eine 6 enthalten haben. In Wahrheit hatte sie aber eine 2 an der Stelle = BUMM Das bewirkt der Unterschied zwischen Delete und Clear.
  21. Wenn Du unter "Erhaltung" --> "Parity muss neu aufgebaut werden" verstehst, dann stimmt das. Das ist wiederum aber nicht vom OT gewünscht. Er möchte zu jedem Zeitpunkt die Parity aktualisiert halten. Wenn Du unter "Erhaltung" --> "Parity ist aktuell" verstehst, dann ist das falsch. Zur Erläuterung: Eine durch Unbalance geleerte Festplatte ist im Sinne der Parity-Kalkulation nicht leer. Nur eine komplett mit 0 gefüllte Festplatte wirkt auf die Parity-Kalkulation neutral und kann entfernt werden. Also erst Daten z.B. via Unbalance/Midnight Commander/rsync verschieben, dann Platte komplett löschen. Hierzu gibt es eine in-offizielle Vorgehensweise im Unraid Wiki (Alternative Method): https://wiki.unraid.net/Manual/Storage_Management#Removing_data_disk.28s.29
  22. Der 2020er Poll ist immer noch aktuell. Der Hersteller hat das bisher halt nicht in seinem Angebot - mehr nicht. Jede Spekulation über die Gründe eines kommerziellen Unternehmens für Dieses oder Jenes sind müßig. Da Dein Wunsch im Poll nicht an erster Stelle steht, und sogar in letzter Zeit von Multiple Array Pools überholt wurde, scheint es von der Mehrheit der Voter als nicht mehr so wichtig erachtet zu werden.
×
×
  • Create New...