Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. XFS ist nicht möglich bei einem RAID Pool (meine ich jedenfalls). Mal davon abgesehen hättest du ja keine Ausfallsicherheit. Warum solltest du das also machen? Alles ist unter /mnt zu finden. Es gibt aber verschiedene "Summen": /mnt/cache/sharename zeigt nur die Dateien, die sich aktuell auf dem Pool mit dem Namen "cache" befinden /mnt/disk1/sharename zeigt nur die Dateien, die sich aktuell auf Disk1 des Arrays befinden. /mnt/user/sharename zeigt die Summe aus /mnt/cache/sharename und /mnt/disk1/sharename Der direkte Pfad zu einer Disk oder einem Pool bietet die beste Performance.
  2. Ja und es erstaunt, dass er nun nach den ganzen anfänglichen Problem so begeistert ist ^^ Ich würde dir wegen der höheren Single-Core Performance und der iGPU auf jeden Fall zu einem Workstation-Prozessor wie dem E-21xx, E-22xx oder W-12xx raten. Ist deutlich stressfreier.
  3. Das ist viel zu wenig. Kann es sein, dass eine der HDDs SMR nutzt? Falls ja: Ab in den Müll damit ^^ Wenn du sie ins Array einbindest, ist das auch völlig logisch. Du musst neben dem Cache Pool noch einen weiteren Pool hinzufügen. Den nennst du zB "vm", bildest ihn als BTRFS RAID1, erstellst darauf einen Share mit der Cache Option "Only" und legst dort deine VM-Disks ab. Jetzt hast du ein vom Array unabhängiges RAID ohne Flaschenhals (wenn man von der virtuellen Disk absieht). ZFS brauchst du also gar nicht. Alternative: Du lässt die beiden NVMe aus dem Array und Pool raus und weist jeder VM eine physisch zu. Dann fällt auch der Flaschenhals des virtuellen Disk-Treibers weg. Hat aber den Nachteil, dass man nur eine VM pro NVMe nutzen kann. Backups müsste man dann im Betriebsystem selbst erstellen. Also wie bei einem normalen Client auch. Es gibt sogar einen Trick mit dem man so eine NVMe in Unraid öffnen kann, wenn die VM aus ist:
  4. Ja. Unraid ist es egal was du nimmst. Backblaze hat die Ultrastar (HGST) als sehr zuverlässig bezeichnet: https://www.backblaze.com/blog/backblaze-hard-drive-stats-for-2020/ Wobei sie noch nicht so große im Einsatz haben. HBA Karte https://geizhals.de/?cat=iosasraid&xf=5678_ohne~5679_SAS&sort=t&hloc=at&hloc=de&v=e
  5. Warum? Sagen wir beide speichern im Share /mnt/user/TV ab. Den Pfad synchronisierst du mit rclone zu /mnt/remotes/GoogleDrive/TV (also ins Google Drive) und Plex bekommt nur den Pfad /mnt/user/TV genannt (also die lokale Disk). Was davon nun schon ins Google Drive gesichert wurde, kann doch Plex egal sein oder nicht? Oder löschst du die Downloads wieder von der lokalen Disk und willst daher Plex auch das Google Drive nennen? Dann dreht das Konzept von B) doch einfach um. Also: - Sonarr+Radarr speichern nach /mnt/user/TV - rclone synct von /mnt/user/TV nach /mnt/remotes/GoogleDrive/OfflineTV - wenn lokal eine Datei gelöscht wird: Ein Script erkennt die fehlende Datei und verschiebt sie von /mnt/remotes/GoogleDrive/OfflineTV zu /mnt/remotes/GoogleDrive/CloudTV - in Plex sind die Verzeichnisse /mnt/user/TV und /mnt/remotes/GoogleDrive/CloudTV hinterlegt Also wie gehabt. Wurde die Datei gerade erst mit Sonarr+Radarr heruntergeladen, kannst du sie lokal über Plex abspielen. Wurde sie hochgeladen und lokal gelöscht, ist sie über das Google Drive abspielbar. Ja Kommt auf die Geschwindigkeit der HDD an. Mein letzter Parity Check dauerte 24 Stunden: Date Duration Speed Status Errors 2021-04-13, 17:38:27 1 day, 20 min, 5 sec 205.5 MB/s OK 0 Die 12TB HDDs brauchten dafür noch 18 Stunden. Eine 6TB HDD (Ironwolf) schafft das in 9 Stunden. Eine 4TB in 7 Stunden (Toshiba N300). Leider nehmen HDDs nicht im gleichen Maße an Geschwindigkeit zu wie sie größer werden. Daher habe ich so meine Zweifel ob HDDs die 30TB jemals erreichen werden. Gerade Unternehmen haben nicht unendlich lange Zeit auf die Berechnung der Parität zu warten. Ist ja auch immer ein Risiko dabei, dass weitere HDDs in der Zeit ausfallen. https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-947943
  6. Ja, wenn der Hersteller seinen Treiber nicht für den aktuellen Linux Kernel anpasst. Unraid hat zB drei Treiber rausgeworfen, weil sie nicht mehr mit dem neuen Kernel funktionierten: https://wiki.unraid.net/Manual/Release_Notes/Unraid_OS_6.9.0#Linux_Kernel Bei Tehuti hat sich dann eine Community dem Treiber angenommen: https://github.com/acooks/tn40xx-driver Ich würde das aber als Ausnahmefall bezeichnen. Wenn der von @ich777 kompilierte Treiber geht, besteht außerdem eine große Wahrscheinlichkeit, dass man das wieder in Unraid einpflegen kann. Dann könnte der Treiber auch wieder von Haus aus dabei sein. Unraid arbeitet ja stark mit der Community zusammen. Shares -> Share anklicken -> da kannst du den Cache-Modus des jeweiligen Shares einstellen Das war nur ein Schreibfehler. Sobald du das @-Zeichen und daraufhin weitere Zeichen tippst, erscheint so eine Box und da klickst du dann auf den Usernamen: Klickt man nicht drauf, sieht der Name so aus und der User wird nicht benachrichtigt: @DataCollector Und so sieht er aus, wenn man geklickt hat und der User wird benachrichtigt: @DataCollector
  7. Das klingt nicht logisch. Ein MergerFS Mount ist doch nur die virtuelle Summe aus zwei Verzeichnissen. Er kann also physisch gar keine Dateien enthalten. Sagt ja auch das Beispiel in der Doku: A wäre zB das lokale Verzeichnis mit den Filmen B wäre zB Gsuite mit den Filmen C ist der MergerFS Mount Pfad, den man Plex mitteilt Wie auch immer. MergerFS scheint es als Docker Container zu geben, so dass auch das kein Hindernis darstellen sollte: https://forums.unraid.net/topic/74808-help-installing-mergerfs/ Die Frage ist allerdings, ob das wirklich notwendig ist: A) Was wäre, wenn du das per rclone gemountete Google Drive in Plex einfach als zweite Bibliothek einbindest? Ist Google offline, kannst du eben nur die lokale Bibliothek nutzen. Das selbe Prinzip nutzt man ja, wenn man die Bibliothek mit Freunden teilt. B) Was wäre, wenn du alle Filme, die du bereits heruntergeladen hast, auf dem Google Drive vom Verzeichnis "Filme" in das Verzeichnis "OfflineFilme" verschiebst? Du könntest dann dem Plex Container die Verzeichnisse /mnt/user/Filme (die lokalen Filme) und /mnt/remotes/GoogleDrive/Filme (rclone Mount des Google Drives) nennen. Duplikate gäbe es dann keine, weil die ja im Ordner /mnt/remotes/GoogleDrive/OfflineFilme liegen auf den Plex keinen Zugriff hat. Das Verschieben könnte ein simples Script lösen, das zb alle 5 Minuten ausgeführt wird und Dateiname und Dateigröße zwischen den beiden Verzeichnissen abgleicht und falls Übereinstimmungen vorhanden sind, die Datei dann verschiebt. Wenn Google offline geht, dann wird Plex die fehlenden Filme als "fehlend" markieren, aber das wird ja korrigiert, sobald Google wieder da ist.
  8. Wie gesagt rclone gibt es auch für Unraid. Das wird also keine Hürde sein. Die Frage ist nur was mit Filmen wäre, die lokal UND in der Cloud liegen. Werden die von Plex nicht doppelt angezeigt bzw mit "zwei Versionen"?
  9. mgutt

    rsync Frage

    Denke ich auch, aber du weißt im Grunde nie ob du dem Mirror vertrauen kannst. Wobei... meldet rsync nicht, wenn sich eine Datei während der Übertragung geändert hat? Dann wüsste man zumindest welcher Datei man nicht trauen kann ^^
  10. 1.4mm Blech, allseitig gekantet, gerade mal 20cm breit und 15cm tief. Das ist schon sehr stabil. Dazu dann noch die Gummipuffer. Das ist rein subjektiv deutlich stabiler als was ich bisher sonst alles gebaut habe (PC Gehäuse, Synology, etc). Du darfst hier nicht an die relativ breiten und vor allem tiefen Böden eines 19 Zoll Racks denken.
  11. mgutt

    rsync Frage

    Ah ok. Ich dachte wegen Strom sparen. Denn ein RAID1 geht meine ich nicht in den L1 (PCIe Standby). Daher hatte ich sowas auch schon in Planung. Denk aber dran, dass sich gerade in Änderung befindliche Dateien nicht ordentlich sichern lassen. Rsync spuckt dann eine korrupte Datei aus. Beispiel: - 100MB Datei - rsync liest die ersten 50MB - nun ändert etwas die Datei - rsync liest die restlichen 50MB der geänderten Datei - auf dem Ziel liegt ein Mischmasch Aus dem Grund wäre es denke ich besser, wenn man rsync solange arbeiten lässt, bis es keine Datei mehr übertragen hat. Erst dann kann man sich sicher sein, dass Quelle und Ziel gleich sind.
  12. MergerFS brauchst du denke ich nicht. Du kannst ja x-beliebige Verzeichnisse dem Plex Container zuweisen. Komplizierter wird es nur, wenn du die bestehende Plex Datenbank übernehmen willst. Denn je nachdem wie du das aktuell installiert hast, könnte es sein, dass sich die Pfade ändern. Da müsste man mal ausprobieren wie Plex auf neue Pfade reagiert. Aber normal sollte Plex das hinbekommen.
  13. mgutt

    rsync Frage

    Ne, dann würde er auch einen Fehlersatz hinzufügen. Was sein kann: Eine Anwendung erstellt eine Datei und reserviert dafür mehr Platz als dir Daten in der Datei eigentlich an Platz brauchen. Und rsync ignoriert das und überträgt nur die reale Menge. Dann würde rsync so genannte Sparse Dateien erstellen: https://de.m.wikipedia.org/wiki/Sparse-Datei Das sollte man mit einem Größenvergleich auf Dateiebene rausfinden können. Recherchiere ich später mal. Oder: Gelöschte Dateien hinterlassen Metadaten, die XFS erstmal drauf lässt.
  14. Hört sich gut an. Oder vielleicht nur in Unraid in XFS formatieren und dann im alten Server einbauen? Dann müsste man nicht über das Netzwerk kopieren.
  15. Die sollten zuverlässig sein. Ich kann dir aber auch den W-1250 bestellen. Aktuelles Lieferdatum ist der 06.05. Müsste bei 270 € liegen. Wie zuverlässig die Angabe ist kann ich dir nicht sagen. Müsste ich dann gezielt bei meinem Großhändler anfragen. Laut meiner letzten Anfrage meinte der, dass Intel wegen Lieferverträgen immer erst die OEMs bedient. Aber wenn man die bestellt, sollen die angeblich auch dann kommen.
  16. Was meinst du damit? Dir rclone Cache Option? Natürlich. Es gibt doch ein rclone Plugin für Unraid. Da hast du logischerweise alle Kommandos, die rclone kann.
  17. mgutt

    rsync Frage

    Was sagen denn die Logs? Führe rsync auch mal mit "--stats" aus. Also auf dem Ziel ist nicht alles im Unterordner "pool_nvme", sondern im Root?
  18. Ok, es geht darum das HDR aller Filme zu "normalisieren": http://www.hifi-forum.de/viewthread-253-695.html Gut zu wissen. So etwas beherrscht Plex tatsächlich nicht.
  19. Dann bau die 1080 in den Unraid Server und nutze sie direkt mit Plex.
  20. Ja Nein. Ist egal. Dann erstell doch einfach eine 32GB VMDisk auf dem Cache für das OS und lässt die Downloads auf ein SMB Ziel, in dem Fall also einen Unraid Share speichern. Kein Grund das alles in einer VM abzulegen. Der Cache kann nicht Teile einer VM erfassen. Immer nur die komplette VM Disk. Gibt es doch alles als Container. Kein Grund für eine VM: https://blog.harveydelaney.com/installing-radarr-sonar-and-deluge-on-your-unraid-setup/
  21. Das ist kein Server-Chipsatz, sondern ein Workstation-Chipsatz. Das besagte W480M bekommt man auf 10W. PCIe 4.0 bringt dir eh nichts. Selbst bei Gaming ist PCIe 4.0 irrelevant. Interessant wäre es nur, wenn der Chipsatz auch 4.0 hätte und dadurch mehr Slots möglich würden, aber die sind ja immer nur 3.0. Also hat nur die GPU und eine M.2 4.0.
  22. mgutt

    rsync Frage

    Erstellst du aktuell nicht einen Unterordner auf dem Ziel. Also Quelle müsste doch eigentlich ohne Slash enden: "/mnt/pool_nvme" Wegen dem Größenunterschied: Hast du evtl. die erste NVMe vor dem Unraid Update formatiert? XFS hat eine neue Version bekommen und belegt nun mehr Speicherplatz wegen neuer Funktionen (Snapshots). Hier ein paar Befehle wie man sich die Version ausgeben lassen kann: https://unix.stackexchange.com/questions/306442/how-to-check-xfs-filesystem-version
  23. Das ist ein NAS und kein Gaming PC. Völlig egal. Also selbst wenn es ein AMD werden soll. Die iGPU schafft mehr Streams, aber die Qualität von der GPU ist meiner Ansicht nach etwas besser. Gerade VC1, falls du Blu-Ray Rips besitzt. Ich würde es einfach testen. Wenn du was effizientes möchtest, dann nimm eher ein mATX. MSI taucht eigentlich nie bei stromsparenden Setups auf. Was spricht gegen das Gigabyte W480M? Das hätte auch gleich 8x SATA oder wie viele HDDs sollen dran?
  24. Es geschehen noch Wunder. Ich habe nun endlich eine offizielle Lieferzusage für Ende des Monats. Wohlgemerkt für beide Boards. Ich werde jeweils 10 bestellen und dann schauen wir wie es weiter geht.
  25. Ganz ehrlich. Seitdem Plex Tone Mapping beherrscht ist doch MadVR überflüssig geworden: Ohne VMs reicht das erstmal. Ich würde aber wohl eher 2x 512GB im RAID1 verbauen. Hat man mehr Luft für Uploads. In jedem Fall braucht es keinen separaten Pool für Container. Kommt aber auch darauf an wie groß Plex schlussendlich wird. Meins wächst noch, da ich erst vor kurzem die Thumbnails für die Zeitleiste aktiviert habe. Aber so viele GB an Daten werden das denke ich auch nicht werden. Ich habe 1TB, da meine komplette Musiksammlung auf der SSD liegt. Dadurch muss zum Musikhören keine HDD anfahren. Also keinerlei Latenz und spielt instant. Das Niveau vom Vorgänger wurde noch nicht erreicht, aber beim W480M wurden schon 10W erzielt. Egal. Unraid schickt die eh schlafen. Die Belastung gleicht da eher einem Desktop PC. Ich nutze gerne HDDs aus USB Gehäusen. Ab 14TB sind nur gute Platten verbaut. Alle Details dazu in dem Thread: https://forums.unraid.net/topic/103012-günstige-7200-umin-hdd-ab-14tb/ Sofern Slots vorhanden sind, kann man einen simplen PCIe M.2 Adapter verbauen. Ja. Genauso wie JMB585, hat aber nur 5 Ports. PCIe ist universell. Du kannst auch eine GPU in einen M.2 Slot "stecken" (wenn M.2 auf PCIe Adapter genutzt wird). Umso mehr, um so mehr RAM nutzt Linux fürs Caching. Wenn Geld keine Rolle spielt, dann empfehle ich das Maximum zu verbauen: Ich würde den 10100 für 90 € kaufen (sobald verfügbar) und darauf spekulieren, dass Intel den ECC Support nachreicht. Auf die Art könntest du auf ECC RAM umschwenken. Ja, ich mag ECC ^^
×
×
  • Create New...