Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Das war nicht die Frage. Du sagtest, dass dadurch mehrere Platten hochfahren würden und das ist eben nicht richtig. Meine Filme liegen auf den 8 Platten verteilt und es fährt immer nur die eine an, auf der der Film liegt. Das selbe gilt dann ja auch bei 50 Platten bzw warum sollte es da nicht so sein.
  2. https://gutt.it/corsair-rm550x-550w-netzteil-vs-picopsu-90/ Das Corsair oder Be Quiet Pure Power FM 11 550W. Das ist auch sehr gut.
  3. Gar nichts. Ist ja schließlich nur SATA. 🤔 Die passen alle. M.2 ist einfach nur eine andere Buchse für PCIe.
  4. mgutt

    Parity Disk

    Ich kann dir immer noch nicht folgen. Wenn man das Array stoppt, dann sieht man Disk Slots mit einem Dropdown. In dem Dropdown kann man die Disk auswählen, aber doch kein Diskformat?! Für mich hört sich das eher so an als hättest du die Disk außerhalb vom Array formatiert (zb mit dem UD Plugin) und dann wieder leer dem Array hinzugefügt. Da Unraid die Disk an Hand der Seriennummer wiedererkennt, hat es dann nicht die Disk wiederhergestellt, sondern die Parität passend zur nun leeren Disk repariert, da es eben keinen Disk-Defekt gab, sondern sich nur der Inhalt des bisher bekannten Disk geändert hat. Um das zu schaffen, musst du aber die Warnmeldung wegen der Parität ignoriert haben. Die Parität kannst du dann jedenfalls vergessen. Die wird dir keine Daten mehr wiederherzustellen. Die einzige Hoffnung wäre jetzt die umformatierte Disk. Du hast sie von BTRFS encrypted in XFS formatiert? Ich denke mal das ging schnell, korrekt? Dann wurde sie nicht komplett überschrieben, sondern "nur" die Partitionen und der Anfangsbereich überschrieben. In wie weit man jetzt noch die restlichen LUKS Datenbereiche evtl von Hand entschlüsseln kann, kann ich dir nicht sagen. Habe ich noch nie gemacht und ich finde auch keine Infos dazu. Da braucht es denke ich einen Profi für, der die Blöcke findet und einzeln entschlüsselt. Ich tippe mal auf unbezahlbar. Ich hätte jetzt vermutlich mit dd erstmal eine 1:1 Kopie der Disk gemacht und dann versucht die alte Partitionstabelle wiederherzustellen, aber einfach wird das vermutlich nicht. Vielleicht hätte ich dazu auch mal die Anfangsbereiche der noch laufenden Platten ausgelesen und verglichen. Hier ein paar ähnlich gelagerte Fälle: https://superuser.com/a/644590 https://bbs.archlinux.org/viewtopic.php?id=265516 Ich vermute aber mal, dass deine Skills dafür nicht ausreichen und ich habe da eh wenig Hoffnung, dass man da noch was retten kann. Dein Syno RAID hast du schon aufgelöst, ja?
  5. Interessanter Podcast von zugegeben ZFS Fanboys, aber trotzdem hörenswert, da es viele Probleme von BTRFS thematisiert, die wir auch hier im Forum immer wieder antreffen: https://2.5admins.com/2-5-admins-58/ Dazu gehört zb dass ein gecrashtes System einfach so wieder hochfährt, ohne ein Scrub zu machen, was meiner Ansicht nach Aufgabe von Unraid wäre zu übernehmen, so lange das Linux selbst nicht macht. Außerdem thematisieren sie etwas, was ich schon mal hatte. Und zwar ein gecrashtes System, wo mitten im Scrub eine Disk ausfällt. In so einer Situation kann man das BTRFS RAID nämlich nicht mehr mounten, obwohl es eigentlich genug Disks gibt. Und sie thematisieren auch wie Synology BTRFS verwendet, nämlich als Single Disk, weil sie damit die oben genannten Probleme umgehen. Hört es euch einfach mal an 👂
  6. Er vergleicht nicht ECC mit Non-ECC, sondern betont nur, dass ZFS auch ohne ECC sicherer sei als andere Dateisysteme. Das gilt aber eben nur, wenn ZFS korrekte Daten erhalten hat. Sind die Daten vor dem Erstellen der Metadaten bereits im RAM kaputt gegangen, nützt dir das nichts. Das ist dann die Situation wo ECC RAM hilft. Das hat Allan auch hier erklärt: http://issue.freebsdfoundation.org/publication/?i=254990&article_id=1987498&view=articleBrowser&ver=html5 ECC RAM und ZFS lösen also unterschiedliche Probleme und sind daher ein gutes Team.
  7. Die wo die Filmdatei drauf liegt. Plex spricht ja die Inode an und fragt nicht erst in welchem Ordner die Datei liegt. Caching Plugins habe ich noch nie verwendet und ich habe ja auch immerhin 8 Platten.
  8. Das ist schlicht falsch. Es gibt dafür die ZFS_DEBUG_MODIFY Einstellung, aber die ist nicht Standard und würde das RAID auch extrem langsam machen, da geschriebene Daten anschließend verifiziert würden. Durch RAM Fehler zerstörte Paritäten fallen auch bei ZFS erst bei einem vollständigen Check auf. Auch mal das Zitat aus dem ZFS Forum lesen: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-947943
  9. Nur, wenn das Board Bifurcation unterstützt oder du eine Non-Bifurcation M.2 Karte kaufst, aber die kostet mehrere Hundert Euro. Kaufe bitte was Ordentliches. Es sind ständig welche im Angebot: https://www.mydealz.de/search?q=1tb+nvme Die NV1 soll per Zufall QLC verbaut haben und sie hat nur 240TBW. Eine Evo Plus hat zb 600TBW, also fast 3x haltbarer.
  10. Sein Container schreibt offensichtlich ins docker.img. Also im Container falsche Pfade genutzt bzw den Pfad nicht nach appdata verlinkt. Also wie @ich777 schon fragte. Was ist eingestellt in dem Container. Ich vermute es ist eine Art temp Download Ordner, der nicht verlinkt ist.
  11. Ist bei Plex nicht anders. Mehrere Platten laufen nur beim Indexieren, aber das ist ja zu erwarten.
  12. mgutt

    Parity Disk

    Also Platte aus dem Array genommen verstehe ich. Aber was meinst du mit "im Array oben auf xfs gesetzt"? Faktisch kann man überhaupt nicht die Formatierung ändern, wenn eine Wiederherstellung erfolgt. Es werden keine Dateien wiederhergestellt, sondern die einzelnen Sektoren. Daher entspricht die wiederhergestellte Platte einer 1:1 Kopie der ausgebauten. Also wie gehabt verschlüsselt. Daher keine Ahnung wie du XFS formatiert haben willst. Über das UD Plugin vielleicht? Verschlüsselte Platten kann man nicht durch eine Datenrettung jagen. Das kannst du vergessen.
  13. Poste Mal die Config von deinem Container. Klingt nicht logisch, weil die Pfade doch alle auf appdata/filerun verweisen. Sicher, dass der Container überhaupt läuft?!
  14. mgutt

    System freezes

    Da gibt es doch bestimmt auch sowas. Hier im Screenshot sehe ich zb schon Server Monitor: https://apps.apple.com/de/app/inettools-ping-dns-port-scan/id561659975
  15. mgutt

    Hardware Empfehlung

    Ja, da spricht er von seiner CPU. Er hat mit QSV in H264 gewandelt und da waren ihm die Dateien zu groß und die Qualität zu schlecht. Ich habe auch eine Weile gebraucht das zu durchschauen, weil er die Codecs nicht in beiden Fällen genannt hat, aber als ich mir noch mal das CPU Modell angeschaut habe, konnte es nur so sein ^^ Hier hat er dann jedenfalls explizit nach passender H265 Hardware gefragt. Also passt das denke ich 🤷
  16. Sind die normal per SATA angeschlossen? Ist schon komisch, wenn der SMART Test einfach abbricht.
  17. mgutt

    Hardware Empfehlung

    Jein, seine CPU kann kein H265 encoden. Daher hatte er bisher keine andere Option.
  18. https://support.parsec.app/hc/en-us/articles/115002624051-Error-Codes-22006-and-15000-Unable-To-Initialize-Encoder-On-Your-Server- Da wäre die Frage ob die Netzwerkverbindung an sich vielleicht das Problem ist. Beide Geräte sind im selben Adressbereich? Habe ich richtig verstanden, dass du noch einen Win Client hast? Dann mal mit RDP probieren.
  19. Bitte syslog Server auf USB spiegeln. Bei einem Reboot sind die Logs leer.
  20. mgutt

    Hardware Empfehlung

    Eine Intel iGPU kann mehr parallele Videostreams verarbeiten. Qualitativ geben die sich denke ich nichts. H265 Encoding geht ab Coffee Lake (8te Gen): https://en.wikipedia.org/wiki/Intel_Quick_Sync_Video#Hardware_decoding_and_encoding Bei AMD ab Vega: https://en.wikipedia.org/wiki/Unified_Video_Decoder#Format_support Bei Linux tendiere ich eher zu Intel. Ich empfehle 8te bis 10te Generation. Ab der 11ten ist die iGPU anders und GVT-g geht auch nicht mehr.
  21. Scheint zu funktionieren Gibt jetzt ein Update im Kernel dazu: https://www.phoronix.com/scan.php?page=news_item&px=Linux-5.15-rc5-x86
  22. Das ist egal, weil SMART nur einen Lese-Test macht. Warum denn interrupted. Hast du den Test abgebrochen?
  23. M.2 unterstützen viel mehr IOPS. Bei VMs und parallel Docker und Cache schon von Vorteil. Wie wäre es mit einem PCIe auf M.2 Adapter? Du musst dann aber eben einen Slot opfern. Dann hättest du aber 2x M.2.
  24. This is not related to the RAM. It's the usage size of the docker.img (virtual disk). Next time check inside of the docker.img for huge files. It's mounted at /var/lib/docker
×
×
  • Create New...