mgutt

Moderators
  • Posts

    5537
  • Joined

  • Last visited

  • Days Won

    50

Everything posted by mgutt

  1. Noch keinen mit dem großen W480 hier gesehen. Aber ich denke mal irgendwas unter 20W, wenn man powertop & Co umsetzt.
  2. This is not possible. The SSL certificate is located on the server. If you would buy an SSL certificate you would need to store it on the nginx server, so you would use it instead of the let's encrypt certificate.
  3. Ich hatte vor einiger Zeit das passende Kommando gepostet, wie man aus einer bestehenden Datei eine Sparsefile macht. Meinst du das?
  4. Ich würde den Parity Check wiederholen oder gleich die Platten mit den SMART Fehlern ersetzen
  5. Bei 15 Bays wird das ein bisschen schwierig. Ich mein klar, wenn die Platten stehen, ist halbwegs Ruhe, aber sobald du damit arbeitest, nervt die Kiste. Wirklich keine andere Stelle möglich? Das wird nicht einfach. Hier kommt es auf den Workflow und die Geschwindigkeit der HDDs an. Wenn das Array zb nur als Langzeitarchiv dienen soll, kannst du da mit schnellen Platten schon mit 70 bis 80 MB/s drauf schreiben. Aber nur Single User. Bei Multi User keine Chance. Da bricht das noch weiter ein. Daher wäre die Frage ob du lieber mit Pools (RAIDs) arbeitest oder mit einem sehr großen SSD Cache Pool, der alle Inhalte deines wöchentlichen Workflows enthält. Evtl sogar als separater Pool von dem du nur manuell ins Archiv (Array) schiebst. Noch eine Alternative wäre auf das Array zu verzichten und nur mit einem großen HDD Pool zu arbeiten. Also erstmal die Frage ob die 80TB deine aktuellen Projektdaten sind oder nur dein Langzeitarchiv und wie groß das wöchentliche Projektvolumen ist.
  6. Korrekt. Daher mal recherchieren ob es für den Container spezielle Vorgehensweisen gibt um bestimmte Pakete dauerhaft zu installieren. Oder ist es eher unüblich, dass man das bei Node Red braucht?
  7. Das war nicht die Frage. Du sagtest, dass dadurch mehrere Platten hochfahren würden und das ist eben nicht richtig. Meine Filme liegen auf den 8 Platten verteilt und es fährt immer nur die eine an, auf der der Film liegt. Das selbe gilt dann ja auch bei 50 Platten bzw warum sollte es da nicht so sein.
  8. https://gutt.it/corsair-rm550x-550w-netzteil-vs-picopsu-90/ Das Corsair oder Be Quiet Pure Power FM 11 550W. Das ist auch sehr gut.
  9. Gar nichts. Ist ja schließlich nur SATA. 🤔 Die passen alle. M.2 ist einfach nur eine andere Buchse für PCIe.
  10. Ich kann dir immer noch nicht folgen. Wenn man das Array stoppt, dann sieht man Disk Slots mit einem Dropdown. In dem Dropdown kann man die Disk auswählen, aber doch kein Diskformat?! Für mich hört sich das eher so an als hättest du die Disk außerhalb vom Array formatiert (zb mit dem UD Plugin) und dann wieder leer dem Array hinzugefügt. Da Unraid die Disk an Hand der Seriennummer wiedererkennt, hat es dann nicht die Disk wiederhergestellt, sondern die Parität passend zur nun leeren Disk repariert, da es eben keinen Disk-Defekt gab, sondern sich nur der Inhalt des bisher bekannten Disk geändert hat. Um das zu schaffen, musst du aber die Warnmeldung wegen der Parität ignoriert haben. Die Parität kannst du dann jedenfalls vergessen. Die wird dir keine Daten mehr wiederherzustellen. Die einzige Hoffnung wäre jetzt die umformatierte Disk. Du hast sie von BTRFS encrypted in XFS formatiert? Ich denke mal das ging schnell, korrekt? Dann wurde sie nicht komplett überschrieben, sondern "nur" die Partitionen und der Anfangsbereich überschrieben. In wie weit man jetzt noch die restlichen LUKS Datenbereiche evtl von Hand entschlüsseln kann, kann ich dir nicht sagen. Habe ich noch nie gemacht und ich finde auch keine Infos dazu. Da braucht es denke ich einen Profi für, der die Blöcke findet und einzeln entschlüsselt. Ich tippe mal auf unbezahlbar. Ich hätte jetzt vermutlich mit dd erstmal eine 1:1 Kopie der Disk gemacht und dann versucht die alte Partitionstabelle wiederherzustellen, aber einfach wird das vermutlich nicht. Vielleicht hätte ich dazu auch mal die Anfangsbereiche der noch laufenden Platten ausgelesen und verglichen. Hier ein paar ähnlich gelagerte Fälle: https://superuser.com/a/644590 https://bbs.archlinux.org/viewtopic.php?id=265516 Ich vermute aber mal, dass deine Skills dafür nicht ausreichen und ich habe da eh wenig Hoffnung, dass man da noch was retten kann. Dein Syno RAID hast du schon aufgelöst, ja?
  11. Interessanter Podcast von zugegeben ZFS Fanboys, aber trotzdem hörenswert, da es viele Probleme von BTRFS thematisiert, die wir auch hier im Forum immer wieder antreffen: https://2.5admins.com/2-5-admins-58/ Dazu gehört zb dass ein gecrashtes System einfach so wieder hochfährt, ohne ein Scrub zu machen, was meiner Ansicht nach Aufgabe von Unraid wäre zu übernehmen, so lange das Linux selbst nicht macht. Außerdem thematisieren sie etwas, was ich schon mal hatte. Und zwar ein gecrashtes System, wo mitten im Scrub eine Disk ausfällt. In so einer Situation kann man das BTRFS RAID nämlich nicht mehr mounten, obwohl es eigentlich genug Disks gibt. Und sie thematisieren auch wie Synology BTRFS verwendet, nämlich als Single Disk, weil sie damit die oben genannten Probleme umgehen. Hört es euch einfach mal an 👂
  12. Er vergleicht nicht ECC mit Non-ECC, sondern betont nur, dass ZFS auch ohne ECC sicherer sei als andere Dateisysteme. Das gilt aber eben nur, wenn ZFS korrekte Daten erhalten hat. Sind die Daten vor dem Erstellen der Metadaten bereits im RAM kaputt gegangen, nützt dir das nichts. Das ist dann die Situation wo ECC RAM hilft. Das hat Allan auch hier erklärt: http://issue.freebsdfoundation.org/publication/?i=254990&article_id=1987498&view=articleBrowser&ver=html5 ECC RAM und ZFS lösen also unterschiedliche Probleme und sind daher ein gutes Team.
  13. Die wo die Filmdatei drauf liegt. Plex spricht ja die Inode an und fragt nicht erst in welchem Ordner die Datei liegt. Caching Plugins habe ich noch nie verwendet und ich habe ja auch immerhin 8 Platten.
  14. Das ist schlicht falsch. Es gibt dafür die ZFS_DEBUG_MODIFY Einstellung, aber die ist nicht Standard und würde das RAID auch extrem langsam machen, da geschriebene Daten anschließend verifiziert würden. Durch RAM Fehler zerstörte Paritäten fallen auch bei ZFS erst bei einem vollständigen Check auf. Auch mal das Zitat aus dem ZFS Forum lesen: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-947943
  15. Nur, wenn das Board Bifurcation unterstützt oder du eine Non-Bifurcation M.2 Karte kaufst, aber die kostet mehrere Hundert Euro. Kaufe bitte was Ordentliches. Es sind ständig welche im Angebot: https://www.mydealz.de/search?q=1tb+nvme Die NV1 soll per Zufall QLC verbaut haben und sie hat nur 240TBW. Eine Evo Plus hat zb 600TBW, also fast 3x haltbarer.
  16. Sein Container schreibt offensichtlich ins docker.img. Also im Container falsche Pfade genutzt bzw den Pfad nicht nach appdata verlinkt. Also wie @ich777 schon fragte. Was ist eingestellt in dem Container. Ich vermute es ist eine Art temp Download Ordner, der nicht verlinkt ist.
  17. Ist bei Plex nicht anders. Mehrere Platten laufen nur beim Indexieren, aber das ist ja zu erwarten.
  18. Also Platte aus dem Array genommen verstehe ich. Aber was meinst du mit "im Array oben auf xfs gesetzt"? Faktisch kann man überhaupt nicht die Formatierung ändern, wenn eine Wiederherstellung erfolgt. Es werden keine Dateien wiederhergestellt, sondern die einzelnen Sektoren. Daher entspricht die wiederhergestellte Platte einer 1:1 Kopie der ausgebauten. Also wie gehabt verschlüsselt. Daher keine Ahnung wie du XFS formatiert haben willst. Über das UD Plugin vielleicht? Verschlüsselte Platten kann man nicht durch eine Datenrettung jagen. Das kannst du vergessen.
  19. Poste Mal die Config von deinem Container. Klingt nicht logisch, weil die Pfade doch alle auf appdata/filerun verweisen. Sicher, dass der Container überhaupt läuft?!
  20. Da gibt es doch bestimmt auch sowas. Hier im Screenshot sehe ich zb schon Server Monitor: https://apps.apple.com/de/app/inettools-ping-dns-port-scan/id561659975
  21. Ja, da spricht er von seiner CPU. Er hat mit QSV in H264 gewandelt und da waren ihm die Dateien zu groß und die Qualität zu schlecht. Ich habe auch eine Weile gebraucht das zu durchschauen, weil er die Codecs nicht in beiden Fällen genannt hat, aber als ich mir noch mal das CPU Modell angeschaut habe, konnte es nur so sein ^^ Hier hat er dann jedenfalls explizit nach passender H265 Hardware gefragt. Also passt das denke ich 🤷
  22. Sind die normal per SATA angeschlossen? Ist schon komisch, wenn der SMART Test einfach abbricht.
  23. Jein, seine CPU kann kein H265 encoden. Daher hatte er bisher keine andere Option.