hawihoney

Members
  • Posts

    2794
  • Joined

  • Last visited

  • Days Won

    2

Everything posted by hawihoney

  1. Gerade ein "Check for updates" ausgeführt. Für "Home Assistant" wurde ein Update angezeigt. Update erfolgreich ausgeführt. Also hier läuft es. Ist bei Dir noch Software (AdBlocker, Proxy, etc) zwischen Unraid und dem Router?
  2. hawihoney

    ZFS

    Mein Satz bezog sich auf ZFS als Single Drive FS im Array.
  3. hawihoney

    ZFS

    Das Du das weißt war mir klar - ich wollte das halt nur mal erwähnt haben. Ein Dataset ist halt irgendwie ein Zwitter. Wird spannend zu sehen wie Unraid das im übernächsten Release in die GUI vollständig integrieren will. Für mich persönlich als Benutzer eines Standard Unraid sind einige Dinge ganz klar. Das Array ist und bleibt für mich die Ablage für die kalten Daten (wenig Bewegung, Platten schlafen ...). Ob bei den individuellen Platten des Arrays XFS oder ZFS zum Einsatz kommt ist mir persönlich Latte. XFS stellst sich mir rock-solid dar. Warum also ändern. ZFS wird hier nur den - in meinen Augen - Totalausfall BTRFS ersetzen. Einen schnellen NVMe RAIDZ1 Pool für die klassischen appdata/domains/etc. Dinge und einen neuen NVMe RAIDZ1 Pool für heiße Daten (viel Bewegung, Platten always-on).
  4. hawihoney

    ZFS

    Ein Dataset ist eher eine Partition als ein Ordner: https://de.wikibooks.org/wiki/ZFS_auf_Linux/_Dataset
  5. Ein Versuch war es wert. Hätte ja sein können ... Im Ernst: Du bist lange genug in diesem Forum dabei, und hast auch an einigen Threads teilgenommen, um zu wissen, dass eine solche pauschale, inhaltlich leere Anfrage niemand beantworten kann. Jeder der Dir helfen will muss Dir, wie @DataCollector, vorab ein dutzend Fragen stellen. Diese Details gehören in Deine Anfrage. Das ist als würdest Du in eine Buchhandlung gehen und sagst "Ich will ein Buch". Also: Wie ist diese Anwendung installiert und wie hast Du ihr den Zugriff auf die fehlenden Daten ermöglicht.
  6. Hast Du schon unter den Tisch geschaut?
  7. Wirst Du wohl mit apt-get installieren müssen.
  8. https://letmegooglethat.com/?q=resize+partition+debian StackExchange? growpart? Ohne Gewähr!
  9. Noch eine zusätzliche Anmerkung hierzu da es oft zu Missverständnissen führt: Selbst bei einer "Precleared" Festplatte wird am Ende der Punkt a.) - das clearen - im neuen, bisher ungenutzten Bereich der Festplatte ausgeführt. Deshalb bringt das Preclearen nur eine Zeitersparnis im Array beim Hinzufügen von zusätzlichen Platten und nicht beim Ersetzen von Festplatten. Denn es ist eine beliebte Frage beim Ersetzen durch eine größere Platte "Wieso wird denn nach dem Rebuild über Stunden nur die Ersatzplatte (ggfs. zusätzlich Parity) beschrieben?" Das sind die Nullen ...
  10. Genau so funktioniert das Unraid Array seit Anfang an - egal ob mit XFS, BTRFS, ReiserFS oder ZFS. Am Ende des Rebuilds wird a.) der Rest der größeren Platte mit Nullen beschrieben und b.) die Partition in diesen Bereich erweitert. Diese zusätzlichen Anpassungen wandern dann auch gleich in die Parity so dass diese 20 TB Platte sofort wieder gegen eine andere 20 TB ausgetauscht werden könnte. Ein kleiner Ausflug ins Jahr 2008 in dem ich meine erste Unraid Lizenz erwarb https://web.archive.org/web/20080803131341/http://lime-technology.com/?page_id=47#toc-replace-a-single-disk-with-a-bigger-one
  11. Kann man mit Unraid Bordmitteln ändern. Danach muss die Linux Partition innerhalb der vdisk manuell angepasst werden: Das sind dann aber eher Linux Bordmittel und hat nix mehr mit Unraid zu tun.
  12. I think a blank line after "Subject:" ends the message header and puts the rest of the header into the message body. Perhaps two CR LF or a character interpreted as such. Perhaps the subject comes with it's own CR|LF.
  13. After the latest update SQLiteBrowser does no longer work here. I receive an empty blue screen - nothing else. I did restart the container, I did empty my browser cache, nothing helps. What can I do?
  14. Ist doch auch zu 99,99% die gleich Vorgehensweise. Zum Abschluss wird bei Clear Disk zusätzlich die Unraid Signatur gesetzt und eine leere Partition angelegt. Das steht auch zwei Posts über diesem ... Die "Reported_Uncorrect" würde ich auf jeden Fall beobachten. Wenn die weiter steigen würde ich nervös werden. Alle anderen Indikatoren sind IMHO nicht dramatisch.
  15. Ah, I see. The label "Search string" is misleading. It should be named e.g. "Search pattern" or even something that's more correct IMHO. The "Search string" "imdb" does not find anything.
  16. Das will der OP meinem Verständnis nach aber nicht. Eine Warteschlange - einen Stapel - abzuarbeiten können MKVToolNix, Handbrake, etc. Ihm geht es aber auch um das automatisierte Einlesen eines kompletten Ordners um alle Dateien in dem Ordner zu verarbeiten. Er will - um bei der Analogie zu bleiben - das der Stapel maschinell gefüllt wird und das der Stapel dann auch noch automatisch abgearbeitet werden soll. Das geht mit einem kleinen Skript wie gesagt bei MakeMKV, MKVToolNix und FFMPEG. Ich persönlich würde MakeMKV verwenden, da ich hier die volle Kontrolle über die Auswahl der Streams an Hand der oben gezeigten Selection-Rule hätte. Wenn die Stream Anordnung in den Input Dateien nämlich abweicht, dann stehst Du ohne intelligente Selection-Rule dumm da. Da kommst Du z.B. mit Stream-Nummern nicht weit. Meine Selection-Rule z.B. selektiert den hochwertigen DE Audio-Stream und schmeiß von diesem auch noch den Core raus. Das alles geht aber nur in einem Skript.
  17. Macht MKVToolNix schon. Das ist die Batch-Queue. Wie ich jetzt feststelle, willst Du das aber vom Lesen der Input-Dateien aus einem vorgegebenen Ordner, das Auswählen der Streams aus den einzelnen Dateien bis hin zum Verarbeiten aller gefundenen Dateien automatisiert durchführen. Das ginge auch mit den MakeMKV und MKVToolNix Containern sowie mit FFMPEG - aber nur auf der Kommandozeile. Das habe ich schon oft gemacht, aber dazu bedarf es der Bereitschaft sich mit der Materie zu beschäftigen und Programmierkenntnissen für kleine Skripte.
  18. Das Ergebnis wäre ein Remux. Ich nutze dazu den MakeMKV Container für ISOs und den MKVToolNix Container für MKV/AVI/... Dateien. Bei MKVToolNix kann man die Jobs in eine Batch-Queue einsortieren, bei MakeMKV geht das nur einzeln (es gibt für MakeMKV ein Third-Party Tool zum Erstellen einer Batch-Queue, aber das nutze ich nicht). MakeMKV - man kann eine Selection-Rule hinterlegen damit alles passend vorbelegt ist. Mit diesen Rules muss man nix mehr auswählen und nur noch starten. Z.B.: Selection Rule: -sel:all,+sel:(ger|nolang|single),-sel:(havemulti|core),+sel:mvcvideo,-sel:special,=100:all,-10:favlang,+sel:subtitle&(ger) Rename rule: {NAME1}{-:CMNT1}{-:DT}{title:+DFLT}{_t:T2} MKVToolNix:
  19. Can you please explain the search feature to me? Whatever I do - I never get a result. It does not work for shares, folders or even within a folder containing a file with the search pattern. Thanks.
  20. Da Du eine existierende Disk platt machen und auf seine Gesundheit checken willst, die später aber nicht mehr ins Array eingebunden werden soll. Hier wäre meine Vorgehensweise: Erase Disk, kein Pre-Read, kein Post-Read, kein Verify-Signatur, kein sonstiges Verify. Einfach mit Nullen füllen lassen ohne das Schreiben der Unraid Signatur (Erase). Mit Unraid Signatur wäre es Clear Disk und dann könnte man die Disk direkt ins Array einsetzen. Letzteres willst Du aber nicht. Jedes Byte, jeder Sektor wird bei Erase beschrieben. Sollten dabei Fehler auftreten, dann wird das a.) automatisch durch Reserve-Sektoren ausgeglichen oder b.) bei schwereren Problemen zu Deiner Kenntnis gebracht. Alles weitergehende ist Geschmacksache, ich bin bei gefühlt über 200 Festplatten mit Unraid aber immer nur den einfachen Weg gegangen und das war immer völlig ausreichend.
  21. Hm, da bin ich mir nicht sicher. Ich habe das noch nie gemacht, aber es klingt als würde Unraid einen exakt beschriebenen Zustand des Arrays erwarten - eine Data-Disk disabled, not missing, new larger disk. Erst dann wird Parity Swap erkannt:
  22. Grundsätzlich: Der Unraid "Cache" ist ein Schreib-Cache und kein Lese-Cache. Der Lese-Cache ist wie bei jedem Linux das RAM welches kürzlich bewegte Daten zwischenspeichert. Unabhängig davon kannst Du Dir natürlich etwas selbst stricken und Dateien manuell vom Array auf den Cache kopieren und dann dort abspielen.
  23. Bingo. Also war Dein manueller Eingriff das Problem und das bestätigt meinen Verdacht. Du kannst Root Ordner (User Shares) auf ZFS-Pools nicht mit rmdir (mc) löschen das sie mit create dataset und nicht mit mkdir erzeugt wurden. Du sprichst fehlende User-Freundlichkeit an. Die Verwendung von MC gehört für mich nicht zur User-Freundlichkeit. Die vorgesehenen Verwendung des movers ohne manuelles Rumfummeln unter der Haube ist hingegen User-Freundlich. Also nutz das GUI und überlass alles Unraid. Dann passt das. Die Bordmittel werden aufgebohrt:
  24. Ich denke, dass diese Vorgehensweise nicht im Sinne des Erfinders ist. Du hast dem User-Share AEV im Array einen ZFS-Pool "cachesam" vorgeschaltet. Solange AEV auf dem Array existiert, wird wohl AEV auch auf dem Pool existieren. Du hast ja auch eingestellt, dass diese Verknüpfung existiert. Ich arbeite nicht mit User-Shares deshalb muss ich fragen: Wie ist das mit einem BTRFS Pool? Würde der Mover zum Abschluss den Ordner AEV auf dem Pool löschen? Meines Erachtens wird mit ZFS ein User-Share auf einem Pool zu einem Dataset. Der Unterschied zwischen BTRFS und ZFS wäre dann nach meinem Verständnis: BTRFS legt den User-Share Ordner automatisch per MKDIR auf dem Pool an und löscht ihn - wenn der User-Share gelöscht wird - mit RMDIR. ZFS hingegen legt mit create einen Dataset an und der muss mit destroy gelöscht werden. MC kennt und kann das aber nicht. Nur mit mkdir erzeugte Ordner können mit rmdir gelöscht werden. IMHO musst Du nix anderes machen als die Finger vom Root-Ordner AEV zu lassen ... Du spielst mit einem RC - das ist noch nicht für den ernsthaften Betrieb gedacht. Außerdem ist die ZFS Integration laut des Announcements erst mit dem nächsten Release komplett. An dieser Stelle lohnt es sich somit, einen Schritt abzuwarten. Auch ich warte auf einen besseren Pool, aber das alles schreckt mich noch ab. Meiner persönlichen Meinung nach muss Limetech nochmal zurück ans Reißbrett um das Verhältnis Array <-> Cache <-> ZFS-Pool glatt zu ziehen.