Jump to content

hawihoney

Members
  • Posts

    3,513
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. In etwa so. Da Du aber keine weitergehenden Details genannt hast, müsstest Du die Quelle, das Ziel und die Dateierweiterung selbst ändern: #!/bin/bash #arrayStarted=true #backgroundOnly=true #clearLog=true #noParity=true # Woher? (Beispiel) sperrmauer_url="https://xxxxxxxx" # Wohin? (Beispiel) sperrmauer_dir="/mnt/user/Sperrmauer" today=$(date +"%Y%m%d") wget -O "$sperrmauer_dir/$today.jpg" "$sperrmauer_url"
  2. Vor 15 Jahren installiert und schon längst wieder vergessen. Danke für die Erinnerung an alte Zeiten. Woher weißt Du was auf P: liegt? Das meine ich mit Verwaltung. Ich möchte die Komfortfunktionen von Plex (Bilder, Filme, Serien, Musik, Hörbücher) und Nextcloud (Dokumente, Sonstiges) wirklich nicht mehr missen. Bilder getaggt mit "Karl User" --> zack alle Bilder von Karl. Eine Serie mit "Bill Nighly" --> zack alle Serien mit dem Schauspieler. Dokumente von 03.11.1992 --> zack alle entsprechenden Dokumente.
  3. Und genau so muss es sein. Disk4 wird nun emuliert. Das degradierte Array zeigt nun "seinen" aktuellen Wissensstand. Dieser unterscheidet sich nicht von dem "Wissen" mit defekter Disk4. Jetzt mal auf die emulierte Disk4 zugreifen (ls -la /mnt/disk4 oder mc aufrufen). Was siehst Du? Danach guckst Du was den Inhalt des Arrays angeht und machst ggfs. ein Backup. Disk4 steht nun außerhalb des Arrays und sollte dort für Reparaturen/Analysen bleiben. Alles was Du mit ihr anstellst geht auch ohne das Array. Im Gegenteil: Das Array kannst Du jetzt auf Inhalt (nicht Parity) prüfen, sichern und nutzen. Und eventuelle Ergebnisse der Reparaturen können auf das Array kopiert werden. Wenn Du eine Reserve Platte in Größe der entfernten Platte (oder größer bis maximal Parity Größe) hast, dann könntest Du diese reinstecken und Disk4 rebuilden lassen. Dann hättest Du die Ausfallsicherheit wiederhergestellt. Selbst eine wiederhergestellte, schrottige Disk4 kann zur Ausfallsicherheit beitragen - es geht ja nur um Bits. Hauptsache die Bits stimmen über das Array hinweg. Irgendwann mal, nach Abschluss aller Arbeiten, muss die Disk4 - sofern sie defekt emuliert wurde (siehe /mnt/disk4 oben) - im Array aber neu aufgebaut (formatiert) werden. Oder man entfernt sie ganz. Das alles entscheidet man ganz zum Schluss.
  4. Keine zusätzliche Software fürs Suchen, Abspielen, Anzeigen, Erstellen von Metadaten, Querverweisen? Alles rein über das Dateisystem? Noch nicht mal das Einfachste vom Einfachen - DIR/TREE in Datei(en)? Suchen nur mit DIR/FIND? Ohne die Art der Daten und des Einsatzzweckes zu kennen klingt das für mich zunächst umständlich.
  5. Aber angeboten vor dem Start. Nach dem Start wird dann formatiert. Ich würde wirklich mal testen was passiert wenn das Array ohne besagte Platte im Maintenance Mode gestartet wird. Nix schreiben, nur lesen. Wird die Platte emuliert? Werden die Daten emuliert? Wird das Array als "degraded" angezeigt? Oder wurde eine defekte/leere/unformatierte Platte in die Parity geschrieben? Über die Gründe kann man nur spekulieren. Mir ist noch nie (!!!) eine Harddisk fliegen gegangen ohne das Unraid das merkt. Ich hatte aber schon mehrere Ausfälle von SSD- und NVMe Disks die nicht zur Kenntnis genommen wurden. Das letzte mal vor 2 Wochen. Nachtrag: Du bist jetzt auf 6.9.1?
  6. Aber müsste dann nicht das Formatieren beim gestoppten Array angeboten werden (was natürlich nicht gemacht werden sollte)? Und noch ein Gedanke: Array stoppen, Disk4 ziehen und im Maintenance Modus starten. Was würde passieren? Dieser Zustand des Arrays verwirrt mich.
  7. Mich wundert im Screenshot, dass Disk4 offline ist, Disk1 aktiv, die Parity aber nicht. Eigentlich müsste beim Zugriff auf Daten, die sich auf Disk4 befanden, emuliert werden. Dazu müsste aber die Parity mit einspringen. Greif bitte mal auf Daten zu, von denen Du weißt, dass sie auf Disk4 sein müssten. Was passiert? Fährt die Parity hoch?
  8. Aus Neugierde: Mit welcher Software nutzt/verwaltest Du 480 TB? Plex und Nextcloud sind ja offensichtlich raus. Bei uns läuft alles genau über diese beiden.
  9. Nur zur Info: Mein Hinweis zur Reihenfolge bezog sich auf die Konsistenz der Daten. Wenn man die Dateien eines Containers wie z.B. Nextcloud, Plex, etc. kopiert ohne den Container vorab ordentlich herunterzufahren, dann können die Daten von kein Problem über inkonsistent bis kaputt alle Schattierungen annehmen. Gleich einen ganzen Service wie Docker beim Clonen laufen zu lassen kann alle möglichen Auswirkungen erzeugen. Natürlich gibt es Vorkehrungen in Anwendungen (z.B. Transaktionen in Datenbanken) die Inkonsistenzen vermeiden, aber man weiß nie was die Entwickler so alles gebaut haben. Vor dem Kopieren immer Stoppen. Damit ist man auf der sicheren Seite. Z.B. sollte ein Container Backup immer so aussehen: docker stop <container> rsync docker start <container> Und wenn Dinge zusammen gehören, wie MariaDB und Nextcloud, dann achtet man zusätzlich auf die Reihenfolge: docker stop Nextcloud (1) docker stop MariaDB (2) rsync Nextcloud rsync MariaDB docker start MariaDB (2) docker start Nextcloud (1)
  10. I address passed through USB devices by "bus:device" and not by "vendor:product". That way I'm completely independent of same devices, IDs, whatever. No USB-Manager here. This did work for years. Now with 6.11.3 I'm greeted and stuck in some kind of BIOS whenever I start a Unraid VM. This BIOS appears after hitting 10-20 times on ESC, etc. Within the unknown BIOS I need to hit "Continue". After that the Unraid VM starts. <hostdev mode='subsystem' type='usb' managed='no'> <source> <address bus='1' device='2'/> </source> <alias name='hostdev0'/> <address type='usb' bus='0' port='1'/> </hostdev>
  11. Ich habe den alten Link gefunden. Nach dieser Anleitung bin ich vorgegangen: https://www.linuxserver.io/blog/2015-12-14-creating-an-unraid-virtual-machine-to-run-on-an-unraid-host Unter "Step 5" wird eine VDisk angelegt - warum auch immer.
  12. Gute Frage: Ich habe das gemäß Anleitung gemacht. Du wählst beim Anlegen einer Unraid VM eine Linux Distribution aus. Ich dachte immer, dass das darin rudimentär enthalten ist.
  13. Zunächst: Die Ausgabe auf Deinem zweiten Screenshot IST die Ausgabe von BTRFS zum Dateisystem. Wenn Du dem nicht vertraust, dann könnten wir noch bei LimeTechnology eine schriftliche Bestätigung in zweifacher Ausfertigung anfragen <SCNR>. Wir reden hier über BTRFS RAID-1. Da ist alles ein wenig anders als von anderen RAID Systemen gewohnt. Hier, im Unraid Forum, gibt es bestimmt hunderte Threads zum Thema: Warum zeigt BTRFS unterschiedliche/andere Daten/bla bla an. Wenn Du dem nicht vertraust, zieh einfach eine Platte aus dem Pool im laufenden Betrieb ab und teste es. Und zu Balance: https://btrfs.readthedocs.io/en/latest/btrfs-balance.html Wahrscheinlich werde ich gelyncht, aber ich glaube beim Design von BTRFS wurde viel geraucht ... Das ist meine höchstpersönliche Meinung zu dem FS.
  14. Das Ausrufezeichen bedeutet "nur", dass es keine Ausfallsicherheit für den betreffenden Share/Ordner gibt. Das hat nix mit Privat, o.ä. zu tun.
  15. Ich verstehe die Frage nicht. Das steht doch da mehrfach (3x): RAID1. Was willst Du denn noch?
  16. Gleiches gilt für den user nobody. Ich dachte immer, dass nobody nicht "exposed" ist. Deshalb hatte ich immer Paare geschaffen. Klient user=abcdefg, Unraid user=abcdefg. Und vor einigen Jahren habe ich vorsichtshalber "New permissions" geclont und lasse das auf dem Unraid Server ab und an mal per User Script über SMB Ziele laufen.
  17. Mit dem Unraid Upgrade von 6.11.1 auf 6.11.3 bin ich beim Start der Unraid VMs (Unraid Host und Unraid Client) in einer Art BIOS gelandet. Früher startete jede Unraid VM sofort. Der Unraid Client startet von einem USB Stick aber davor hängt natürlich eine VDisk. In den Announcements hatte ich schon gelesen, dass man nun eine Boot Order angeben muss. Aber was genau ist denn nun erforderlich? Die Boot Order bei der VDisk oder die Checkbox bei "Enable USB boot"? Was ist korrekt? Vielen Dank.
  18. Unraid Version 6.11.2? Wenn ja, 6.11.3 installieren.
  19. On every new Unraid version that is downloaded to flash the following happens at the end: - All disks spin up with some reads - RAM cache is purged. This means a simple lookup for a file spins up all disks again if they were spinned down 15 minutes after the update (15 minutes set in options) Why? I mean a new version is copied to flash. Why spinup all disks? Why purge RAM cache? Thanks in advance for some information.
  20. Was zeigt denn "ls -la" auf dem Unraid Server für einen der angesprochenen Ordner und Dateien?
  21. Ah, verstehe. Du füllst also die fstab auf dem Linux Rechner. Das war mir nicht klar. Ist das evtl. ein Apple Rechner? Dann bin ich nämlich raus. Frage: Wer ist 1000:1004 auf dem Unraid Server? Standarduser unter Unraid ist 99:100 (nobody:users) - quasi für alles. Im Grunde genommen ist es egal, Hauptsache die Rechte stimmen - aber das wäre schon mal eine Unraid Spezifika. Denn Unraid ist von Hause aus eine NAS-Appliance mit Benefit (Docker, KVM, ...). Mehr oder weniger alles lässt sich über die GUI regeln. Über die GUI ist dann auch garantiert, dass die Unraid Regeln eingehalten werden. Lieber systemnahe Tools wie Unassigned Devices etc. nutzen statt auf der Kommandozeile fummeln. Aber ich schweife ab ... Schau mal in die /var/log/syslog auf dem Unraid Server. Gibt es dort Hinweise?
  22. Eigentlich wollte ich nicht mehr auf Posts reagieren, in denen die Unraid-spezifischen Eigenschaften komplett ignoriert werden und Unraid wie eine stinknormale Linux Distribution behandelt wird (das es nicht ist). fstab? Was ist das? Spaß bei Seite: Ich habe an Hand der o.a. Details nicht eindeutig erkennen können von wo nach wo es geht. Könntest Du das mir bitte noch kurz aufzeigen. Ist 192.168.178.23 eine Unraid Maschine oder liegt /media/unraid auf der Unraid Maschine?
×
×
  • Create New...