Jump to content

hawihoney

Members
  • Posts

    3,497
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Schau mal in die Einstellungen des "Unassigned Devices" Plugin. Zu finden unter dem Einstellungen Tab von Unraid:
  2. Wenn man es exakt so haben muss - warum auch immer: Lege für jeden User einen Share an. Nutze für den Zugriff auf die Daten das "Dynamix File Manager" Plugin aus dem Unraid App Store. Dieses ist systemnah und installiert sich nahtlos in die Unraid Oberfläche. Für das Laden der Daten vom alten System installiere das "Unassigned Devices" Plugin aus dem Unraid Store. Dieses ist systemnah und installiert sich nahtlos in die Unraid Oberfläche. Mit UD kannst Du den entfernten Zugriff auf Dein altes NAS einrichten und die Daten schlussendlich mit FM kopieren. Installiere Nextcloud und nutze die "Externe Speicher" Erweiterung von Nextcloud um die Unraid Shares einzubinden. Nextcloud hat WebDAV mit an Bord. Achtung: Unraid ist nicht Synology sowie keine voll aufgeblasene Linux Distribution. Es ist eine NAS Appliance mit viel Mehrwert. Gerade beim Rechtesystem wird sich der eine oder andere umgewöhnen müssen. Denn das System arbeitet meist mit "nobody:users" (99:100). Man kann daraus ausbrechen, aber dann muss man gewährleisten das die vergebenen Rechte den gewünschten Zugriff gewähren.
  3. nextcloud vs. Nextcloud. Das würde ich nicht machen. Hat aber nix mit Deinem Problem zu tun. Kann ich bestätigen. Maßgeblich für User ist data. Dürfte in Ordnung sein.
  4. Ich nutze ebenfalls den LSIO Container. In der GUI habe ich das so angelegt. Bei mir erhalten alle Container Pfade den Suffix "Slave" - also r/w/slave oder r/slave etc.: Das ist das Ergebnis von der Unraid Konsole. Wobei ich mich nicht daran erinnern kann, dass ich dort eine Unterscheidung vorgenommen habe: drwxrwxrwx 9 nobody users 125 Oct 20 07:47 nextcloud/ drwxrwx--- 9 nobody users 224 Feb 15 2021 nextcloud.data/
  5. Korrekt. Kein "Ja aber". Ist einfach so. Die Parity Berechnung für ein Array mit genau zwei Platten (1x Parity, 1x Daten) erzeugt zufällig ein RAID-1. Die Art der Berechnung für eine einzelne Parity Disk ist immer gleich - egal ob 2 oder 24 Platten.
  6. Falsch. Die Formel, der Mechanismus, ist im Array immer gleich. Bei genau zwei Platten entsteht dann "zufällig" ein RAID-1 Verbund. Raid-4 ohne Striping. Ansonsten identisch. Pool: Einzelne Platten unter XFS oder BTRFS. Mehrere Platten als RAID unter BTRFS. Array: Mehrere Platten als RAID-4 (ohne Striping) mit 0, 1 oder 2 Parity Disks Zusätzlich gibt es ZFS (Plugin?), Unassigned Devices (Plugin) Die Platten-Limits sind leider vor Kurzem von der Website verschwunden. Sonst würde ich das hier posten.
  7. Das ist aber nix was Deine Probleme betrifft. Hoffte es würde dort etwas passendes stehen. Probleme wie die von Dir geschilderten sind für mich einfach nicht nachvollziehbar. Wenn man eine Software installiert, dann erwartet man, dass diese zumindest ihre eigene benötigte Datenbank richtig einrichtet. Nur zur Kontrolle. Das sind Deine Repositories? lscr.io/linuxserver/mariadb lscr.io/linuxserver/nextcloud
  8. Im ersten Moment wirkt das als, wäre bei der Installation etwas falsch gelaufen oder die aktuelle Version installiert sich nicht richtig. Gibt es Hinweise in Nextcloud unter den Administratoreinstellungen?
  9. Mit einer oder zwei vorhandenen Parity Disk(s) ist es tatsächlich so einfach: Platte im Array geht kaputt, Server stoppen, defekte Platte rausnehmen, Ersatzplatte reinstecken, Server starten, Ersatzplatte in der GUI dem nun leeren Slot zuweisen, Array starten, Ersatzplatte wird mit Inhalt der defekten Platte rekonstruiert und System kann, während die Rekonstruktion der Daten noch läuft, sofort wieder genutzt werden. In Deinem Fall gab es keine Parity - also keine Ausfallsicherheit. Da gibt es keine Möglichkeit die Daten einer defekten Platte zu rekonstruieren. Das "Array" (parity-geschützt oder nicht) ist ein Unraid-spezifisches Konstrukt (RAID-1 bzw. RAID-4) in dem jede Platte grundsätzlich und unveränderlich einem Slot zugewiesen wird. Das ist notwendig für das Parity-geschützte Array. Unter anderem für den Fall, dass das Array ohne Parity genutzt wird, gibt es dann die "New Config".
  10. Nachfrage: Was soll mit dem Inhalt der zu entfernenden Platte geschehen?
  11. Ist halt so. Die Bilddateien werden bei denen immer um xx:08 erstellt. Offensichtlich geht deren Kamera-Uhr 5 Minuten vor. Oder deren eigener Cron-Jon 5 Minuten nach. Musst Du mit dem bereitstellenden Unternehmen klären.
  12. Ich habe im Abstand von einigen Minuten folgende Befehle abgesetzt. In beiden Fällen erhielt ich eine um 60 Minuten versetzte Uhrzeit bei der Zieldatei. Das bedeutet in meinen Augen, dass das der Datumsstempel der Quelldatei ist. Ich denke das Problem liegt bei der Quelle. Meine Vermutung: Die erzeugen jede Stunde zur 8. Minute ein Bild und unter dem Erstellungszeitpunkt wird es verteilt. Das passt auch zu Deinen 09:08 oben: root@Tower:~# cd /tmp/ root@Tower:/tmp# date Thu Nov 17 13:14:00 CET 2022 root@Tower:/tmp# wget https://pss.wsv.de/wsahmue/WebCam-Edersee-02-Aktuell/current.jpg --2022-11-17 13:14:05-- https://pss.wsv.de/wsahmue/WebCam-Edersee-02-Aktuell/current.jpg Resolving pss.wsv.de (pss.wsv.de)... 141.17.30.41 Connecting to pss.wsv.de (pss.wsv.de)|141.17.30.41|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 387194 (378K) [image/jpeg] Saving to: ‘current.jpg.1’ current.jpg.1 100%[====================================================================================================>] 378.12K --.-KB/s in 0.06s 2022-11-17 13:14:05 (6.13 MB/s) - ‘current.jpg.1’ saved [387194/387194] root@Tower:/tmp# ls -la current* -rw-rw-rw- 1 root root 402888 Nov 17 12:08 current.jpg -rw-rw-rw- 1 root root 387194 Nov 17 13:08 current.jpg.1
  13. After upgrade to one of the latest releases I can no longer work with IPMI. I'm not quit sure if this is Unraid related but this is what has changed recently. When starting IPMI i'm greeted with the following static page a wait pointer and that it was. I can't navigate, I can't click, it simply refuses to work. Any idea what the reason might be? Diagnostics attached. Thanks. tower-diagnostics-20221117-1013.zip
  14. https://wiki.unraid.net/Shrink_array#The_.22Clear_Drive_Then_Remove_Drive.22_Method
  15. Guck einfach mal auf dem Server und teste das zusätzlich. Es sei denn es interessierte Dich nicht wirklich ... Dann habe ich einfach Zeit verschwendet.
  16. ... aber den Slot leer lassen. Dann klappt ein New Config mit Parity is valid. Diese Vorgehensweise ist im Wiki beschrieben. Mich wundert gerade nur warum jemand Disk1 entfernen will ...
  17. Ist schon richtig die Angabe. Kann das der Datumsstempel der Quelle sein? Als Test: Mach mal ein neues User Script - nennen wir es T. Unter die Bash Zeile schreibst Du nur "date" (ohne Quotes. Ruf das mit Run Script auf. Stimmt das Ergebnis?
  18. Bei den meisten Server- bzw. NAS-Systemen werden defekte Platten ersetzt oder im schlimmsten Fall emuliert. Platten komplett zu entfernen ist eigentlich nicht vorgesehen. Du kannst es ja so lassen. Da passiert nichts. Sieht halt nur Sch... aus Eben nicht. Hier fehlt das Grundwissen zur Parity-Kalkulation in einem RAID-4 bzw. Unraid System. Jedes Bit einer jeden Festplatte steht an genau der Stelle im Datenstrom die seiner Position (Slot) im Array entspricht. Willst Du eine Platte entfernen, dann müssen auf der/den Parity-Platte(n) innerhalb jeden Bytes die Bits verschoben werden. Das läuft auf eine komplette Neuberechnung der Parity hinaus. Während dieses Zeitraums ist das gesamte Array ungeschützt. Das will nun wirklich niemand. Und wenn das dann doch jemand will, dafür gibt es New Config.
  19. Ich denke das geht nur über eine New Config. Aber Achtung: Man sollte genau wissen was man macht. Das ist ein Administrator Werkzeug. Und wie alle diese Werkzeuge kann eine fehlerhafte Anwendung bis zum kompletten Datenverlust führen. Im Grunde genommen teilt man Unraid mit "Vergiss die aktuelle Konfiguration, hier ist die Neue, baue die Parity basierend auf der neuen Konfiguration neu auf". Ich habe das Werkzeug bisher zwei Mal eingesetzt und hatte jedes mal Fracksausen:
  20. Dann werden die Befehle aber nicht ausgeführt, sondern werden wahrscheinlich Fehler generieren (z.B. Command not found). Sie sorgen u.a. dafür, dass z.B. nicht während eines Parity Checks etc. ausgeführt wird, etc.: Schau Dir die Bedeutung der einzelnen Befehle in der Plugin Ankündigung an und entscheide selbst:
×
×
  • Create New...