Jump to content

hawihoney

Members
  • Posts

    3,513
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Im ersten Moment wirkt das als, wäre bei der Installation etwas falsch gelaufen oder die aktuelle Version installiert sich nicht richtig. Gibt es Hinweise in Nextcloud unter den Administratoreinstellungen?
  2. Mit einer oder zwei vorhandenen Parity Disk(s) ist es tatsächlich so einfach: Platte im Array geht kaputt, Server stoppen, defekte Platte rausnehmen, Ersatzplatte reinstecken, Server starten, Ersatzplatte in der GUI dem nun leeren Slot zuweisen, Array starten, Ersatzplatte wird mit Inhalt der defekten Platte rekonstruiert und System kann, während die Rekonstruktion der Daten noch läuft, sofort wieder genutzt werden. In Deinem Fall gab es keine Parity - also keine Ausfallsicherheit. Da gibt es keine Möglichkeit die Daten einer defekten Platte zu rekonstruieren. Das "Array" (parity-geschützt oder nicht) ist ein Unraid-spezifisches Konstrukt (RAID-1 bzw. RAID-4) in dem jede Platte grundsätzlich und unveränderlich einem Slot zugewiesen wird. Das ist notwendig für das Parity-geschützte Array. Unter anderem für den Fall, dass das Array ohne Parity genutzt wird, gibt es dann die "New Config".
  3. Nachfrage: Was soll mit dem Inhalt der zu entfernenden Platte geschehen?
  4. Ist halt so. Die Bilddateien werden bei denen immer um xx:08 erstellt. Offensichtlich geht deren Kamera-Uhr 5 Minuten vor. Oder deren eigener Cron-Jon 5 Minuten nach. Musst Du mit dem bereitstellenden Unternehmen klären.
  5. Ich habe im Abstand von einigen Minuten folgende Befehle abgesetzt. In beiden Fällen erhielt ich eine um 60 Minuten versetzte Uhrzeit bei der Zieldatei. Das bedeutet in meinen Augen, dass das der Datumsstempel der Quelldatei ist. Ich denke das Problem liegt bei der Quelle. Meine Vermutung: Die erzeugen jede Stunde zur 8. Minute ein Bild und unter dem Erstellungszeitpunkt wird es verteilt. Das passt auch zu Deinen 09:08 oben: root@Tower:~# cd /tmp/ root@Tower:/tmp# date Thu Nov 17 13:14:00 CET 2022 root@Tower:/tmp# wget https://pss.wsv.de/wsahmue/WebCam-Edersee-02-Aktuell/current.jpg --2022-11-17 13:14:05-- https://pss.wsv.de/wsahmue/WebCam-Edersee-02-Aktuell/current.jpg Resolving pss.wsv.de (pss.wsv.de)... 141.17.30.41 Connecting to pss.wsv.de (pss.wsv.de)|141.17.30.41|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 387194 (378K) [image/jpeg] Saving to: ‘current.jpg.1’ current.jpg.1 100%[====================================================================================================>] 378.12K --.-KB/s in 0.06s 2022-11-17 13:14:05 (6.13 MB/s) - ‘current.jpg.1’ saved [387194/387194] root@Tower:/tmp# ls -la current* -rw-rw-rw- 1 root root 402888 Nov 17 12:08 current.jpg -rw-rw-rw- 1 root root 387194 Nov 17 13:08 current.jpg.1
  6. After upgrade to one of the latest releases I can no longer work with IPMI. I'm not quit sure if this is Unraid related but this is what has changed recently. When starting IPMI i'm greeted with the following static page a wait pointer and that it was. I can't navigate, I can't click, it simply refuses to work. Any idea what the reason might be? Diagnostics attached. Thanks. tower-diagnostics-20221117-1013.zip
  7. https://wiki.unraid.net/Shrink_array#The_.22Clear_Drive_Then_Remove_Drive.22_Method
  8. Guck einfach mal auf dem Server und teste das zusätzlich. Es sei denn es interessierte Dich nicht wirklich ... Dann habe ich einfach Zeit verschwendet.
  9. ... aber den Slot leer lassen. Dann klappt ein New Config mit Parity is valid. Diese Vorgehensweise ist im Wiki beschrieben. Mich wundert gerade nur warum jemand Disk1 entfernen will ...
  10. Ist schon richtig die Angabe. Kann das der Datumsstempel der Quelle sein? Als Test: Mach mal ein neues User Script - nennen wir es T. Unter die Bash Zeile schreibst Du nur "date" (ohne Quotes. Ruf das mit Run Script auf. Stimmt das Ergebnis?
  11. Bei den meisten Server- bzw. NAS-Systemen werden defekte Platten ersetzt oder im schlimmsten Fall emuliert. Platten komplett zu entfernen ist eigentlich nicht vorgesehen. Du kannst es ja so lassen. Da passiert nichts. Sieht halt nur Sch... aus Eben nicht. Hier fehlt das Grundwissen zur Parity-Kalkulation in einem RAID-4 bzw. Unraid System. Jedes Bit einer jeden Festplatte steht an genau der Stelle im Datenstrom die seiner Position (Slot) im Array entspricht. Willst Du eine Platte entfernen, dann müssen auf der/den Parity-Platte(n) innerhalb jeden Bytes die Bits verschoben werden. Das läuft auf eine komplette Neuberechnung der Parity hinaus. Während dieses Zeitraums ist das gesamte Array ungeschützt. Das will nun wirklich niemand. Und wenn das dann doch jemand will, dafür gibt es New Config.
  12. Ich denke das geht nur über eine New Config. Aber Achtung: Man sollte genau wissen was man macht. Das ist ein Administrator Werkzeug. Und wie alle diese Werkzeuge kann eine fehlerhafte Anwendung bis zum kompletten Datenverlust führen. Im Grunde genommen teilt man Unraid mit "Vergiss die aktuelle Konfiguration, hier ist die Neue, baue die Parity basierend auf der neuen Konfiguration neu auf". Ich habe das Werkzeug bisher zwei Mal eingesetzt und hatte jedes mal Fracksausen:
  13. Dann werden die Befehle aber nicht ausgeführt, sondern werden wahrscheinlich Fehler generieren (z.B. Command not found). Sie sorgen u.a. dafür, dass z.B. nicht während eines Parity Checks etc. ausgeführt wird, etc.: Schau Dir die Bedeutung der einzelnen Befehle in der Plugin Ankündigung an und entscheide selbst:
  14. Zwei mögliche Gründe: 1.) Linux speichert zu kopierende Daten im RAM zwischen. Deshalb ist jeder Kopiervorgang zunächst extrem schnell. Sobald der interne Speicher gefüllt ist fällt die Performance auf normale Werte. 2.) Welcher Typ von Festplatte ist das Ziel? Und? Ist es jetzt schneller?
  15. Thanks. After a first crash of my Unraid Server in 10-12 years, I tried to change the VM Start. Added boot_order=1 to the USB stick and changed the IMG to boot_order=2. Startup is way faster now. Next time I will remove the IMG completely. Thanks for the tip.
  16. Wofür steht "250M". Sind das Meter? Dem Hover nach interpretiere ich MB/s. Stimmt das? Und an anderer Stelle werden 3 GBit/s gelobt - was wiederum ~ 375 MB/s entspricht.
  17. Steht bei mir ebenfalls so drin und läuft. https://github.com/linuxserver/reverse-proxy-confs/blob/master/nextcloud.subdomain.conf.sample#L3-L14
  18. Am Sonntag? Keine Nachbarn? Oder eine Neubausiedlung wo Sonntags alle arbeiten? Haben vor vielen Jahren Sonntags einen Spaziergang durch ein benachbartes Neubaugebiet gemacht. Ein Haus war fertig - vermutlich keine Eigenleistungen. Die Bewohner des Hauses saßen im Garten. Und rundherum tobte der Baulärm - sogar mit Bagger. Meine Frau und ich schauten uns an und sagten "Das wären wir". Damals beschlossen wir entweder a.) ein gebrauchtes Haus in einer ausgebauten Siedlung zu kaufen und kernsanieren oder b.) kein Haus zu kaufen. Viele Jahre später haben wir a.) gezogen. Obwohl wir alle Gewerke vertraglich auf Mo-Fr 08:00-17:00 verpflichtet hatten, wurden wir nahezu täglich in der Straße angeschrien. Nicht wegen des Baulärms, nein, wegen den liebgewonnenen Parkplätzen vor der Haustür. Die öffentliche Straße gehört ja angeblich anteilig zum Haus. In der Summe wollten uns das 6 (sechs) Eigentümer von benachbarten Häusern glaubhaft versichern. Willkommen in Absurdistan.
  19. Falsch! Das sind Anweisungen für das User Scripts Plugin selbst. Bei denen muss das # vorgesetzt werden. Siehe mein Beispiel oben.
  20. Du hast die Grundzüge der Parity nicht verstanden. Da wird nichts vorgehalten. Das ist kein Backup. Die Parity bietet Ausfallsicherheit. Disk4 wurde aus dem Array entfernt. Die Parity und Disk1 sind in der Lage den aktuellen Stand der Disk4 zu emulieren. Was dort emuliert wird ist der Stand der Disk4 vor deren Entfernen. Nun hast Du die physikalische Disk4 in Unassigned Devices eingebunden. Zusätzlich hast Du eine emulierte (virtuelle) Disk4 im Array. Mit beiden kann man arbeiten. Wenn Du die Befehle von @JorgeB gegen /mnt/md4 ausführst, dann arbeitet das mit der emulierten (virtuellen) Disk4. Änderungen die sich dadurch ergeben werden sofort im Array hinterlegt. Wenn Du irgendwelche Datenrettungs Maßnahmen an der physikalischen Disk4 ausführst, dann betrifft das zunächst nur die eine Festplatte. Sollten dadurch Dateien wieder erreichbar sein, dann kannst Du die aufs Array kopieren. Das landet dann zunächst auf der Parity und Disk1 sowie der emulierten Disk4. Auf eine richtige Disk4 landet das dann erst, wenn zum Abschluss aller Arbeiten wieder eine echte Festplatte als Disk4 ins Array gesteckt wird. Ich würde gem. JorgeB vorgehen.
  21. Aber Du siehst Ordner mit "ls -la /mnt/disk4/"? Und Du kannst mit "cd /mnt/disk4/Ordner/" in einen dieser Ordner hinein wechseln und dann mit "ls -la" den (leeren) Inhalt von diesem Ordner aufrufen ohne das eine Fehlermeldung erscheint? Das ist wichtig, denn das bedeutet, dass die emulierte Disk4 offensichtlich nicht ganz im Eimer ist. Der Inhalt von Disk4 im Array mag dann weg sein, aber die Disk4 muss nicht zum Abschluss neu eingerichtet werden. Wenn ja: Alle weitergehenden Arbeiten konzentrieren sich jetzt auf die außerhalb des Arrays stehende Disk4. Alles was dort rekonstruiert werden kann, könnte auf die emulierte Disk kopiert werden. Letzteres nur wenn Du wie oben geschrieben Ordner unterhalb von /mnt/disk4 siehst. Zieh dann aber jedes mal ein Backup für die Zwischenstände. Ist ja nur eine 4 TB Disk
×
×
  • Create New...