-
Posts
2794 -
Joined
-
Last visited
-
Days Won
2
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Everything posted by hawihoney
-
Ich habe das schon dutzende Male an meinem System gehabt. Ich besitze drei Backup-Platten die, je nach dem welche Platte gerade dran ist, an einen USB-Anschluss am Motherboard gesteckt werden. Dann starte ich ein User Script (rsync) zum Befüllen. Wenn das Skript fertig ist, klicke ich innerhalb des Unassigned Devices Plugin auf "unmount". Alle Nase lang klappt das nicht - selbst wenn ich noch einige Stunden nach Abschluss des User Scripts warte. Den "Hänger "bekomme ich ohne Reboot dann auch nicht mehr weg. Ich ziehe dann die Platte ab. Die Platte ist dann völlig in Ordnung und hat alle Übertragungen sauber abgeschlossen. Wenn dieser Fall eintritt, dann sieht das bei mir genau so aus. Die Platte steht noch im System - oder auch nicht. Und es werden 100 % Auslastung angezeigt - oder auch nicht. Ich habe schon vor langer Zeit aufgegeben darüber nachzudenken. Du bekommst diesen Rest einfach nicht aus dem System. Reboot hilft dann immer. Meines Wissens nach hatte ich beim ersten Auftreten sogar einen Bug Report los getreten. Da kam außer Reboot aber auch nix bei rum. Kurzer Nachtrag: Die Ordner und Dateien sind in dem Fall nie zu sehen - nur die Platte. So weit ist das dann abgeschlossen. Wie oben auf dem Screenshot im Dynamix File Manager zu sehen ist dann die Platte zu erkennen aber sonst nix mehr.
-
Durch einen Reboot ist das garantiert weg. Dich stören die 100 % Auslastung. Kann ich verstehen. Ist aber unkritisch. Im ersten Screenshot/Listing steckt die Disk drin, im zweiten ist sie raus. Ist wohl was hängen geblieben o.ä.
-
/mnt/disks/ (lokale Platten) und /mnt/remotes/ (entfernte Shares) sind vom Unassigned Devices Plugin. /mnt/addons/ ist neu und für eigene Mountpoints des Users vorgesehen. Bereinigen? Am besten in Unassigned Devices prüfen. So sieht das zum Beispiel bei mir aus: [email protected]:~# ls -la /mnt/addons/ total 0 drwxrwxrwt 3 nobody users 60 Apr 14 10:50 ./ drwxr-xr-x 30 nobody users 600 Mar 4 06:34 ../ drwxrwxrwx 1 root root 0 Apr 14 10:51 gdrive/ [email protected]:~# ls -la /mnt/disks/ total 0 drwxrwxrwt 4 nobody users 80 Mar 21 17:11 ./ drwxr-xr-x 30 nobody users 600 Mar 4 06:34 ../ drwxrwxrwx 3 nobody users 20 Nov 15 2021 NVMe2/ drwxrwxrwx 3 nobody users 21 Mar 9 20:44 pool_ssd/ [email protected]:~# ls -la /mnt/remotes/ total 0 drwxrwxrwt 46 nobody users 920 May 2 10:11 ./ drwxr-xr-x 30 nobody users 600 Mar 4 06:34 ../ drwxrwxrwx 2 nobody users 0 Sep 29 2021 192.168.178.101_disk1/
-
/mnt/user/ - alle Dateien eines User-Shares auf Array (AKA Secondary Storage) und Cache bzw. Pool (AKA Primary Storage). /mnt/user0/ - alle Dateien eines User-Shares auf Array ohne die Dateien auf Cache bzw. Pool. Wenn Du einen Cache bzw. Pool vorgeschaltet hast, dann werden dort neue Dateien und Ordner abgelegt bevor sie durch den Mover weitergereicht werden. /mnt/user0/ zeigt diese neuen Dateien und Ordner nicht an. /mnt/user/ hingegen zeigt die kombinierte Sicht auf den User-Share.
-
@trurl hat das sehr gut aufgebröselt in diesem Post:
-
I just asked because I am already confused. And as somebody who helps here since over a decade I should use correct naming. So the array is still the array and pools are still pools. And the cache is gone with that RC4 release. Got it now.
-
"unRAID pool" is the new name of the old unRAID array? And other pools are just "pools"?
-
Legt diese Vorgehensweise (Share anlegen) nicht einen Root Ordner auf der entsprechenden Array-Disk an - und der wird dann nicht genutzt?
-
Geht leider auch nicht - gerade probiert. Es werden logischerweise nur meine Array Devices als "included Disk(s)" zur Auswahl angeboten (Disk1...22). Der Pool taucht nicht auf. Ich müsste ein Array Device auswählen, den Pool als Cache auswählen und dann den Pool auf "Only" stellen. Da merkt man die Herkunft des alten Unraid im neuen Unraid. Ein solches Konstrukt gefällt mir einfach nicht. Ich lasse es einfach so wie es ist.
-
Nein. Wobei mich gerade wundert warum die User Shares grün sind. Denn ich habe nur einen Single Device XFS Pool... Da ist wohl etwas kaputt bei mir - läuft aber erste Sahne seit einem halben Jahr oder so..
-
Nein tut es nicht. Ich hänge gleich hier noch zwei Screenshots an ...
-
Ich hatte mir vor einigen Jahren eine eigene Struktur ausgedacht. Die läuft seit Jahren astrein. Jetzt kommen aber neue Automatismen/Regeln die nicht zu meiner Struktur passen. Mein /mnt/pool_nvme/system/appdata/ taucht noch nicht mal bei den Shares auf. Klar, wäre nicht notwendig. Werde wahrscheinlich nach dem Einbau von Multiple Arrays alles neu strukturieren.
-
Dann hat sich etwas an der PiHole Konfiguration geändert. Wenn es jetzt klappt - OK. Guck Dir trotzdem Mal kurz die Anweisungen (z.B. #arrayStarted) im Threads des User Script Plugins an. Das sind nützliche kleine Helferlein.
-
1.) Das kann nicht das ganze Skript sein. Es fehlt der Hash Bang in der ersten Zeile. Es fehlen Hashes vor den Skriptanweisungen (z.B. #arrayStarted). Es fehlt die Leerzeile nach den Anweisungen (hinter noParity). 2.) Was steht im Script Log?
-
Falsch. Die Parity wird on-the-fly für jeden geänderten Block auf Disk6 beschrieben. Auf Deinem Screenshot kannst Du sehen was geschrieben wird. Damit werden jetzt alle (!!!) Platten genutzt und nicht mehr nur Disk2, Disk6 sowie Parity --> benötigt mehr Strom. Für mich ist die Situation an Hand Deines Screenshots klar. Dynamix FileManager nutzt rsync zum Verschieben der Daten. Der Match von 72 MB/s auf den drei betroffenen Platten zeigt, dass nix Anderes läuft. Es gäbe sonst ein Lese- oder Schreibunterschied bei den drei Platten. Rechne einfach mal an Hand Deiner Daten nach. Welches Volumen in TB verschiebst Du?
-
Aus Deinem Screenshot wird das ersichtlich: Es wird von Disk2 gelesen und auf Disk6 geschrieben. Offensichtlich hast Du eine einzelne Parity in Betrieb - diese wird ebenfalls beschrieben. Die Schreibperformance von über 70 MB/s ist bei mechanischen Festplatten absolut in Ordnung da das Parity-geschützte Array pro Schreibvorgang vier Operationen ausführt (siehe unten). Das entspricht über 200 MB/s was für mechanische Festplatten sehr gut ist. Ich gehe davon aus, dass Du sehr, sehr viele Daten verschiebst ... Nun teile die zu verschiebende Datenmenge durch 70 MB/s und Du kennst die dafür notwendige Zeit - vorausgesetzt Dein System ist nicht noch mit etwas Anderem beschäftigt. Wenn ich mich nicht verrechnet habe, dann kannst Du mit Deinem Array grob in vier Stunden 1 TB schreiben, bei 2 TB macht das acht Stunden, ... https://wiki.unraid.net/Manual/Storage_Management#Array_Write_Modes
-
Nimm den systemnahen Dynamix File Manager und arbeite im Browser.
-
1.) 5400er wären lange nicht so "zappig" wie 7200er 2.) USB? Ganz schlechte Idee. Ist hier schon dutzende Male thematisiert worden. USB Verbindungen sind definitiv nicht für RAID Systeme wie das Unraid Array gedacht. Nimm zu einfachen externen Gehäusen entweder eSATA oder lebe mit evtl. auftretenden Problemen.
-
Excuse my stupid question, I'm not sure about its implications. Will it still be possible to copy files in /usr/bin/ during first array start without problems? Example: cp /usr/bin/fusermount3 /usr/bin/fusermount
-
Ich kenne das Skript von @mgutt nicht in Gänze - habe gerade nur mal grob drüber geschaut. Stoppt es die VMs vor dem Backup? Ich meine dass das nicht der Fall ist. Wenn nein, dann kann bzw. wird das zum Problem werden. Du brauchst a.) Snapshots auf einem Snapshot-fähigen FS oder b.) ein Backup Programm welches vorab die VMs stoppt und nach dem Backup wieder startet. Man könnte es auch einfach selber in User Scripts packen (Stichworte: virsh sowie rsync Kommandos) aber das erfordert rudimentäre Programmierkenntnisse.
-
Beim Anbieter den Umstand unter Zusendung von Details (Anmelde Bestätigung, etc. wenn vorhanden) beschreiben und Account löschen lassen. Alles andere löst nicht das ursächliche Problem.
-
Die einfachste Variante wäre über das Dynamix FileManager Plugin in der Unraid Oberfläche im Browser. Ggfs. musst Du die yaml Extension für den FileManager aktivieren in /boot/config/editor.cfg. Letzteres kannst Du ebenfalls im FileManager editieren.
-
Das ist Quatsch. Ich hatte @ich777 allgemein geantwortet (Single Disk ZFS|XFS im Array). Du hast das gequotet und mein Argument für eine Gegenrede verwendet. Ich habe das richtig gestellt und schon drehst Du es wieder um. Geht es hier ums letzte Wort haben müssen? Korrekt war es jedenfalls nicht. Lies im Zweifel noch mal.
-
Kein Thema. Ich hatte manchmal Probleme mit fremden DNS-Servern und Telekom. Ich kann das nicht erklären aber es scheint als gäbe es manchmal Auflösungs-Probleme. Ich rotiere in solchen Fällen zwischen Telekom, Google, Cloudflare und zurück und dann klappt es.