MasterD

Members
  • Posts

    18
  • Joined

  • Last visited

Everything posted by MasterD

  1. @jj1987 Sorry wenn ich das etwas unklar definiert habe. Ich meine wirklich ZFS Pools. Wird in den meisten Videos gezeigt wie man sie anlegt. Hab zwei ZFS Pools bestehend aus 2x(4x1TB) SSDs und dann nochmal 7x im Array … alles dieselben Platten. Crucial mx500-1TB Mir gehts ja nicht um die einzelne SSD im Array sondern das der RAM nicht als Cache dient und zwischenspeichert! @hawihoney und ein Array kannst auch so einstellen das alle Platten gleichzeitig arbeiten. keiner hat erwartet das du das Array thematisiert. Wie schon gesagt im Video ist klar zu sehen das von HDDs aus mit 1Gbits kopiert wird. Es werden lediglich ein zwei Befehle eingeben und das wars! THX MasterD
  2. Hi, Also der RAM ist immer zu 99% frei. Da sollte es also von der Regelung passen und etwa 200GB frei zur Verfügung stehen. Es wird immer eine großes Image für denTestkopiervorgang verwendet. Im Video sieht das alles so einfach aus Werde mal die Prozesse im Auge halten. Das mit den ZFS Pools hatte seit Anfang an einwandfrei funktioniert.... wie gesagt ich wundere mich immer noch dass es mit dem Pool so schnell ist obwohl array und Pool dieselben SSDs verwenden. Ich hab mal gelesen dass für SSDs es sowieso gesünder wäre das die in ZFS Pools gepackt werden als in Arrays. Stimmt das ?
  3. ne ich wundere mich das mein SSD Array aus 7 Platten langsamer ist wie ein ZFS Pool (2Pools mit 4 SSDs) mit den selben SSDs ! der ZFS Pool schiebt mit 1000MB und das Array "nur" mit 500MB.
  4. alles gut...das bekommen wir schon irgendwie hin...ansonsten warten wir einfach bis du wieder testen kannst aber kann mir jemand erklären warum das mit dem ZFS Pool so schnell ist obwohl das SSDs sind?
  5. Ich hatte das mit dem Leerzeichen auch gehabt...habs dann richtig eingegeben und der Befehl wurde auch geschluckt...Aber an der Transferrate hat sich nicht geändert. @warp760: die beiden Befehle in der Konsole und in die "boot/confi/go" eingeben: sysctl vm.dirty_ratio=80 sysctl vm.dirty_expire_centisecs=3000 ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- EDIT: ich hab eben nochmal folgendes getestet: 1. von SSD (Workstation) über (10GB Network) auf SSD = ca.500MB 2. von SSD (Workstation) über (10GB Network) auf m.2 = ca.500MB 3. von m.2 (Workstation) über (10GB Network) m.2 = ca.500MB 4. von SSD (Workstation) über (10GB Network) ZFS_Pool (selben SSDs als vierer Pack gebündelt) = ca.1000MB 5. von m.2 (Workstation) zu (10GB Network) ZFS_Pool (selben SSDs als vierer Pack gebündelt) = ca.1000MB wieso klappt das mit dem ZFS Pool super und mit den Array nicht ?! ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Würde mich freuen wenn ihr das nochmal testen könntet damit wir herausfinden woran es liegt das der Speed nicht über den RamCache läuft. THX
  6. Hi, ich hab mich an das Video gehalten, dort wird es ohne einen Plugin umgesetzt. Im Video ist zu sehen, dass von HDD kopiert wird mit 1GBit TransferSpeed! Default sind es 20% vom RAM...aber der macht nicht seine Arbeit...also ich sehe den Speed-Unterschied nicht Ich erreiche meinen SSD Speed mit ca.500MB übers 10G Netzwerk
  7. Hi Zusammen, ich wollte meinen RAM als "Cache" nutzen und hatte dafür auch schon Einstellungen vorgenommen gehabt. Videos hab ich mir auch schon dazu angeschaut. wie z.B.: Unraid Cache erklärt: HDD vs SSD vs RAM - YouTube https://www.youtube.com/watch?v=bEYt_Y7llO0 Dies hab ich in die "boot/confi/go" geschrieben: #!/bin/bash # Start the Management Utility /usr/local/sbin/emhttp & # ------------------------------------------------- # Optimize write cache # ------------------------------------------------- sysctl vm.dirty_ratio = 80 sysctl vm.dirty_expire_centisecs = 3000 auch testweise andere Zahlen genommen bzw. alles zusammengeschrieben (...._ratio=80 oder _centisecs=3000) aber der RAM bewegt sich nicht in dem Hauptfenster! Wie kann ich meinen RAM als Cache nutzen damit die Daten erstmal auf dem RAM "abgelagert" und dann auf die SSD's verschoben werden? Grüzzi MasterD System: 2x2690v4 256GB Gigabyte MW70-3S0
  8. zwei Fragen habe ich noch wenn du gestattest was genau sagt mir dieses Feld mit "Letzte Datenträger"? Kann ich diese von dort "entfernen"? und dieses gelbe Ausrufezeichen bei "Gestartet" bedeutet das ich keine Parität besitze und deswegen das "Array ungeschützt" sei oder?
  9. an der Firmware und Einstellungen hab ich nix herumgedoktort! Weiß auch nicht warum der plötzlich so spinnt. Das heißt ich muss diesen Part ausführen oder? -->Pool slots auswählen OK...nach der Aktion sind die Platten wieder ONLINE puuuh! Dank dir für deinen schnellen Support zur später Stund!
  10. hi, die SDL ist die für die Arrays. WEnn ich diese auswähle dann heißt es "falsch" So sieht es aus nachdem Einbinden der Platten im Array aus:
  11. hi, die SDL ist die für die Arrays. WEnn ich diese auswähle dann heißt es "falsch"
  12. Hi Zusammen, ich habe letztens auf Version: 6.10.2 geupdated und konnte nach Neustart nicht mehr auf meine Daten im Array zugreifen. Grund ist "Datenträger X falsch". Egal welche Platte ich dem Platz 1 bis 7 zugeordnet habe kam diese Meldung. In diesem Array sind 10 Platten davon sind drei M.2 Platten, die anderen alle SSDs. die SSDs hängen an einem HP Controller! An dem zweiten HP Controller hängen weitere 8 SSDs im ZFS Modus. Diese laufen einwandfrei und ich komm übers Netzwerk auf die Daten. Wie gesagt bis vor Kurzem hatte alles einwandfrei funktioniert! Wie kann ich das wieder geradebiegen? Kann ich das Array entfernen und wieder neu einbinden ohne Daten zu verlieren? Ich besitze keine Parität. Hoffe die Bilder helfen bei der Analyse weiter. Mobo: GIGABYTE MW70-3S0 RAM: 256GB DDR4 ECC CPU: 2x2690v4
  13. Jetzt findet unraid meine Netzwerkkarte (intel561T) nicht. Unter /boot/config/network.cfg sehe ich die Einstellungen jedoch unter Systemgeräte sehe ich falsche NICs! IOMMU group 85:[8086:1528] 02:00.0 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) IOMMU group 86:[8086:1528] 02:00.1 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) Das müssten X561T sein...wie kann sich das von selbst ändern? bzw. wie soll ich das anstellen, dass unraid die richtigen erkennt? hmmm.... Ich hab nur einmal die Netzwerkkarte rausgenommen... edit: habs jetzt hinbekommen: hab den einfach trot der falschen Meldung unter Netzwerkeinstellungen die richtige IP eingetragen und getestet .... die ZFS_POOLs werden konstant mit 1GB/s versorgt! ...hat wohl irgendwie die Config verloren gehabt! Wenn ich mit der Maus unter Systemgeräte über die X540-AT2 fahre dann kommt diese Meldung: Denke das sollte stimmen oder?
  14. Also Wake on Thunderbolt war im Bios an. Aber leider ohne Erfolg...bin weiterhin auf der Suche nach dem richtigen Schalter. Bin schon im Handbuch unterwegs mal schauen ob ich da was anders finde. Wenn ich den Server heruntergefahren habe bleibt er ca. 2-3 Sekunden aus und startet wieder. Ich versuch dann genau in dieser Zeit mit dem NT den Server auszuschalten.
  15. ok, es hat also keine negativen Auswirkungen auf Gesundheit und Performance... dann können die 9 Platten so eingestellt bleiben. Ahja die systemeigenen Shares wie Domain oder Appdata sind auf alle verteilt! hmm sollte ich die auch lieber auf eine einzelne packen? Denke somit wäre Punkt 3 geklärt Danke...
  16. Wenn das wirklich damit gemeint ist dann kann ich damit leben... mir gehts halt darum, dass die anderen Platten in ruhe gelassen werden.
  17. Hi cz13, naja unraid meint "wenn du vorsichtig bist dann ignoriere diese Meldung" ... aber warum vorsichtig? ich will ja das die Daten direkt nur auf diese Platte abgespeichert werden... Gruß
  18. Hi Zusammen, ich als Unraid-Anfänger habe nun endlich meinen UNRAID Server zum Laufen gebracht und stehe vor der Aufgabe die richtige/passende Einstellung für mich zu finden. Ich weiß das wird noch etwas Zeit in Anspruch nehmen, weil vieles noch nicht so klar ist. Bin in der zweiten Testphase und würde die Einstellungen und Anpassungen gerne vor Ablauf erledigen. Aber mit der Hilfe der Community wird das schon klappen. Ich denke bevor ich mit meinen Fragen und Problemen anfange ist es besser den aktuellen Ist-Zustand aufzulisten. Folgende Hardware: 2x2690v4 | Gigabyte MW70-3S0 | 256GB DDR4 ECC | 14x MX500 1TB + 2x 860 1TB + 3x Firecuda510 1TB | TAPE | P400 | intel561T 10Gbe | EVGA SuperNova GA750W | Chenbro RM41416 | 5x Arctic P14 PWM PST Folgende Aufstellung: 8x MX500 1TB (2x (4x1TB ZFSRaid1) 5x MX500 1TB einzelne Shares - direkte Disk Zuordnung (inkl. exkl. Disk ) 1x MX500 1TB ist genau heute laut Unraid defekt! und mein 2tes ZFS meldet dass eine SSD Probleme macht! 3x Firecuda510 1TB einzelne Shares - direkte Disk Zuordnung (inkl. exkl. Disk ) ZFS: SMB Extras: [ZFS_SSD] path = /ZFS_SSD/ browseable = yes guest ok = yes writeable = yes read only = no create mask = 0775 directory mask = 0775 -->chmod 777 /ZFS_SSD [ZFS_SSD1] path = /ZFS_SSD1/ browseable = yes guest ok = yes writeable = yes read only = no create mask = 0775 directory mask = 0775 -->chmod 777 /ZFS_SSD1 ___________________________________ /boot/config/go: #!/bin/bash # Start the Management Utility /usr/local/sbin/emhttp & # ------------------------------------------------- # Optimize write cache # ------------------------------------------------- sysctl vm.dirty_ratio=50 sysctl vm.dirty_expire_centisecs=3000 _____________________________________ Schnittstellenbeschreibung: MAC Adresse: xx:64:A9:xx:xx:xx Netzwerkbündelung Aktivieren: Nein Netzwerkbrücke Aktivieren: Nein Netzwerkprotokoll: Nur IPv4 IPv4 Adresszuweisung: Statisch IPv4 Adresse: 192.168.2.1 IPv4 Standard Gateway: 2 Gewünschte MTU: 9014 VLANs Aktivieren: Nein Bei mir sieht die Aufstellung etwas anders aus, also nicht Unraid typisch... Mein Wunsch ist es den Server nur mit SSD und NVME zu nutzen. Denke daher benötige ich keinen "Zwischenspeicher" als Cache. Als Zwischenspeicher habe ich 50% meines RAMs genommen in der Hoffnung das der auch voll ausgenutzt wird. Dieses System soll eigentlich nur als Storage und als Testumgebung für weitere Projekte (Monitoring/VMs/etc...) genutzt werden. Ein Backup der Daten wird separat auf einen anderen Backup-Server durchgeführt. Es spricht aber nichts dagegen eine interne Sicherung (Parity) irgendwann mal zu integrieren. Folgende Fragen: 1. Wieso hab ich beim Kopieren mal 1GB/s und mal 500mb. Hängt das vom ZFS und den einzelnen Shares ab? Oftmals schwankt es...Ich starte einen Kopiervorgang fängt mit 1GB/s an und fast in der Mitte fällt es dann ab auf 500mb. Das File ist etwa 60GB groß. Testweise auch zwei Dateien kopiert und beide erstmal mit 250mb. Dann pausierte ich eine Datei und der andere lief dann mit 1GB/s komplett durch! Da hätten doch beide 500mb machen sollen...Manchmal läuft der Kopiervorgang komplett mit 1GB/s durch. Mir kommt es so vor, dass die beiden ZFSraids mit 1GB/s arbeiten und die einzelnen Platten im Array "nur" mit 500mb. Denke die 128GB Cache vom RAM sollten für größere Kopiervorgänge ausreichend sein. 2. ZPOOL: mir ist aufgefallen (zpool status), dass nachdem ich die beiden Pools erstellt hatte .. die Bezeichnung von sdk sdl sdi sdm etc... auf scsi (Nr.) ändert! Wieso ändert Unraid die Bezeichnung und was hat das zu bedeuten? pool: ZFS_SSD1 state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A config: NAME STATE READ WRITE CKSUM ZFS_SSD1 ONLINE 0 0 0 (sdk) scsi-330014380356ac6e1 ONLINE 0 0 0 (sdj) scsi-330014380356ac6e8 ONLINE 0 0 0 (sdl) scsi-330014380356ac6e2 ONLINE 0 0 0 (sdm) scsi-330014380356ac6ea ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: /ZFS_SSD1/Gamez/<xattrdir>/user.DOSATTRIB --->finde diese Datei(n) nicht! 2. Gibt es Einstellungen, die ich vornehmen kann, um die Lebensdauer von SSD's und NMVE's nicht zu "gefährden"? Hatte mal gelesen, dass nur SSD und NVME Devices mit Unraid nicht empfohlen sind. 3. Was spricht gegen eine direkte Zuordnung von Platten auf Shares? Weil mein "Fix Common Problems meldet "Share Doku1 is set for both included (disk4) and excluded (disk1,disk2,disk3,disk5,disk6,disk7,disk8,disk9) disks" "While if you're careful this isn't a problem, there is absolutely no reason ever to specify BOTH included and excluded disks. It is far easier and safer to only set either the included list or the excluded list. Fix it here" Für eine direkte Zuordnung würde eine "direkte" Nutzung sprechen, denn dann wird auch nur diese eine Platte bearbeitet und nicht alle in diesem Array...oder sehe ich das falsch. 4. Gibt es eine App oder was anders von Unraid um defekte Platten am Gehäuse bzw. am Festplatteneinschub erkenntlich zu machen. Wie weiß ich genau bei vielen Platten welche jetzt genau herauszuziehen ist. Ok außer ich gehe bei der Erstellung der ZFS und Arrays alles einzeln durch und markiere mir die Cases. Wäre das aber trotzdem irgendwie möglich? 5. Der Server fährt ordnungsmäßig herunter und dann startet er wieder und bootet. Habt ihr dieses Prob auch mal gehabt? Ich lass ihn herunterfahren schaltet ihn dann mit dem Netzteil aus! Das ist auf Dauer net gesund .... Denke das reicht für den Anfang...falls ich was unklar erklärt haben sollte habt etwas Nachsicht. THX MasterD