MasterD

Members
  • Posts

    18
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

MasterD's Achievements

Noob

Noob (1/14)

0

Reputation

  1. @jj1987 Sorry wenn ich das etwas unklar definiert habe. Ich meine wirklich ZFS Pools. Wird in den meisten Videos gezeigt wie man sie anlegt. Hab zwei ZFS Pools bestehend aus 2x(4x1TB) SSDs und dann nochmal 7x im Array … alles dieselben Platten. Crucial mx500-1TB Mir gehts ja nicht um die einzelne SSD im Array sondern das der RAM nicht als Cache dient und zwischenspeichert! @hawihoney und ein Array kannst auch so einstellen das alle Platten gleichzeitig arbeiten. keiner hat erwartet das du das Array thematisiert. Wie schon gesagt im Video ist klar zu sehen das von HDDs aus mit 1Gbits kopiert wird. Es werden lediglich ein zwei Befehle eingeben und das wars! THX MasterD
  2. Hi, Also der RAM ist immer zu 99% frei. Da sollte es also von der Regelung passen und etwa 200GB frei zur Verfügung stehen. Es wird immer eine großes Image für denTestkopiervorgang verwendet. Im Video sieht das alles so einfach aus Werde mal die Prozesse im Auge halten. Das mit den ZFS Pools hatte seit Anfang an einwandfrei funktioniert.... wie gesagt ich wundere mich immer noch dass es mit dem Pool so schnell ist obwohl array und Pool dieselben SSDs verwenden. Ich hab mal gelesen dass für SSDs es sowieso gesünder wäre das die in ZFS Pools gepackt werden als in Arrays. Stimmt das ?
  3. ne ich wundere mich das mein SSD Array aus 7 Platten langsamer ist wie ein ZFS Pool (2Pools mit 4 SSDs) mit den selben SSDs ! der ZFS Pool schiebt mit 1000MB und das Array "nur" mit 500MB.
  4. alles gut...das bekommen wir schon irgendwie hin...ansonsten warten wir einfach bis du wieder testen kannst aber kann mir jemand erklären warum das mit dem ZFS Pool so schnell ist obwohl das SSDs sind?
  5. Ich hatte das mit dem Leerzeichen auch gehabt...habs dann richtig eingegeben und der Befehl wurde auch geschluckt...Aber an der Transferrate hat sich nicht geändert. @warp760: die beiden Befehle in der Konsole und in die "boot/confi/go" eingeben: sysctl vm.dirty_ratio=80 sysctl vm.dirty_expire_centisecs=3000 ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- EDIT: ich hab eben nochmal folgendes getestet: 1. von SSD (Workstation) über (10GB Network) auf SSD = ca.500MB 2. von SSD (Workstation) über (10GB Network) auf m.2 = ca.500MB 3. von m.2 (Workstation) über (10GB Network) m.2 = ca.500MB 4. von SSD (Workstation) über (10GB Network) ZFS_Pool (selben SSDs als vierer Pack gebündelt) = ca.1000MB 5. von m.2 (Workstation) zu (10GB Network) ZFS_Pool (selben SSDs als vierer Pack gebündelt) = ca.1000MB wieso klappt das mit dem ZFS Pool super und mit den Array nicht ?! ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Würde mich freuen wenn ihr das nochmal testen könntet damit wir herausfinden woran es liegt das der Speed nicht über den RamCache läuft. THX
  6. Hi, ich hab mich an das Video gehalten, dort wird es ohne einen Plugin umgesetzt. Im Video ist zu sehen, dass von HDD kopiert wird mit 1GBit TransferSpeed! Default sind es 20% vom RAM...aber der macht nicht seine Arbeit...also ich sehe den Speed-Unterschied nicht Ich erreiche meinen SSD Speed mit ca.500MB übers 10G Netzwerk
  7. Hi Zusammen, ich wollte meinen RAM als "Cache" nutzen und hatte dafür auch schon Einstellungen vorgenommen gehabt. Videos hab ich mir auch schon dazu angeschaut. wie z.B.: Unraid Cache erklärt: HDD vs SSD vs RAM - YouTube https://www.youtube.com/watch?v=bEYt_Y7llO0 Dies hab ich in die "boot/confi/go" geschrieben: #!/bin/bash # Start the Management Utility /usr/local/sbin/emhttp & # ------------------------------------------------- # Optimize write cache # ------------------------------------------------- sysctl vm.dirty_ratio = 80 sysctl vm.dirty_expire_centisecs = 3000 auch testweise andere Zahlen genommen bzw. alles zusammengeschrieben (...._ratio=80 oder _centisecs=3000) aber der RAM bewegt sich nicht in dem Hauptfenster! Wie kann ich meinen RAM als Cache nutzen damit die Daten erstmal auf dem RAM "abgelagert" und dann auf die SSD's verschoben werden? Grüzzi MasterD System: 2x2690v4 256GB Gigabyte MW70-3S0
  8. zwei Fragen habe ich noch wenn du gestattest was genau sagt mir dieses Feld mit "Letzte Datenträger"? Kann ich diese von dort "entfernen"? und dieses gelbe Ausrufezeichen bei "Gestartet" bedeutet das ich keine Parität besitze und deswegen das "Array ungeschützt" sei oder?
  9. an der Firmware und Einstellungen hab ich nix herumgedoktort! Weiß auch nicht warum der plötzlich so spinnt. Das heißt ich muss diesen Part ausführen oder? -->Pool slots auswählen OK...nach der Aktion sind die Platten wieder ONLINE puuuh! Dank dir für deinen schnellen Support zur später Stund!
  10. hi, die SDL ist die für die Arrays. WEnn ich diese auswähle dann heißt es "falsch" So sieht es aus nachdem Einbinden der Platten im Array aus:
  11. hi, die SDL ist die für die Arrays. WEnn ich diese auswähle dann heißt es "falsch"
  12. Hi Zusammen, ich habe letztens auf Version: 6.10.2 geupdated und konnte nach Neustart nicht mehr auf meine Daten im Array zugreifen. Grund ist "Datenträger X falsch". Egal welche Platte ich dem Platz 1 bis 7 zugeordnet habe kam diese Meldung. In diesem Array sind 10 Platten davon sind drei M.2 Platten, die anderen alle SSDs. die SSDs hängen an einem HP Controller! An dem zweiten HP Controller hängen weitere 8 SSDs im ZFS Modus. Diese laufen einwandfrei und ich komm übers Netzwerk auf die Daten. Wie gesagt bis vor Kurzem hatte alles einwandfrei funktioniert! Wie kann ich das wieder geradebiegen? Kann ich das Array entfernen und wieder neu einbinden ohne Daten zu verlieren? Ich besitze keine Parität. Hoffe die Bilder helfen bei der Analyse weiter. Mobo: GIGABYTE MW70-3S0 RAM: 256GB DDR4 ECC CPU: 2x2690v4
  13. Jetzt findet unraid meine Netzwerkkarte (intel561T) nicht. Unter /boot/config/network.cfg sehe ich die Einstellungen jedoch unter Systemgeräte sehe ich falsche NICs! IOMMU group 85:[8086:1528] 02:00.0 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) IOMMU group 86:[8086:1528] 02:00.1 Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) Das müssten X561T sein...wie kann sich das von selbst ändern? bzw. wie soll ich das anstellen, dass unraid die richtigen erkennt? hmmm.... Ich hab nur einmal die Netzwerkkarte rausgenommen... edit: habs jetzt hinbekommen: hab den einfach trot der falschen Meldung unter Netzwerkeinstellungen die richtige IP eingetragen und getestet .... die ZFS_POOLs werden konstant mit 1GB/s versorgt! ...hat wohl irgendwie die Config verloren gehabt! Wenn ich mit der Maus unter Systemgeräte über die X540-AT2 fahre dann kommt diese Meldung: Denke das sollte stimmen oder?
  14. Also Wake on Thunderbolt war im Bios an. Aber leider ohne Erfolg...bin weiterhin auf der Suche nach dem richtigen Schalter. Bin schon im Handbuch unterwegs mal schauen ob ich da was anders finde. Wenn ich den Server heruntergefahren habe bleibt er ca. 2-3 Sekunden aus und startet wieder. Ich versuch dann genau in dieser Zeit mit dem NT den Server auszuschalten.
  15. ok, es hat also keine negativen Auswirkungen auf Gesundheit und Performance... dann können die 9 Platten so eingestellt bleiben. Ahja die systemeigenen Shares wie Domain oder Appdata sind auf alle verteilt! hmm sollte ich die auch lieber auf eine einzelne packen? Denke somit wäre Punkt 3 geklärt Danke...