Jump to content

Kompletten Pool austauschen


Mofarocker33

Recommended Posts

Hallo zusammen,

 

ich habe bisher Unraid mit einem Raid Controller betrieben, also nur mir einer Datenplatte. Dahinter 3x 16TB.

Nun will ich auf 5 Platten und 2TB SSD als Cache umrüsten, zudem ohne den Raid Controller und Doppelte Parity.

 

Kann ich dann einfach alles mit root und rsync aus meinem Backup wieder drauf ziehen? Oder muss ich etwas beachten bei den Ordnern wie zb. System, wegen der Berechtigung?

 

Danke im Voraus.

Gruß der Mofgerockte

Link to comment
2 hours ago, Mofarocker33 said:

Kann ich dann einfach alles mit root und rsync aus meinem Backup wieder drauf ziehen?

Lässt sich die eine Platte mit Unassigned Devices Plugin mounten?
Du möchtest 5 neue Platten kaufen und dann von deinen alten RAID auf das neue Array kopieren?

Du schreibst im Titel "Pool tauschen"
Wenn deinen RAID Mount in einem Pool liegt und nicht auf dem Array:

- Deine neuen Platten in das leere Array hinzufügen und formatieren. (Optional zuerst ohne Paritätsplatte damits schneller geht)
- Deine SSD in ein neues Pool legen und formatieren.
- Deine Datein vom RAID Pool zum Array kopieren.

Krusader könntest du als Tool für manuelles kopieren der Daten verwenden.
 

2 hours ago, Mofarocker33 said:

Oder muss ich etwas beachten bei den Ordnern wie zb. System, wegen der Berechtigung?

Ich weis nicht ob du spezielle Berechtigungen gesetzt hast für bestimmte Ordner/Datein.
Falls nicht und du sicher gehen möchtest kannst du wenn du fertig mit dem kopieren bist die Berechtigungen alle deiner Datein mal neutral auf Nobody setzten unter:
Werkzeuge > Neue Berechtigungen
Unter Datenträger wählst du deine neuen Platten aus und klickst auf Start. Das Pop-Up Fenster sagt dir wenn er fertig ist.

Edited by EliteGroup
Link to comment

Ne der Raid Controller soll raus. Dann die Drei Platten direkt dran und 2 Neue noch dazu.

Statt des Raid Controller kommt ne Icy Box Karte rein für die 2 TB SSD mit NVME. Das Mainboard von der z440 Worstation hat leider kein NVME Onboard. Also die Lötpinne sind da, aber kein Slot.

 

Sonst mache ich erstmal einfach nur ein ls -l Screenshot von den Hauptordnern zu Sicherheit.

 

Zudem habe ich eben gelesen, das ZFS in der Beta ist. Das währe schon Geiler die 5x16TB direkt als z2 Pool zu machen 🙂 Hrmh. Gucke ich mir gleich mal an.


Dann  fang ich gleich mal direkt an um zu Bauen^^

Link to comment

Keine Ahnung wie deine config ist aber du kannst nicht einfach die Raid raus und die platten so hinzufügen und dann einfach kopieren. hast du keien SATA plätze frei?

 

Dir ist bewust wenn du deine RAID karte raus nimmst und direkt mit dem System verbindest hast du keinen zugriff auf deine Datein.

 

Und wieso willst du ZFS als Array?

Damit machst du dir den Unraid Vorteil kaputt

Link to comment

Das ist mir bewusst mit den Daten, deswegen wollte ich die Einfach mir rsync vom Qnap im Keller - also aus dem Backup - wieder hoch schieben.
 

Jain. Mein Unraid vorteil für mich ist ein gutes System mit Docker und VM Verwaltung. Also insbesondere die Docker Verwaltung. Zudem halt Users und shares wo Cahce und so das ist cool. Aber Real Raid ist von der Performance doch schon besser. Zudem mit ZFS nochmal Sicherer für Bitflips oder sowas. Ein HW Raid Controller prüft ja nichts.

Ich war ja bisher auch zufrieden, ich denke aber ich sollte besser den Controller raus nehmen bei dem Umbau.

Denn ich habe auf die Verwaltung des Controllers einfach keinen zugriff, der piept mich gerne mal an und ich kann nicht einsehen was er hat oder macht.

 

Ich habe gleichgroße Platten und wie gesagt bisher Controller gefahren. Warum dann nicht ZFS RAID. Der Intel® Xeon® CPU E5-1650 v3 @ 3.50GHz mit 64 Gb Ram hat doch genug dampf dafür + 2TB SSD Cache obendrauf.

 

Würde ich jetzt auf einzelne Platten währe die Lese Performance ja misst mit 10gbe. Da währe doch mit dem Umstieg das Software Raid, das Coolere.
CPU

 

Bisher mit dem Controller ohne SSD Cache und den 3 Platten lag ich ca bei 550mb/s lesen und 450 mb/s schreibend.

Link to comment

Kommt ganz auf den Einsatzweck an... ZFS ist nicht sicherer als XFS.
Der Vorteil vom XFS Array ist du kannst direkt von Platten lesen und die anderen schlafen im Standby, das spart Strom und verschleiß

Das ZFS hat mehr Performance, laufen aber immer die Platten den ganzen Tag.

Du hast sehr wenig Infos in deinem Beitrag, ich wusste nichts von einem Backup im NAS. Dann brauchst du sowieso keine Parität wenn alles synchronisiert wird. Bzw. es muss nicht sein. Ob XFS oder ZFS liegt ganz an die Anwendungszweck an.
Für den Homeuser eher XFS und für Business Anwendung eher ZFS.
 

Link to comment
2 hours ago, EliteGroup said:

Und wieso willst du ZFS als Array?

Damit machst du dir den Unraid Vorteil kaputt

Naja, genau genommen nicht...ZFS im Array ist wie BTRFS iim Array...jede Daten-Dsk ist ein eigner zfs-pool mit je einer vdev.

 

1 hour ago, Mofarocker33 said:

Ich habe gleichgroße Platten und wie gesagt bisher Controller gefahren. Warum dann nicht ZFS RAID. Der Intel® Xeon® CPU E5-1650 v3 @ 3.50GHz mit 64 Gb Ram hat doch genug dampf dafür + 2TB SSD Cache obendrauf.

Du willst die HDDs, die vorher am Raid-Contrller waren als zfs-pool nutzen und für raidzX geht das nur in einem unraid-pool.

Da die HDDs am Controller nie schliefen ist das Thema Energiesparen bisher egal gewesen...

 

Ja, kannst Du so machen.

Allerdings die SSD als Cache für diesen raidzX zpool  verwenden geht nicht, da der zpool in unraid ein unraid-pool ist....genau wie die SSD...kaskadierende (unraid-/cache-)Pools gehen nicht.

Link to comment

Also @Ford Prefect du hast recht meine HDDs konnten bzw. durften aus Enterpise Raid Controller Gründen nicht schlafen.
Daher währe mit der Vorteil zwar nicht Egal, aber ich mag lieber die Performance als Stromspar. wie gesagt mit 10gbe, währe es doof nur von einer Platte was lesen zu können und wieder warten zu müssen.

Wie das geht nicht, dass ja voll blööd. Ich dachte neben einem Extra ZFS Pool könnte man den ganzen Pool einfach als ZFS Raid laufen lassen.
Ich meine der Name Unraid währe dann zwar nicht mehr ganz so treffend, aber das währe genau das was ich will.

Zudem meines Wissens nach kann man einen Pool in den Standby schicken, auch einen ZFS Pool. Wenn mit der Logik Cache SSD zu pool gearbeitet würde könnte der PPool auch wirklich bei ir ein paar stunden am Tag schlafen...
Aber ich vermute das die Entwickler da entweder Probleme mit haben, oder es dessen Grund Idee nicht wieder spiegelt.

@EliteGroup ein Software Raid mit ZFS ist sicherer als wie mein vorheriges Hardware raid - denn beim ZFS wird zwischendurch die Consistenz gecheckt. ein Hardware Raid Controller, knallt die daten einfach nach richtlinien durch und weg. Gibt dazu viel zu lesen im Netz.

Wie eben gesagt, wenn ich den Cache vorm ZFS laufen lassen könnte, würde der Pool an sich schlafen können und dürfen.

Welche Infos magst du denn noch haben, oder kannst du brauchen?
Das Qnap im Keller ist das kleinste 4 Bay x86 TS-451D2 - in das ich lustiger weise Erfolgreich 16 Gig Notebook Ram von Ebay Kleinanzeigen einbauen konnte, aber der Dual Core Celeron ist bei Egal was man tut bei 100% Last. Den Ram kann man gefühlt nicht voll bekommen jetzt, das der CPU so lahm ist... EGAL
Das hat auch eine USB-C Netzwerk Adapter für auf 5 Ggbe - ich glaube aber das ich den bald weg mache und das nas besser mit richtig konfigurierten 2x1Gbe laufen lasse. Über die Schnittstelle schaffe ich wenn es gut läuft 360 Mb/s schreibend. Jedoch war das USB ding recht teuer und ist auf ebay sehr begehrt.
Die 4 Bays haben 10 TB Drives. Dazu kommt demnächst aber noch ne 4 Bay Erweiterung die auch - ca an meinen Füßen - stehen. Das war letztens im Angebot, da habe ich mir das gekauft. Und von dem vorherigen NAS hatte ich noch 4x4TB WD Red einbehalten. War Preislich so verhandelt. Steht hier schon zusammengebaut, da ich es am PC ausprobiert hatte. Aber kommt dann auch ans Qnap für Backup, da ich ja Unraid auch erweitert habe.

Sonst habe ich aktuell 3x Zyxel Zyxel XGS1250-12 hier verteilt um vom Büro auf Dachboden in Keller zu kommen - alles mit 10G.
Wird sich aber alles in ein paar Wochen ändern, da ich mir ein Haus gekauft habe. Werde da auch alles verwerten bzw. weiterverwenden.

 

----

 

Erfolgreich umgestellt habe ich leider eben nur USB Stick Umzuh auf einen anderen und auf unstable release gewechselt.
Ich konnte die SSD nicht mit dem großen Kühler verbauen wie ich es will, muss da erst nen Loch Bohren in den Kühler, damit das so funzt wie ich das will. (Icy Box IB-PCI215M2-HSL) Der Weiße Punkt auf dem Kühler bekommt nen Loch, damit ich den größeren Kühler auf die SSD Montieren kann. (Bilder anbei)

PXL_20230421_192851292.jpg

PXL_20230421_192858326.jpg

Edited by Mofarocker33
Link to comment
10 minutes ago, Mofarocker33 said:

Wie das geht nicht, dass ja voll blööd. Ich dachte neben einem Extra ZFS Pool könnte man den ganzen Pool einfach als ZFS Raid laufen lassen.

Also ja, das geht., Aber...

Bitte gedanklich mal unraid-pool Konzept und ZFS-Pool Konzept  (zpool) trennen.

In unraid gibt es Pools, die als "Cache" für Shares im Array dienen können..die sitzen quasi vor dem Array. Mit den Cache EInstellungen des Shares, kann man beeinflussen wie Daten zwischen Array und Pool "wandern" können. Das auf dem unraid-pool verwendete Datei-System ist für dieses Konzept egal und frei wählbar.

Je nach Unterstützung des Dateisystems für den unraid-pool sind eben auch "normale" Software-Raid Level möglich....mit ZFS auch ZFS-Raid-Level. In ZFS heisst die oberste Ebene einer Storage-Struktur auf "pool" (zpool)....aber das ist nicht dasselbe wie ein unRaid-Pool...wenn Du also "nur" von eienm pool sprichst ist nict immer klar welche "Sorte" Du meinst...zpool oder unraud-pool.

Ein zpool kann eben auch ein unraid-pool sein, nicht umgekehrt.

 

19 minutes ago, Mofarocker33 said:

Zudem meines Wissens nach kann man einen Pool in den Standby schicken, auch einen ZFS Pool.

Ja...wenn aber Datenzugriff ist, laufen immer alle vdevs im zpool hoch.

 

20 minutes ago, Mofarocker33 said:

Wenn mit der Logik Cache SSD zu pool gearbeitet würde könnte der PPool auch wirklich bei ir ein paar stunden am Tag schlafen...

Der unraid-Pool kann Cache für das Array sein, nicht für einen anderen unraid-Pool.

 

21 minutes ago, Mofarocker33 said:

Aber ich vermute das die Entwickler da entweder Probleme mit haben, oder es dessen Grund Idee nicht wieder spiegelt.

Ja, letzteres. Das pool Konzept dient dem (write-)Cache des Array...das ist das Konzept...es ist kein generelles Caching-Konzept.

Also kannst Du keine unraid-pools kaskadieren...egal welches Dateisystem/raid-Level dabei unterliegend zum Einsatz kommt.

Link to comment

Okay verstehe was du beschreibst. Schade, dachte ich könne jetzt mir der aktuellen Unstable 6.12.0-rc3 statt unraid pool mit einzel HDDs und Parity ein ZFS Pool bedienen. Das währe richtig cool.
Wie gesagt, neben dem SSD Cache(pool) könnte man dann auch aus dem Software Raid (zfs) die Daten entsprechend schnell lesen. Man währe nicht an die Performance einer einzel Platte gebunden. (Toshiba MG08 16 TB 7200rpm)
Schade! Währe toll, aber dann mach ich erstmal mit den 5 im Einzelgespann mit xfs und double Parity. Vielleicht kommt so ein Feature ja noch im Step 2 der ZFS Integration. (fingers crossed)

Link to comment
4 hours ago, Mofarocker33 said:

Schade! Währe toll, aber dann mach ich erstmal mit den 5 im Einzelgespann mit xfs und double Parity. Vielleicht kommt so ein Feature ja noch im Step 2 der ZFS Integration. (fingers crossed)

das wird nicht passieren da es nicht zusammen passt, aber jetzt mal konkret.

 

wenn du das "Unraid Array" nicht willst, dann erstell dir 2 (oder mehr) "cache pools", cache ist ja nur ein Name ... und du "trennst" die Share Namen.

du verlierst halt den "Komfort" des fuse System's dass unter /mnt/user/Media alles angezeigt und lesbar ist was unter .../Media liegt, egal ob auf einem cache oder im array, du verlierst auch die integrierte Mover Funktion (was sich aber leicht selbst per script lösen lässt)

 

Beispiel, 1 x SSD Pool, 1 x ZFS Pool

.../cache_ssd/Media

.../pool_zfs/z_Media

 

jetzt hast du 2 Shares (anstelle 1x Media), aber du kannst dann beide Shares nutzen wie du willst und hast einen cache ssd pool und einen zfs_pool, fertig.

vielleicht geht das auch charmanter, ich nutze zfs nicht da ich für mich keinen Nutzen bisher sehe, wenn die zfs_pools so aufgebaut sind wie bei normalen shares und unter disk shares als 1 Share kommen könnte man auch mit disk Shares arbeiten (1 Level höher) , wie gesagt, kann ich jetzt nicht beurteilen und ist auch nicht mein Szenario.

 

Das "moven" steuerst du je nach Belieben mit einem script (ist per se auch nichts anderes ...), Medienserver ist es eh egal wie viele Quellen dahinter stecken, beispielsweise Plex kann ganz bequem damit umgehen das Filme oder Serien in diversen Quellen liegen, usw usw ...

 

Als Unraid "Array" nimmst du halt einen USB Stick als "dummy" und der bleibt leer ;)

 

In Summe geht das schon, nur halt mit Verzicht auf 2 Komfort Funktionen, dafür hast du dann die Performance deines zfs_pools wenn du das brauchst, ob das sinnig ist sei dahin gestellt da ich deinen usecase nicht kenne, ich möchte auch meine aktuellen Daten "schnell verfügbar haben", daher arbeite ich mit längeren "Standzeiten" auf meinem nvme ssd cache bevor hier etwas in das Array kommt, auch das geht ... wie gesagt, je nach usecase ;)

Link to comment
21 hours ago, Mofarocker33 said:

Kann ich dann einfach alles mit root und rsync aus meinem Backup wieder drauf ziehen?

Solange du --archive nutzt und unterhalb von /mnt/user wiederherstellst (also die Shares) und nicht /mnt, sehe ich dabei kein Problem.

 

15 hours ago, Mofarocker33 said:

z2 Pool

Macht die HDDs schneller, keine Frage, aber du hast neben dem bereits angesprochenen höheren Verbrauch auch keine Möglichkeit mal eben die Platten zu vergrößern oder gemischte Konstellationen oder eine Disk entfernen und den Pool verkleinern. Mag ja sein, dass du viele Daten hast, die du jederzeit per 10G ziehen willst. Aber gilt das wirklich auch für alles? In der Regel hat man Hot und Cold Data und das lässt sich in Unraid durch das Array ja perfekt abbilden. Und wenn man viel Hot Storage braucht, dann kauft man sich eben entsprechend große SSDs.

Link to comment

Habe dann mal alles Umgebaut.
Um meine eigen anfängliche Frage zu beantworten. Man muss unter Tools new Config sagen. Ansonsten kann man das Array nicht starten da ihm Hdd1 fehlt.

Ansonsten habe ich erstmal mit der Unraid Standard Vorgabe und XFS auf allen Drives eingerichtet. Erstmal auf Sync warten.
 

Habe zudem noch im BIOS gefunden das der PCIe x4 Slot nur mit Gen2 läuft. Das erklärt warum ich nie über 550Mb/s kam mit er 10Gbe Karte kam. Habe jetzt alles in Gen3 Slots.

Zudem falls noch jemand mit dem Gedanken spielt ein z440 auf Standard ATX um zu bauen, lass es - ist nur rumgepfusche, dann besser Standard Hardware kaufen.

Anbei ein paar Bilder.

PXL_20230424_163513948.jpg

PXL_20230424_164822355.jpg

PXL_20230424_190241085.jpg

PXL_20230424_190254686.jpg

2023-04-24 20_56_58-mofa-nas_Main.png

Link to comment
2 hours ago, Mofarocker33 said:

Habe zudem noch im BIOS gefunden das der PCIe x4 Slot nur mit Gen2 läuft. Das erklärt warum ich nie über 550Mb/s kam mit er 10Gbe Karte kam.

4x PCIe 2.0 = 4x 500 MByte/s = 2GByte/s

10GBit/s Lan = 1,25GBYte/s

Solange man nicht gleichzeitig maximum zu senden und empfangen versucht, sollte eine 10GBLan Karte dennoch auch in einem PCIe 2.0 x4 Slot zumindest in die aktuell stärker genutze Richtung (senden/empfangen) weit mehr als nur 550MBit/s oder auch 550MByte/s schaffen.

Aber natürlich kann es sein, daß der Slot sich die Bandbreite noch mit diversen anderen Komponenten an einem Flaschenhals teilen muß.

 

2 hours ago, Mofarocker33 said:

Habe jetzt alles in Gen3 Slots.

Gen3 oder mehr ist empfehlenswert. Und da es kaum PCIe 4.0 oder höhere Komponenten gibt (abgesehen von Grafikkarten und M.2 SSD) ist PCIe 3.0 eben in vielen Fällen sehr gut ausreichend.

 

2 hours ago, Mofarocker33 said:

2023-04-24 20_56_58-mofa-nas_Main.png

 

Ich sehe, Du hast eine AData Legend 800 drin.

Ich bin auf die 960 Legend wegen dem ct-Test aufmerksam geworden.

Wie ist das mit der 800. Ist die auch so dauerschreibfest?

 

Link to comment

@DataCollector - hast recht, aber dann war es der Hdd Speed. sieht man ja im Bild - 275 Mb/s *2 weil 3te Platten im Raid 5 ja nur Parity ist... Hrmh...

 

Ja Adata Legend 800 2TB war für ~63Euro im Angebot und hatte gute Lese und Write Speeds.

Lesen 3.500 MB/s

Schreiben 2.800 MB/s
-> Mal sehen was auf PCIe Gen3 zustande kommt...

 

Zudem habe ich im vorherigen Rechner von Adata Speicher gehabt und auch mal einen USB Stick der Qualetativ vollkommen in Ordnung war. Für Speicher und Leistung fand ich das vollkommen in Ordnung. Was mich immer noch nervt was das PCIe Board für die M.2 - von Icy Box - Namenhafter Hersteller aber Montage vollkommener Murks.
 

Den PCIe x4 2.0 kann ich ja dann immer noch nutzen, wenn S-ATA Controller für mehr HDDs benötigt wird. (Ohne RAID)

Edited by Mofarocker33
Link to comment
On 4/22/2023 at 12:43 AM, Mofarocker33 said:

Okay verstehe was du beschreibst. Schade, dachte ich könne jetzt mir der aktuellen Unstable 6.12.0-rc3 statt unraid pool mit einzel HDDs und Parity ein ZFS Pool bedienen. Das währe richtig cool.
Wie gesagt, neben dem SSD Cache(pool) könnte man dann auch aus dem Software Raid (zfs) die Daten entsprechend schnell lesen. Man währe nicht an die Performance einer einzel Platte gebunden. (Toshiba MG08 16 TB 7200rpm)
Schade! Währe toll, aber dann mach ich erstmal mit den 5 im Einzelgespann mit xfs und double Parity. Vielleicht kommt so ein Feature ja noch im Step 2 der ZFS Integration. (fingers crossed)

-> 

 

Link to comment
On 4/25/2023 at 1:07 AM, Mofarocker33 said:

@DataCollector - hast recht, aber dann war es der Hdd Speed. sieht man ja im Bild - 275 Mb/s *2 weil 3te Platten im Raid 5 ja nur Parity ist... Hrmh...

Bei Datenübertragungen (LAN/DSL) gibt man Bit/s an (gerne mit einem kleinen b abgekürzt).

Bei Geschwindigkeiten von Datenträgern gibt man Byte/s (weil die viel höher sind) an (gerne mit einem großen B abgekürzt).

275MByte/s Schreibgeschwindigkeit für eine Toshiba 16TB ist eigentlich ein sehr guter Wert (den die nur im Außenbereich hält).

 

On 4/25/2023 at 1:07 AM, Mofarocker33 said:

Ja Adata Legend 800 2TB war für ~63Euro im Angebot und hatte gute Lese und Write Speeds.

Lesen 3.500 MB/s

Schreiben 2.800 MB/s

Nachgemessen oder irgendwo angegeben?

Mich interessiert die realität und da dann diE Dauerschreibfestigkeit. Die Legend 960 wurde getestete und hält auch bei langem durchgehenden Schreiben mit maximaler Geschwindigkeit immer noch einen sehr hohen Wert.

 

On 4/25/2023 at 1:07 AM, Mofarocker33 said:

Zudem habe ich im vorherigen Rechner von Adata Speicher gehabt und auch mal einen USB Stick der Qualetativ vollkommen in Ordnung war. Für Speicher und Leistung fand ich das vollkommen in Ordnung. Was mich immer noch nervt was das PCIe Board für die M.2 - von Icy Box - Namenhafter Hersteller aber Montage vollkommener Murks.

Deinem Foto nach war ich auch sehr irritiert.

Hast Du das Loch in Den Kühler selber gebohrt?

Ich habe vor kurzem in einen alten PCIE 3.0 Rechner eine Inter-Tech KT016 mit einem NonameKühler (Amazaon mit Metallklammern) verbaut.

Darunter eine Samsung 970.

 

On 4/25/2023 at 1:07 AM, Mofarocker33 said:

Den PCIe x4 2.0 kann ich ja dann immer noch nutzen, wenn S-ATA Controller für mehr HDDs benötigt wird. (Ohne RAID)

Beachte, dass Du dann sinnvoll dort einen JMB585 oder ASM1166 Kontroller verwenden solltest um zumindest 2 der Lanes zu verwenden und aufgrund der dann nur ca. 1GByte/s Bandbreite würde ich maximal 4 festplatten über die Kontroller betreiben (die restlichen Steckplätze frei laseen oder nicht dem selben Array/Pool zuordnen, damit die sich möglichst wenig in die Quere kommen.

Edited by DataCollector
Link to comment

Kurzes Resümee:

 

  • Unraid Original System:

Sync Speed war in Ordnung, aber als ich angefangen habe Daten wieder her zu stellen - unter aller Kanone!

Write Speed war so 70-80 MB/s - inakzeptabel! 🤮

Und Google hat mir auch irgendwo auf den Foren damit geantwortet, das es ein Limit gibt, damit zuverlässig die Parity gebaut werden kann. Jedoch in meinem Fall unfuch, also einfach zu Lahm für das was ich habe und was ich will. Limit anheben habe ich auch nichts brauchbares gefunden. 😞

 

  • Unraid ZFS raid 6 als Pool, Share erstell als Cache Only:

Raid erstellen dauerte nicht ewig. 😁 Performance war auch die die ersten hunderte MB auch gut. 😁 Lag so bei bei gut 1,2GB/s schreibend
(da muss man aber 2x Platten Perfomance abziehen weil die ja nur Parity geschrieben haben - damit landet man gleich mit der Performance des Controllers weiter unten)

Jedoch brach dann aber mit dem ZFS Ram Balken bei 75% die Performance damatisch ein, auf ca 200 MB/s schreibend und blieb auch so. 😔 (Bild 1 und 2 unten)

Da ich nirgendwo zu der Unraid Beta und ZFS Konfiguration etwas finden konnte wie man den Cache erhöhen kann oder irgendwas dazu einstellen, habe ich mich auch davon abgewandt.

 

  • Zudem Adata SSD Legend 800 mit 2TB:

Jedes mal, wenn ich sie ein wenig benutzt habe, ist sie mal nach 15 -60 Minuten abgekratzt.
Ich habe auf dem Host Monitor nur 1-2 Infos gesehen wie wie RW Error auf NVMe0 lauteten und das ganze System ist eingefroren.
Nach Neustart erschien sie dann nicht mal mehr im BIOS bis ich sie aus und eingebaut habe.
Geht zurück.

Vielleicht haben andere eine Heile davon bekommen, oder mit NTFS gibt es weniger Probleme. (BTRFS, ZFS und XFS gleiches verhalten) Spätestens wenn ich das Array gestoppt habe - kurze Info im Bildschirm + System Freeze

 

  • ->> Nach all dem und Unzufriedenheit:

Raid Controller wieder eingebaut, alle Platten angeschlossen. Raid 6 Konfiguriert.
Ungefähr einen Tag laufen lassen wegen init des Arrays. Habe jetzt Lesen und schreiben zwischen 600 bis 800 Mb/s (Bild3)

 

---

Viel Arbeit für #WiederWasGelernt , aber es läuft nun so wie es für mich am besten ist.

 

Eine Cache SSD werde ich mir dann nochmal holen wenn im Angebot, vermutlich dann Samsung pro 2tb

  1.  sowas nicht wieder zu erleben
  2. Lese und schreibwerte nicht nach einer gewissen Zeit einbrechen (EVO Modelle) 
  3. Mal abgesehen von PC friert nicht ein.

 

Ich hoffe an der ZFS Unterstützung wird weiter gearbeitet, man hat ja gesehen, dass das wirklich was kann!

Und ja ich weiß, aber bei FreeNAS *hust* TrueNas gefällt mir die VM und Docker Unterstützung überhaupt nicht.


Ich hoffe ich kann damit anderen Bastlern ein wenig helfen.

Danke @ die fleißgien Foren Mitglieder für die Antworten!

2023-04-26 22_11_38-mofa-nas_Main.png

2023-04-26 22_10_58-mofa-nas_Dashboard.png

2023-04-28 20_56_57-mofa-nas_Main.png

Edited by Mofarocker33
strg + Enter = Falsche Taste
Link to comment
40 minutes ago, Mofarocker33 said:

Da ich nirgendwo zu der Unraid Beta und ZFS Konfiguration etwas finden konnte wie man den Cache erhöhen kann oder irgendwas dazu einstellen, habe ich mich auch davon abgewandt.

ZFS Cache ist RAM und wenn Du da schon  bei 90% bist, was willst Du da noch tunen? Steck halt noch ein paar GB rein ;-)

 

38 minutes ago, Mofarocker33 said:

Viel Arbeit für #WiederWasGelernt , aber es läuft nun so wie es für mich am besten ist.

...interessante Schlussfolgerungen und eigenwillige Interpretation für was/wie man unraid einsetzen kann...aber wenn es für Dich so i.O. ist...viel Erfolg weiterhin.

Deine ursprüngliche Frage lies übrigens Dein Ziel nicht wirklich erahnen.

Wobei ich ehrlich auch nicht sagen kann, warum der zpool bei Dir eingebrochen ist. Ich hab auf nem zraid mit 3TB Disks seinerzeit 700MB/sec über den ganzen pool, mit nur 8GB RAM (Debian ...ca. 10 Jahre her) gesehen....diese Disks waren nur halb su performant wie die modernen Toshiba HDDs.

 

Evtl liegt es am Fuse File-Datei-System...Du hast die RC4 wohl "verpasst"...damit könnte man es umgehen: 

 

Link to comment
Quote

Evtl liegt es am Fuse File-Datei-System...Du hast die RC4 wohl "verpasst"...damit könnte man es umgehen: 

 

RC 4.1 Release komplett verpasst, weil ich ja wenn immer nur an dem System so gebastelt hatte.

Quote

ZFS Cache ist RAM und wenn Du da schon  bei 90% bist, was willst Du da noch tunen? Steck halt noch ein paar GB rein 


Aber sind doch 64 GB drin und der erste Balken von Ram gesamt, hat sich ja auch gefühlt gar nicht bewegt.
Ich denke eher das es eine Festgelegte Größe gibt für Ram Auslastung zu ZFS.

Quote

...interessante Schlussfolgerungen und eigenwillige Interpretation

Ja das hast du recht, aber die Antwort auf die Original Frage hatte ich weiter oben schon rein geschrieben, damit man es auf bei suchen auch findet. Ansonsten denke ich jeder hat so seine eigenen Prioritäten was ein solches System angeht.
 

Link to comment
29 minutes ago, Mofarocker33 said:

Aber sind doch 64 GB drin und der erste Balken von Ram gesamt, hat sich ja auch gefühlt gar nicht bewegt.

ZFS Cache ist auch im RAM ...in Deinem Bid also RAM (17%, für unraid, Host, Docker, ...) und 73% für ZFS ..macht zusammen 90% vom nutzbaren RAM.

...oder von was sind die genannten 73% ZFS sonst her?

Link to comment

hatte auf den Sync des einen Ordner gewartet und jetzt Upgrade von Unraid gemacht. Aber nochmal von Controller auf direkt umbauen - jetzt nö.
Und habe die kommenden Monate andere Dinge zu tun (Haus). Daher werde ich das System jetzt erstmal einfach nur wieder zum komplett laufen bringen und dann, hört ließt man sich vermutlich Richtung Winter wieder.

Link to comment

Aha.....im RC1 steht schon:

Quote

During system boot, the file /etc/modprobe.d/zfs.conf is auto-generated to limit the ZFS ARC to 1/8 of installed memory. This can be overridden if necessary by creating a custom 'config/modprobe.d/zfs.conf' file. Future update will include ability to configure the ARC via webGUI, including auto-adjust according to memory pressure, e.g., VM start/stop.

Aber ich vergass: ARC ist eh der/ein Lese-Cache...hat also mit Deinem Problem nix zu tun.

...ich tippe auf das FUSE Dateisystem als Ursache für das Problem.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...