ZFS in 6.12.0-rc1


High-Tower

Recommended Posts

Hi zusammen,

hoffe das ich das Thema hier eröffnen darf... 

Auf meinem 2.ten Unraid Server (neuer Backup Server), hab ich das neuste Unraid installiert, da es zfs mit einbindet. 

Hab nun versucht, mein aktuelles BRTFS Array (aktuell keine Daten drauf) dementsprechend als RAID-Z(1) (4 Platten, 1 davon Parity), zu erstellen. 

Leider bin ich zu doof dafür. 

Array gestoppt.

Unter Settings -> Disk Settings -> "Default file system" zfs ausgewählt. 

Dann unter Tools->New Config-> All -> Yes, I want to do this -> Apply

So, nun im Main die Disk im Array auf "unassigned" gesetzt und auf Add Pool.

Name: zfs

Slots 4

Nun alle HDDs zugeordnet.

Auf die erste HDD geklickt, damit ich in die Settings komme und dort unter "File system type" zfs ausgewählt, dahinter raidz und dahinter "1 group of 4 devices" -> APPLY -> DONE

 

Und nun? Ein "START" kann ich nicht auswählen, da dahinter steht: 

"No array data disks have been assigned" 

Ist korrekt, möchte ich auch gar nicht mehr, möchte "nur noch" ein ZFS Array als Raid-Z haben... 

 

Was mach ich hier falsch?!

 

Hab danach den Pool wieder gelöscht und "oben" im Array die HDDS wieder alle schön hinzugefügt (inkl. 1 Parity) und in den Settings jeder HDD das ZFS ausgewählt. Wenn ich nun auf Array Start klicke, formatiert er alle HDDS brav auf das Dateisystem zfs, aber ich kann nirgends auswählen, dass das System bitte ein RAID-Z erstellen soll als Data Array.... 

 

Sry... bin glaub echt zu blöd dafür zu kapieren, wie man das korrekt nun anwendet... 🤣🤦‍♂️

Danke schon mal im Voraus auf eure Hilfe ✌️

Link to comment

Ohne zu wissen, wie ZFS in 6.12 integriert wurde (bin selbst noch auf 6.11):

Ein RAID wird nur in einem (Cache)-Pool zugelassen.

Wenn Du nun also einen Pool aus den vier HDD's mit ZFS erstellen möchtest, muss sich mindestens eine Disk (Auch ein USB-Stick würde gehen) im Array befinden, damit Du es starten kannst.

Anschließend sollte auch der ZFS-Pool verfügbar sein.

Link to comment

Jep, Du hast da was völlig falsch verstanden.

 

Sowohl BTRFS (RAID) als auch ZFS (RAID) sind nicht fürs (Daten)Array da (hey, warum heist das Teil hier denn wohl UNraid ???), sondern nur in "cache"pools einsetzbar.

 

(womit sich dann überhaupt die Frage stellt "brauch ich das überhaupt?" und die allermeiste Antwort "NEIN!" sein wird)

 

Es gibt zwar auch die theoretische Möglichkeit, diese RAIDs auch als EINZELNE Platte dem Unraid Array hinzuzufügen, allerdings fehlt mir da die Phantasie, welchen praktischen Nutzen das haben sollte (na ja, vielleicht leichte Erhöhung der Lesegeschwindigkeit, aber da hätte ich deutlich effektivere und einfachere Ideen zu).

 

Link to comment
4 hours ago, High-Tower said:

Hab nun versucht, mein aktuelles BRTFS Array (aktuell keine Daten drauf) dementsprechend als RAID-Z(1) (4 Platten, 1 davon Parity), zu erstellen

Diese Änderung macht keinen Sinn. Entweder will man seinen Cold Storage (Medien, Backups, etc) in einem stromsparenden Array oder in einem ständig laufenden RAID. Letzteres ist der Grund warum so viele Unraid verwenden, damit sie genau davon wegkommen und du willst da hin, warum?

Link to comment

Gaaaanz locker bleiben….

warum Unraid Unraid heißt, weis ich schon  von Anfang an 😉

Da aktuell nichts auf dem Backup Server liegt und ich gerne das vorher ausprobier, ob es für mein Prod. Server n Sinn macht und wie es funktioniert, teste ich es auf dem. 
Danke für den Hinweis mit dem USB Stick als Laufwerk im Array 👍

Link to comment
22 hours ago, MAM59 said:

(womit sich dann überhaupt die Frage stellt "brauch ich das überhaupt?" und die allermeiste Antwort "NEIN!" sein wird)

 

 

 

afaik kann man ja wenn man ein ZFS "datenarray" betreibt endlich replicas von ZFS cache pools erstellen und diese sind dann parität geschützt. Das ist mein Anliegen warum ich das Array auf ZFS umstelle.

Link to comment
On 3/19/2023 at 7:33 PM, domrockt said:

afaik kann man ja wenn man ein ZFS "datenarray" betreibt endlich replicas von ZFS cache pools erstellen und diese sind dann parität geschützt. Das ist mein Anliegen warum ich das Array auf ZFS umstelle.

Wenn du "das Array" auf ZFS umstellst, hast du am Ende statt x einzeln XFS formatierte Platten, eben x einzeln ZFS formatierte Platten. Du hast dadurch Null Mehrwert, weil du keine ZFS-Parität, sondern die stinknormale Unraid Parität hast. Du kannst auch keinen ZFS formatierten Pool dort replizieren. Also nicht anders, als würdest du einfach die Dateien von Pool auf Array kopieren. Man kann ja schließlich keine Snapshots über zwei verschiedene Datenträger hinweg erstellen.

 

 

Auf dem Papier bietet ZFS keinen Mehrwert. Alles was ZFS kann, konnte auch schon BTRFS. Das einzige was eventuell besser läuft ist die Ausfallsicherheit bei Server-Crashes oder Verbindungsverlusten einer SSD und das wird sich erst in den nächsten Monaten zeigen.

 

  • Like 1
Link to comment
31 minutes ago, mgutt said:

Wenn du "das Array" auf ZFS umstellst, hast du am Ende statt x einzeln XFS formatierte Platten, eben x einzeln ZFS formatierte Platten. Du hast dadurch Null Mehrwert, weil du keine ZFS-Parität, sondern die stinknormale Unraid Parität hast. Du kannst auch keinen ZFS formatierten Pool dort replizieren. Also nicht anders, als würdest du einfach die Dateien von Pool auf Array kopieren. Man kann ja schließlich keine Snapshots über zwei verschiedene Datenträger hinweg erstellen.

 

 

Auf dem Papier bietet ZFS keinen Mehrwert. Alles was ZFS kann, konnte auch schon BTRFS. Das einzige was eventuell besser läuft ist die Ausfallsicherheit bei Server-Crashes oder Verbindungsverlusten einer SSD und das wird sich erst in den nächsten Monaten zeigen.

 

 

 

ja hab ich gemerkt, hab jetzt nen USB stick als Array und betreibe einen "cache" Pool mit meinen HDDs im RAIDZ1

 

Link to comment
1 hour ago, domrockt said:

ja hab ich gemerkt, hab jetzt nen USB stick als Array und betreibe einen "cache" Pool mit meinen HDDs im RAIDZ1

Laß mich raten: sobald Du auf den Raidz1 Pool zugreifst (bevorzugt schreibend) laufen dann alle Festplatten dieses Pools?

Zumindest erscheint es mir so.

 

Ich frage mich ob das wirklich noch dem ursprünglichen Sinn von unraid (stromsparendes NAS) entspricht.

Hohe Netzteillast, wenn alle beteiligten Festplatten gleichzeitig spinup betreiben und hohe Last, weil nicht mehr nur die einzelne (+Parity) Festplatte ansrpingt/schreibt.

Bei SSDs kann ich es noch verstehen, weil die sich eben selber sehr schnell in diverse Stromsparmodi versetzen, wenn sie langeweile haben.

Oder bei wenigen Festplatten werde ich es wohl auch nutzen, weil es kaum anders als bei einem BTRFS Pool ist und MultiArray ja wohl doch noch auf sich warten läßt 😔.

 

Aber die üblich vielen Festplatten (die man sonst im Array hat und nun ja in den Pool steckt) werden erst durch den unraid Timeout in den Spindown geschickt und der ist per Werkseinstellung mindestens 15Minuten. Auch ist es bei Festplatten für die Mechanik nicht das Gesündeste sie sehr häufig immer wieder zu parken und aufzuwecken.

Also läßt man sie durchlaufen... und dann kann man auch gleich ein ganz normales Raid nehmen, welches dann durchgehend mehr Strom braucht.

 

Link to comment

Ja, irgendwie versteh ich diesen ganzen ZFS Hype hier nicht.

 

Die Leute scheinen ja völlig abstruse Vorstellungen von den Leistungsmöglichkeiten dieser "Innovation" zu haben.

 

Das Einzige, was man davon wirklich brauchen kann, sind die Snapshots.

Edited by MAM59
Link to comment
4 hours ago, DataCollector said:

Laß mich raten: sobald Du auf den Raidz1 Pool zugreifst (bevorzugt schreibend) laufen dann alle Festplatten dieses Pools?

Zumindest erscheint es mir so.

 

Ich frage mich ob das wirklich noch dem ursprünglichen Sinn von unraid (stromsparendes NAS) entspricht.

Hohe Netzteillast, wenn alle beteiligten Festplatten gleichzeitig spinup betreiben und hohe Last, weil nicht mehr nur die einzelne (+Parity) Festplatte ansrpingt/schreibt.

 

Im Groben, ja völlig korrekt und in den Sätzen liegt mehr Wahrheit als man denkt. Wenn man Unraid als "NAS" betrachtet dann mach ich quatsch, dass würde meine Tochter jetzt sagen.

 

Ich benutze Unraid aber als Hypervisor für Noobs, die mit Rosaroterbrille im GUI Land ihre Zeit verbringen. Ich versuche aus Hobby Gründen auch die CLI reinzubekommen und die Hintergründe zu verstehen, deshalb auch meine Hilferuf zum Thema Sanoid und znapzend,... hust hust mein thread dazu wenn mir jemand etwas auf die sprünge helfen mag hust hust ... , erstellt.

 

Ich hab vor 5 Jahren mit Proxmox angefangen, danach ESXI und zum Schluss Unraid. Es gibt zu allen gute Videos aber Unraids mega Community und die Apps ... ihr Wahnsinnigen :D.

 

 

 

Mein Usecase ist einfach etwas anders, ZFS macht es möglich Clone von Snapshots zu machen und diese als "Laufwerke" "ISCSI Laufwerke" ins Netzwerk zu bringen, Quasi die 10TB Gamebibliothek nur einmal installiert aber 5x gecloned und 0 mb extra Platz verbraucht. Läuft bei mir so auf meinem 8x2TB SSD ZFS cache

 

Dann macht man von dem Quatsch noch ein Replikationsvorgang aufs HDD Array schicken für den Worstcase und von da auch wieder mit 800mb/s wiederherstellen..... anstatt 140mb vom Unraid XFS Array zB.

 

Hab nen Synology... Datengrab für den Heimgebrauch Daddy :D 

 

TLDR ne nicht Stromsparen ist korrekt, für mich aber ok :D

Link to comment
1 hour ago, domrockt said:

Mein Usecase ist einfach etwas anders, ZFS macht es möglich Clone von Snapshots zu machen und diese als "Laufwerke" "ISCSI Laufwerke" ins Netzwerk zu bringen, Quasi die 10TB Gamebibliothek nur einmal installiert aber 5x gecloned und 0 mb extra Platz verbraucht. Läuft bei mir so auf meinem 8x2TB SSD ZFS cache

Wie ich schrieb: mit SSD verstehe ich es und sehe es als sinnvoll an. Und eine ca. 10TB Gamebibliothek auf SSD ist ja nicht wirklich kein zuuuuu teueres Hexenwerk mehr.

 

Vielleicht auch bei Festplatten Pools, die man eher selten anspricht und die somit lange Spindownzeiten haben (so werde ich es in einem Fall machen, da ja MultiArray nicht geht und ich bei BTRFS öfters von Problemen lese [auch, wenn ich die bisher noch nie hatte]).

 

Doch wenn es um das öfters benötigte Array und dabei hier dann eben um einen ZFS-Pool Ersatz geht könnte es eben eine Striomspar-Nullnummer werden.

Wenn man das weiß und es in Kauf nimmt: alles okay

 

Link to comment
4 hours ago, MAM59 said:

Das Einzige, was man davon wirklich brauchen kann, sind die Snapshots.

...und Zuverlässigkeit. Ich habe ZFS on Linux schon vor/seit Jahren eingesetzt und nie Probleme gehabt. BTRFS sucks.

2 hours ago, DataCollector said:

Vielleicht auch bei Festplatten Pools, die man eher selten anspricht und die somit lange Spindownzeiten haben (so werde ich es in einem Fall machen, da ja MultiArray nicht geht und ich bei BTRFS öfters von Problemen lese [auch, wenn ich die bisher noch nie hatte]).

Ganz genau. Im Array im mehr als einer daten-Disk braucht man es nicht unbedingt....bzw der Vorteil ist nicht immer gegeben (nur bei einer einzigen Daten-Disk wäre das so, weil dann ja unraid auf Mirror umstellt...da greift ein Copy-on-Write wenigstens im gleichen "pool").....im Array nutze ich aber auch kein BTRFS (mehr).

Link to comment
On 3/25/2023 at 10:10 AM, DataCollector said:

Doch wenn es um das öfters benötigte Array und dabei hier dann eben um einen ZFS-Pool Ersatz geht könnte es eben eine Striomspar-Nullnummer werden.

Nur so als späte Ergänzung:

Ich habe mich ein bisschen (nur sehr oberflächlich) in ZFS eingelesen, aber ich habe doch etwas gefunden, bei dem einzelne ZFS formatierte Festplatten im Array zusammengeschaltet doch einen Sinn machen können:

ZFS scheint anhand von zusätzlichen Checksummen die Datenintegrität überwachen zu können (blockbasiert). Wenn das stimmt, wäre bei einem Paritycheck Fehler die Frage, ob die Datenfestplatte oder die Parität einen Schaden hat (fast) hinfällig, weil zfs den Schaden ja später selber findet und (in gewissen Grenzen) behebt. Vielleicht würde es sogar helfen einfach alle datendisks einmal zu lesen, so dass ZFS das dann auch sieht und korrigieren kann. Aber natürlich weiß ich nicht in wie weit diese Funktion in ZFS unter unraid wirklich vorhanden ist.

 

https://de.wikipedia.org/wiki/ZFS_(Dateisystem)#Automatische_Datenfehlerkorrektur

Link to comment
On 3/25/2023 at 7:47 AM, MAM59 said:

Ja, irgendwie versteh ich diesen ganzen ZFS Hype hier nicht.

 

Die Leute scheinen ja völlig abstruse Vorstellungen von den Leistungsmöglichkeiten dieser "Innovation" zu haben.

 

Das Einzige, was man davon wirklich brauchen kann, sind die Snapshots.

 

ZFS ist "das" Dateisystem was Zuverlässigkeit und Innovation angeht.

 

Einige Vorteile was ZFS bietet.

 

  • LZ4 Komprimierung, dadurch spart man Speicherplatz, was dem Geldbeutel gut tut. Höhere CPU Auslastung ist nicht bemerkbar.
  • Snapshots halfen dir schnell zu einem früherem Stand zurück zu bringen, oder kurz was testen. Zudem kannst Sie als Share ganz einfach freigeben, mounten oder von jedem Snapshot dir einen Backup ziehen.
  • Der teure RAM wird zum Cachen benutzt, dafür ist er da.
  • RaidZX läuft und läuft und läuft... Wenn ich mir anschaue wie lange bei BTRFS Raid5 kaputt ist, bezweifle ich das es jemals gefixt wird.

Ich feiere Unraid 6.12.... Endlichhhhhhh ZFS 😁

  • Like 3
Link to comment
43 minutes ago, DataCollector said:

...wenn ich es richtig verstanden habe sollte der dann aber auch fehlerfrei laufen. Will sagen: funktionierendes ECC ist dann aber schon wichtig um nicht im Hintergrund unbemerkt Daten zu schrotten.

 

Meiner Ansicht nach ist ECC Ram immer wichtig. Klar das wird gaanz besonders bei ZFS Empfohlen.

 

Vorsichtig wäre ich jedoch auch bei BTRFS RAID ohne ECC Ram, auch da werden Prüfsummen generiert.

 

Das ECC wichtig ist, sieht man auch daran, dass DDR5 ein On-Die-ECC hat.

Das bietet zwar kein vollständiges ECC-RAM Schutz, dass mit CPU, Cache CPU und Mainboard kommuniziert, aber es ist ein Anfang.

Die Korrektur findet findet bei On-Die-ECC im RAM-Riegel ohne Kommunikation statt.

 

Ich selbst nutze DDR4 ECC-RAM bei meinem Unraid Server und fühle mich damit besser.

 

Edited by guybrush2012
Link to comment
  • 5 weeks later...

Moin erstmal. Als Neuling macht ihr mich alle verrückt. Ich komme von einem zusammengewürfelten System zu UNRAID und würde gerne stromsparend sein, aber auch meine Snapshots behalten. Ich bitte euch wirklich darum mir zu sagen, was ihr tun würdet und ggf. warum. Ich wäre euch mehr als dankbar, da ich langsam mal alles umziehen muss.

Aktuell betreibe ich zwei kleine Single-Board-Computer Server. Der eine hat ein IcyBox RAID-Gehäuse im RAID1 mit 2x4TB angeschlossen. Darauf läuft ZFS, da ich aktuell dort persönliche Dokumente, Bilder und vor allem auch Daten von Docker Containern (wie bspw. NextCloud) ablege. Mit Sanoid habe ich meine Snapshots super konfiguriert.

Der andere Server hingegen speichert die Container Daten nur auf einer eMMC (eine Art microSD Karte). Dort habe ich per NFS eine Synology mit verbunden in der sich eine 18TB HDD befindet auf der nur Filme & Serien und der ganze Plex Kram sind. Die ist auch schon mit 11TB gut voll. Dann ist da noch eine leere 6TB Festplatte drin, die ungenutzt ist.

 

Soooooo, nun habe ich mir noch 2x 1TB SSDs gekauft, um für UNRAID einen Cache zu bauen. Diese sind auch schon im System eingebaut. Die Frage aber nun, wie soll ich vorgehen? Ich will unbedingt weiterhin meine Snapshots machen und dafür dann natürlich auf ZFS setzen. Jetzt natürlich das Problem, dass ich bspw. die Docker Container Daten auch gerne snapshotten würde und dafür ja dann ZFS benötige. Um eine gewisse Sicherheit zu haben bräuchte ich ja wieder RAID1. So wie ich das hier gelesen habe, passen Parity und ZFS nicht so zusammen. 

 

Nächstes dickes Fragezeichen ist gerade die 18TB Festplatte mit den Mediendateien. Auf eine Art sag ich mir ach egal, wenn ich die verliere, aber irgendwie auch nicht. Ich vermute dafür wäre so ein XFS Array mit Parity (also noch eine 18TB Festplatte kaufen) genau das Richtige, oder? Und dann könnte ich die 6TB Festplatte noch einbauen und quasi auf 24TB erweitern und hätte dann dennoch eine gewisse Sicherheit durch die Parity, korrekt? Ich glaube ich komme so oder so nicht an einer neuen Festplatte vorbei, weil ich keine Ahnung habe, wie ich 11TB verschieben soll, wenn ich die Platte einmal formatieren muss. Ich habe sonst nur 2TB externe Festplatten oder eben die 4TB intern...

 

Achja ein Gedanke war die Docker Container Daten dauerhaft auf dem Cache zu lassen und den deshalb auch zu clonen (der SIcherheit halber). Aber eventuell ist das der falsche Ansatz oder ich brauche noch mehr SSDs für Cache. Aber bin da offen für alle Meinungen.

 

Aktueller Stand:

image.thumb.png.30e3694dfca413df7c7b6d0a5e6a132a.png

Edited by sasbro97
Link to comment
On 3/28/2023 at 4:37 PM, DataCollector said:

weil zfs den Schaden ja später selber findet und (in gewissen Grenzen) behebt.

Finden ja, beheben nein. Ohne ZFS Parität nicht möglich und die Unraid Parität ist ja proprietär.

 

Aber zumindest weiß man welche Dateien kaputt sind und kann diese aus dem Backup wiederherstellen. Damit spart man sich also das Integrity Plugin.

Link to comment
4 hours ago, sasbro97 said:

Achja ein Gedanke war die Docker Container Daten dauerhaft auf dem Cache zu lassen und den deshalb auch zu clonen (der SIcherheit halber).

So ist es gedacht.

Die Pools sind für "heiße" Daten gedacht. Welche die oft oder dauerhaft im Zugriff sind.

Das Array für "kalte" Daten. Welche, auf die nur selten zugegriffen wird. Damit die Platten die meiste Zeit "schlafen".

Link to comment
4 hours ago, sasbro97 said:

Jetzt natürlich das Problem, dass ich bspw. die Docker Container Daten auch gerne snapshotten würde und dafür ja dann ZFS benötige. Um eine gewisse Sicherheit zu haben bräuchte ich ja wieder RAID1. So wie ich das hier gelesen habe, passen Parity und ZFS nicht so zusammen. 

Der "standard" ist es die Docker Container (Pfad in den unraud Docker Settings) und die persistenten Daten (die einen Comntainer-Restart überleben sollen - das ist standardmässig unter /nm,nt/user/appdataa/<dein Docker>) komplett auf dem Cache zu belassen.

Mit ZFS auf dem Cache-Pool kannst Du ein Raid1 (Mirror) oder auch ein raidz nutzen (mit ZFS-parität - und striping). Aber auch ein Mirror hat Redundanz.

Lies mal hier: https://arstechnica.com/information-technology/2020/05/zfs-101-understanding-zfs-storage-and-performance/

Wenn Du einen Mirror aus zwei Devices baust, kann eines wegfallen, weil immer noch eines/das verbleibende alle Daten/Blöcke hat.

 

4 hours ago, sasbro97 said:

Soooooo, nun habe ich mir noch 2x 1TB SSDs gekauft, um für UNRAID einen Cache zu bauen. Diese sind auch schon im System eingebaut. Die Frage aber nun, wie soll ich vorgehen? Ich will unbedingt weiterhin meine Snapshots machen und dafür dann natürlich auf ZFS setzen. Jetzt natürlich das Problem, dass ich bspw. die Docker Container Daten auch gerne snapshotten würde und dafür ja dann ZFS benötige.

Ja, mach das...siehe oben....Raid1 ist quasi auch hier standard.

 

4 hours ago, sasbro97 said:

Nächstes dickes Fragezeichen ist gerade die 18TB Festplatte mit den Mediendateien. Auf eine Art sag ich mir ach egal, wenn ich die verliere, aber irgendwie auch nicht. Ich vermute dafür wäre so ein XFS Array mit Parity (also noch eine 18TB Festplatte kaufen) genau das Richtige, oder? Und dann könnte ich die 6TB Festplatte noch einbauen und quasi auf 24TB erweitern und hätte dann dennoch eine gewisse Sicherheit durch die Parity, korrekt? Ich glaube ich komme so oder so nicht an einer neuen Festplatte vorbei, weil ich keine Ahnung habe, wie ich 11TB verschieben soll, wenn ich die Platte einmal formatieren muss. Ich habe sonst nur 2TB externe Festplatten oder eben die 4TB intern...

Ja, macht Sinn.

Du kannst in unraid ja erstmal das Array ohne Parity, mit der neuen 18TB als Daten-Disk #1 aufbauen .. dann die Daten übertragen....dann die Disks nach-und-nach auf diese Weise "umziehen" in den unraid Server. Meine Empfehlung, vor allem wenn Du backups hast, wäre es die Parity Disk (das ist dann Deine "alte" 18TB) zuletzt hinzuzufügen (sonst wird die bei jedem Neustart des Array/jeder Array-Konfig-Änderung neu gebaut, was auch Stress für die Disks ist und bei 18TB schon kleine (Lange-)Weile dauert.

 

Link to comment
On 5/3/2023 at 8:48 PM, Ford Prefect said:

 

Du kannst in unraid ja erstmal das Array ohne Parity, mit der neuen 18TB als Daten-Disk #1 aufbauen .. dann die Daten übertragen....dann die Disks nach-und-nach auf diese Weise "umziehen" in den unraid Server.

 

 

Das verstehe ich aktuell nicht. Also aktuell würde das nicht klappen. Ich habe einfach keine Kapazität dafür. Ich habe eben nur die eine 18TB Festplatte. Wie soll ich das transferieren, wenn ich die Platte wo alles drauf ist ja zwangsläufig als erstes platt machen muss?

Link to comment
1 hour ago, sasbro97 said:

Das verstehe ich aktuell nicht. Also aktuell würde das nicht klappen. Ich habe einfach keine Kapazität dafür.

Hattest Du nicht den Kauf einer neuen 18TB ins Auge gefaßt?

Diese baust Du als einziges ins Array ein und kopiertst Deine Daten der alten 18TB (11TB Daten) da daruf.

Dann kannst Du gerne auch noch einer der kleineren Festplatten (4TB) auch da aufkopieren.

Damit sind dann rund 15TB Daten im Array.

Du erwähntest nmoch eine leere 6TB, die kannst Du da auch schon mit einfügen.

Dann kannst Du die alte 18TB als Parity zufügen und durch die Parityerzeugung überschreiben.

Wenn die Parität nach rund 1,x Tagen fertig erstellt ist hast Du auch einen Ausfallschutz (aber kein Backup!!!)

Und von da aus kannst Du weiter machen: Cache erstellen und den Shares zufügen, weitere Festplatten dem Array zufügen... Stück für Stück.

 

1 hour ago, sasbro97 said:

Ich habe eben nur die eine 18TB Festplatte.

...und hattest ja schon den Kauf einer Zweiten angedeutet.

 

1 hour ago, sasbro97 said:

Wie soll ich das transferieren, wenn ich die Platte wo alles drauf ist ja zwangsläufig als erstes platt machen muss?

Indem Du eine zweite kaufst, wie "Wednesday at 03:59 PM" geschrieben wurde.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.