Jump to content

Tiras

Members
  • Posts

    188
  • Joined

  • Last visited

Posts posted by Tiras

  1. Ich verschiebe gerade von Disk 2 auf Disk 3. Warum ist ein Read von Disk 1 und Disk 4 und wieso ist der Write auf Disk 3 so niedrig?

    image.thumb.png.0a5bc82527cc1c8760cdeccef6e2f075.png

     

    Ich habe es so gemacht, wie du es empfohlen hast @hawihoney und habe einzelne Shares angelegt. Auch Die GUI hängt sich auf. Ist das normal oder wieso kann ich bspw. die Plex App nicht mehr editieren, weil er zu lange läd?

  2. 18 minutes ago, hawihoney said:

    Musst Du ohnehin. Das sind in Plex unterschiedliche Bibliotheksarten mit jeweils unterschiedlichen Einstellungen.

    Ok, dass bedeutet ich erstelle jeweils ein Share in dem ich Disk 1 und Disk 2 hinzufüge. In Plex würde ich dann aber nicht auf den Share, sondern auf die Disk verweisen, damit ich CPU Last nicht so hoch ist, oder?

  3. 1 hour ago, mgutt said:

    Brauchst du nicht einstellen.

     

    Viel zu viele Disks. Die drei springen dann immer parallel an, wenn deine Frau oder welcher Share auch immer Dateien davon anzeigt. Versuch den jeweiligen Share auf einer Disk zu halten, wenn du über SMB darauf zugreifen willst. Für Plex ist das egal, da Plex ja nur 1x einen vollen Scan macht.

     

     

    Ok, dass leuchtet mir ein, aber wieso auf Share auf eine Disk halten? Meinst du damit, dass Plex auf die genanten Disk 1 und Disk 2, und anstatt alle restlichen Disks für die Dokumente zu verwenden, nur eine Disk zu nehmen und die anderen in den Spin Down bzw. als reserve?

     

    43 minutes ago, hawihoney said:

     

    Im Grunde hast Du Deine Struktur (Shares, Disks) beschrieben. Das wollte ich mit meiner Frage erzwingen.

     

    Ok, dass ist Dir gelungen.

     

    43 minutes ago, hawihoney said:

     

    Lediglich bei Plex würde ich eine Ausnahme machen und aus den Unterordnern wie Musik, Filme, Serien, ... eigene Shares.

     

    Ok, dass bedeutet das ich diese Shares (Filme, Musik und Serien) jeweils einzeln in der Plex Docker als Medien Quelle angeben muss.

     

    50 minutes ago, hawihoney said:

    Oder soll das appdata von Plex werden?

    Das habe ich nicht ganz verstanden.

  4. Ok, also:

     

    Firmenunterlagen:

    • Diverse Unterorder

    Meine Arbeitsunterlagen:

    • Diverse Unterordner

    Meine Frau:

    • Diverse Unterordner

    Plex:

    • Filme
    • Serien
    • weitere Ordner

    Bilder:

    • Diverse Unterordner

    Kamera Videos:

    • Diverse Unterordner

    Ich hatte geplant, Plex mit allen anderen Ordnern zu trennen. Die Ordner von mir, meiner Frau, meiner Firma, Bilder und Videos können ruhig auf gleicher Platte sein.

    Somit würde meiner Meinung ausreichen, wenn ich folgende Struktur erstelle:

     

    Share Plex:

    • Disk 1 und Disk 2 ( beide 4 TB Platten)
    • Exclude: alle anderen Platten
    • Automatically split any directory as required

    Share Firma:

    • Disk 3, 4 und 5 (3 x 5 TB)
    • Exclude: Disk 1 und 2
    • Automatically split any directory as required

    Share Ich:

    • Disk 3, 4 und 5 (3 x 5 TB)
    • Exclude: Disk 1 und 2
    • Automatically split any directory as required

    Share Meine Frau:

    • Disk 3, 4 und 5 (3 x 5 TB)
    • Exclude: Disk 1 und 2
    • Automatically split any directory as required

    Share Bilder:

    • Disk 3, 4 und 5 (3 x 5 TB)
    • Exclude: Disk 1 und 2
    • Automatically split any directory as required

    Share Videos:

    • Disk 3, 4 und 5 (3 x 5 TB)
    • Exclude: Disk 1 und 2
    • Automatically split any directory as required

    Ist das verständlich und macht das so sinn? Habe ich es richtig verstanden, dass Automatically split any directory as required willkürlich die Ordner auf den angegebenen Platten verteilt? Dann würde Automatically split only top level directory as required bedeuten, dass nur bspw. Share Bilder/Ausflug xy auf den Platten verteilt wird?

     

    Viele Grüße

  5. 15 hours ago, hawihoney said:

    Du brauchst keine Shares in Shares. Wenn Du das benötigst machst Du konzeptionell etwas falsch oder hast Unraid (User Shares, Disk Shares, Verteilregeln, ...) noch nicht verstanden.

     

    Wenn ich ehrlich sein darf, dann habe ich es noch nicht richtig verstanden....

  6. Das habe ich soweit verstanden, aber welchen Vorteil habe ich, wenn ich folgende Struktur aufbaue:

     

    Dokumente: 

    • Include = All
    • Exclude = None
    • Split Level = Automatically split only the top level directory as required

    Medien:

    • Include = All
    • Exclude = None
    • Split Level = Automatically split only the top level directory as required

    Ich müsste für jeden Unterordner ebenfalls ein Share erstellen und in diesem die Platten festlegen, auf den die Ordner/Dateien gespeichert werden sollen.

     

    Eine Struktur wie:

    Dokumente, Bilder, Kamera Videos, etc:

    • Include: Disk 1
    • Exclude: Alle anderen
    • Split Level: Do not automatically Split Directories

    Somit könnte man eine spezielle Disk für bestimmte Daten festlegen und hätte das Risiko nicht, dass diese Daten verloren gehen, weil andere Dateien auf der Platte öfter genutzt werden. Sollte der Speicher dann voll werden, kann man eine weitere Platte hinzufügen. 

     

    Bei dem Beispiel von hawihoney wird beschrieben, dass der Share "Medien" auf allen Platten erstellt wird. Die Shares für "HD Movie", "BR Movie" etc werden auf speziellen Disks erstellt. Da stelle ich mir die Frage, ob das auch so sinnvoll ist. Wieso den "Medien" Share auf allen Platten machen und die Unterordner dann auf spezifische Platten? Vor allem habe ich noch nicht gesehen, dass man ein Share in einem Share erstellen kann. Wie kann dann "HD Movie" auf Disk 1 ein Unterordner von "Medien" sein?

  7. @hawihoney Hi und danke für die Antwort. Leider wird bei der Erstellung der Shares automatisch "High Water" eingestellt. Jetzt ist auf der Platte, auf die aktuell nur geschrieben wird noch 1.71 TB frei und ich weiß nicht, ob das ausreicht. Sollte es nicht ausreichen, wird dann automatisch auf die nächste Platte gewechselt?

    Dort sind nämlich noch 2 TB frei...

     

    Ok, jetzt weiß ich, was du mit Split Level gemeint hast. Dieser ist in allen Shares auf "Automatically split any directory as required".

  8. Weiß evtl. jemand wann auf eine andere Platte im Array geschrieben wird, wenn in einem Share "all" aktiviert ist?

    Ich kopiere gerade von der TR-004 auf /mnt/user und die Ordner von der TR-004 werden in Unraid automatisch als Share mit "all" erstellt. Aber zurzeit wird nur auf die eine Platte geschrieben, aber wann genau wird die andere Platte beschrieben?

  9. 2 minutes ago, mgutt said:

    Naja. Dann wären doch auf der SSD noch alle Daten vorhanden gewesen. Hättest du also von der runterkopieren können. Wobei ich nicht verstehe, dass da noch was drauf war. Ich sagte doch mit dem Mover runterziehen. Hast du nicht mehr draufgeschaut, dass die wirklich leer war? Kann ja auch sein, dass irgendwelche wichtigen Daten noch drauf geblieben sind. Jedenfalls hättest du sie ja jederzeit mit UD mounten können um an dein docker.img usw dran zu kommen. Durch das Entfernen aus dem Array wird sie ja nicht formatiert.

    Das war ja auch der Fall. Ich habe sie als UD gemounted und alle .img die gefehlt haben gesichert. 

  10. 13 hours ago, Gorosch said:

    Im VM Tab eine Custom VM erstellen und die XML reinkopieren. Eventuell die Pfade zu den VDISKs anpasssen. Das sollte es dann schon gewesen sein.

    Das ist soweit richtig, aber es fehlt noch die VARS-pure-efi.fd. Wenn man die VM Backup App verwendet, dann wird ein Backup der .xml, des .img und der .fd gemacht.

    Die xml kommt in den Ordner /etc/libvirt/qemu/ und die .fd in den Ordner /etc/libvirt/qemu/nvram/. 

    Anschließend kopiert man den Inhalt der XML in die Custom VM und alles ist wie vorher auch. 

    12 hours ago, mgutt said:

    Das erklärt aber nicht auf welcher Disk die lagen. Kann ja HDD, SSD oder NVMe gewesen sein. Je nachdem welche Einstellungen der system Share hatte.

    Ich habe nach der Installation von Unraid sämtliche Shares auf die 240 GB SSD gemappt, da ich gedacht habe, dass ich so die Performance etwas steigern kann.

     

    Zuletzt ein Status Update:

    • Im Array sind nun beide 4 TB (XFS)
    • Die erste Docker läuft auch wieder.
    • 5 TB Daten wurden Übernacht auf die 2 x 4TB Platten verschoben.

    Die nächsten Steps:

    • 5 TB aus der TR-004 als Parität einbauen.
    • Restlichen 3 x 5 TB dem Array hinzufügen.
    • 2 TB HDD und 240 GB SSD ausbauen.
    • rclone App installieren und für WebDAV konfigurieren
    • Sämtliche sensible Daten in die Cloude sichern.

    Ich denke danach sollte alles komplett sein.

    Ich muss mich an dieser Stelle bei euch für eure Unterstützung bedanken. Echt super von Euch.

     

    Viele Grüße

  11. Also dein Tipp hat funktioniert. Die SSD habe ich noch nicht formatiert und somit war der Ordner noch da, der gefehlt hat. Ich habe ihn dann auf den NAS geschoben, aber die VMs sind leider noch nicht da.

  12. 8 minutes ago, mgutt said:

     

    Hmppf.. wieso hast du denn nicht alle Daten erst mal gesichert. Hatten wir doch gesagt. Erst sichern, dann HDDs formatieren.

     

    Wo lag die /libvirt.img denn überhaupt? Vermutlich auch auf der SATA SSD oder nicht? Dann könntest du die doch mounten und die Datei rauskopieren.

    Tja, da war ich dann doch etwas zu voreilig. Der alte Pfad war /mnt/user/system und /mnt/user/Virtualizations.

     

    Gibt es dennoch eine Möglichkeit die VMs anhand der Backups wiederherzustellen? Ich meine die Images der VMs liegen ja auf der NVMe aber die configs sind weg, die ich aber gesichert habe...

  13. Ich bin nun soweit, dass die 2 TB und die 240 GB SSD aus dem Array sind und die 4 TB Platten in XFS Encripted formatiert sind.

    Dummerweise sind (wie du schon gesagt hast) die Apps und VMs nicht mehr da. Ich habe vorher mit dem VM Backup ein Backup von sämtlichen VM mit der xml gemacht, aber der Pfad /mnt/user/system/libvirt/libvirt.img existiert nicht. Ich hätte diesen Pfad auch in den Pool verschieben sollen. Kann ich die VMs nicht einfach wiederherstellen?

    In den Apps / Previous Apps sind sämtliche Apps aufgelistet, die ich vorher verwendet habe, aber um sie wiederherzustellen soll ich sie alle selektieren und dann installieren oder reinstall jeder App durchführen? Ich meine die Settings werden ja dann auch verloren sein, die ich vorher hatte, oder?

  14. Bevor ich jetzt die Daten von der TR-004 auf die 2 x 4TB kopiere und die 5 TB Platten in den Unraid Server baue, wollte ich wissen, ob die Daten in den Shares weiterhin vorhanden sind, nachdem ich New Config und den nur den Pool beibehalten habe. Das war auch der Fall, aber verstehe ich das dann richtig, dass die Daten nur dann verloren sind, wenn ich New Config erstelle, dass Array nicht beibehalte und eine Disk aus dem Array entferne? Oder sind die Daten weiterhin auf der Platte vorhanden und stehen mir nachdem ich die Platte wieder in das Array aufgenommen habe wieder zur Verfügung?

  15. Also in den VM Settings steht bei mir:

    image.thumb.png.42db18541eae29774c2f8a0d019fe416.png

    Ich wollte den Pool eigentlich neu erstellen.

    Ich hatte mir nämlich jetzt überlegt, dass ich eine 5 TB als Parity erst einmal nehme, die restlichen 3 x 5TB sowie die 2 x 4 TB in das Array aufnehme. Sobald das Board da ist wollte ich die die 5 TB Parity gegen die 6 TB austauschen und ein 4 TB gegen die 5 TB. Ein TB mehr oder weniger macht für mich den Bock nicht Fett, die 6 TB findet auch noch seinen Einsatz 😃

     

    Um die Konfiguration so zu machen muss ich aber erstmal die 2 x 4 TB in XFS formatieren und anschließend die Daten von dem TR-004 auf die 2 x 4TB verschieben.

     

    Eine kurze Frage habe ich nochmal zu dem Pool. Wenn ich die 2 x 4 TB in das richtige Format geändert habe, müssen die Daten vom Pool ja irgendwo hin, damit ich den Pool neu erstellen kann. Würdest du die Daten aus dem Pool erst einmal in einen Shared Folder als "Yes" verschieben und wenn der Pool wieder aufgebaut ist mir Prefer wieder in den Pool verschieben? Oder hast du evtl. eine andere Idee?

     

     

  16. 7 minutes ago, mgutt said:

    Genau. Eventuell schaust du auch noch mal, dass keiner der Container direkt auf die SSD im Array verlinkt also zB einen Pfad wie /mnt/diskX/appdata/containername verwendet. Da sollte überall /mnt/user/appdata stehen. Am besten bei den Docker Containern die VOLUME MAPPINGS mal alle aufklappen.

    Das war ja leider der Fall. Ich habe in den Docker Settings für Default appdata storage location die SSD im Array geändert. Das habe ich jetzt wieder in /mnt/user/appdata geändert.

    Hat das jetzt negative Auswirkungen?

  17. 4 minutes ago, mgutt said:

    Na hoffentlich funktioniert die Reparatur. Stelle ich mir schwierig vor mit den Flachbandkabeln usw.

    Das Flachbandkabel ist nicht mit dem Board verbunden. Ich habe das alte Board schon demontiert um an die Seriennummer zu kommen.

    Ich werde jetzt mal die Konfiguration vornehmen. 

     

    Also um die Docker Folder von der SATA SSD auf den NVMe Pool zu bekommen, muss ich:

    1. Den Docker Service beenden.
    2. Den NVMe Pool in dem appdata Share als "Prefer" hinzufügen.
    3. Mover starten und prüfen ob alle Ordner verschoben von der SATA SSD auf den NVMe Pool verschoben wurden.
    4. Tools > New Config "Preserve current assignments" = Pool
    5. SATA SSD entfernen

    So würde ich erstmal starten 😃

  18. @mgutt Danke für den Hinweis mit dem WebDAV. Das schau ich mir später an.

    Ja, leider passen nicht alle Platten in mein Gehäuse. Ich bin schon auf der Suche nach einem Gehäuse in das min. 7 HDDs und 1 SSD sowie eine Wasserkühlung passen.

    Hast du ein Tipp bzw. wie viele Platten verwendet ihr und welches Gehäuse?

     

    7 minutes ago, mgutt said:

     

    Zuerst deaktivierst du den Docker Dienst. Dann aktivierst du für den appdata Share den NVMe Cache Pool und stellst ihn auf "Prefer". Dann den Mover starten. Nun sollte Unraid alle Dateien von der SATA SSD auf den NVMe Pool verschieben. Ist das erledigt noch mal auf der SATA SSD nachschauen ob sie wirklich leer ist. Ist das der Fall, dann kannst einen Screenshot von der Disk Übersicht machen und über Tools > New Config (Pools behalten) alle Platten wieder dem Array so zuordnen wie sie vorher waren, nur du lässt die SATA SSD eben weg.

     

    Willst du zB aus dem RAID0 NVMe Pool einen RAID1 Pool machen, wäre es ähnlich. Alle Shares müssten dafür auf "Yes" gestellt werden, Docker und VM deaktiviert und wenn der Mover alle Dateien auf das Array verschoben hat, also die SSDs leer sind, kannst du über Tools > New Config (Array behalten) die Pools neu erstellen.

     

     

     

    Danke für die Erklärung. Die SSD werde ich später aus dem Array nehmen. Da der Controller für die 6 TB HDD aus China kommt, dauert es noch min. 2 Wochen bis der ankommt.

    Solange ich kein geeignetes Gehäuse gefunden habe muss ich die TR-004 noch nutzen.

     

    Die NVMe´s sind derzeit in einem Pool als btrfs im RAID 1. Wenn ich in den Share nun diesen Pool als Cache angeben, dann werden die Ordner / Dateien doch auf die Platten im Array verschoben und verschwinden aus dem Pool!? Wie kann die Performance der VMs dann gesteigert werden bzw. wie soll die VM wieder gestartet werden können? Ich müsste ja den Pfad im VM Manager auf das Array ändern, oder?

     

    Hier einmal ein Screenshot der aktuellen Übertragung auf die TR-004.

    image.thumb.png.0d364bdab4131548d0423dc237788dc8.png

     

    Die VMs haben jeweils ein Image von 80 GB. Bei 10 VMs die derzeit laufen komme ich knapp auf diesen Speicherplatz. In einem anderen Thread hatte ich darüber diskutiert, wie ich eine VM auf der NordVPN läuft gegen eine Docker ersetzen kann. Da ich aber bisher keine Lösung dafür gefunden habe, existiert diese VM noch.

     

    Ich müsste mir sowieso eine PCIe x8 SATA Card kaufen, da ich durch die 240 GB SSD und 2 TB nur noch 2 SATA Ports frei habe. Es sei denn, ich entferne die 2 TB und 240 GB SSD und nutze ausschließlich die NVMe´s als Cache. Dann würde ich aber kein RAID 1 sondern ein RAID 0  XFS bevorzugen.

     

    Was meint ihr?

     

    Viele Grüße

  19. @Gorosch Danke für deine schnelle Antwort und deinen Vorschlag.

     

    Ist es evtl. möglich und macht es Sinn, ein Pool mit den gesagten 4 x 5 TB Platten zu erstellen und diesen Pool dann in das Array einzubinden? Wenn ich es richtig verstanden habe, dann brauche ich jedoch eine Parity Platte, die dann so groß ist wie das RAID 5 Pool!?

     

    Ich habe mir gerade überlegt, ob ich die 4 x 5 TB nicht als einzelne Platte (XFS) in das Array hinzufüge und dann über Shares (hast du glaube ich auch erwähnt) alles gespeichert wird.

    Beispiel: Nehmen wir an Disk 1 - Disk 4 sind die 4 x 5 TB im Array, Disk 5 - Disk 6 sind die 2 x 4 TB und Disk 7 ist die 2 TB.

     

    Share Bilder: Include Disk = Disk 7.

    Share Kamera Videos: Include Disk = Disk 7

    Share Backup: Include Disk = Disk 7

    Share Medien: Include Disk = Disk 1 - Disk 6.

     

    Pool Cache and Transcode: 240 GB SSD (XFS)

    Pool VMs: 2 x 1 TB (BTRFS) NVMe

     

    Bei deinem Vorschlag, die SSD als Cache zu nehmen gibt es ein Problem: Wenn ich sie als Pool (BTRFS) konfiguriere, werden aus 2 TB durch das RAID 1 nun 1 TB.

    Da die derzeitigen VMs schon 676 GB Speicherplatz einnehmen, bleibt nicht mehr viel für ein restliches Caching übrig.

     

    Wenn ich die 240 GB SSD aus dem Array nehmen sollte, wie bekomme ich die Docker dann wieder zu laufen, da ich den Standardpfad auf diese SSD geändert habe?

    Reicht es die SSD aus dem Array zu entfernen und anschließend als Pool einzurichten und anschließend in den einzelnen Docker den Pfad zu ändern?

     

    Viele Grüße

  20. Hi und vielen Dank für eure Antworten.

     

    Also mein Array besteht wie gesagt aktuell aus:

    • 2 x 4 TB HDD (btrfs: insgesamt 8 TB) für Videos, Musik, Bilder etc.
    • 1 x 240 GB SSD für Docker und Transcode
    • 1 x 2 TB für diverse Unterlagen, Software, Backups (VMs, Clients) und Iso´s

    Zusätzlich habe ich außerhalb des Arrays:

    • 2 x 1 TB Samsung EVO 970 Plus M.2 NVMe für .img der VMs

    Als Unassigned Device ist die TR-004 mit wie gesagt 4 x 5TB HDDs im RAID 5 über USB eingebunden.

     

    Leider ist mir bei der Wartung der Wasserkühlung für das System die 6 TB HDD kaputt gegangen, die eigentlich als Array Parity verwendet wurde. Das wird auch demnächst wieder so sein, sobald der Controller geliefert wurde.

     

    Zusätzlich habe ich bei der Telekom ein MagentaCloud mit 100 GB und an der FritzBox ist ein 128 UBS Stick angeschlossen.

    Bisher habe ich keine Lösung finden können, wie die wichtigsten Daten (Bilder, Unterlagen, Kamera Videos, etc) mit der Cloud oder dem USB-Stick synchronisiert werden können. 

     

    Wieso ich Unraid einer QNAP vorgezogen habe!?

    Ich brauchte eine schnelle und kostengünstige Lösung um VMs, Plex und Dockers getrennt von einem Client zu nutzen. Mein jetziger Unraid Server war zuvor ein Windows 10 Client auf dem via Hyper-V die VMs gehostet waren. Aber Aufgrund von vielen Ausfallen und Problemen, hatte ich mich an der Installation der QNAP OS auf diesem System versucht. Leider konnte ich die 3 SATA Controller nicht zu laufen bringen und habe dann Unraid getestet.

    Den Ryzen 5 2600 Prozessor in meinem Unraid System habe ich vor einiger Zeit gegen einen Ryzen 5 4650 Pro getauscht, damit ich die GPU in einem anderem Windows Client verwenden kann. Durch diese Lösung habe ich zu mindestens erreichen können, dass der Stromverbrauch von 113 Watt auf 72 Watt (TR-004 und alle VMs gestartet) reduziert wird.

     

    Meine Idee bzw. mein Ziel:

    In einer perfekten Welt hätte ich gerne die 4 x 5 TB als RAID 5 im Unraid Array. Hier weiß ich jedoch nicht, ob das dann mit der 6 TB Parity machbar ist, da die Parity ja min. so groß sein muss, wie die größte Platte im Array (bezieht sich das auch auf Pools?).

    Die 2 TB soll weiterhin als Share für die Personen im Haushalt dienen, um Unterlagen etc. zu speichern, die 2 x 4 TB im Verbund als Share für Medien etc. und das RAID 5 als Backup. Sämtliche Unterlagen, Bilder, Backups von Clients etc. sollen ähnlich wie bei Dir @Gorosch mit der Cloud und dem USB-Stick synchronisiert werden.

    Ich hoffe einfach, dass sich die Übertragung zwischen den (RAID)Pools erhöht und die Daten im Netzwerk somit schneller übertragen werden. Aktuell habe ich eine Übertragungsrate zwischen dem Array und der TR-004 von bis zu 68 MB/s was meiner Meinung nach sehr wenig ist.

     

    Ich hatte mir ebenfalls schon überlegt, nicht eine kleine QNAP neben dran zu stellen und dort die 2 x 4 TB im RAID 0 und die 4 x 5 TB + 1 x 6 TB im RAID 6 zu nutzen, um einen Performance Boost zu bekommen. Via SFF-8088 würde ich die QNAP mit dem Unraid Server verbinden. Die 2 TB und der NVMe Pool würde so bleiben.

    Hier habe ich jedoch keine Lust wieder mehrere Systeme zu warten.

     

    @mgutt Weil ich Performance bei der Datenübertragung zwischen den Pools haben möchte. Ich könnte natürlich auch die 4 x 5 TB und die 2 x 4 TB als Pool ins Array einbinden und dann eine Synchronisierung zwischen den Platten machen. Aber was passiert, wenn ein der 4 TB oder 5 TB Platten kaputt geht. Dann ist das Pool doch ebenfalls im Eimer und die Daten verloren, oder?

     

    Wie würdet ihr einen Server aufbauen, wenn ihr die genannte Hardware und Anforderung hättet?

     

    Viele Grüße

  21. Hallo Zusammen,

     

    ich wollte einmal in die Runde fragen, wie ihr Backups in unRAID nutzt.

    Derzeit habe ich in meinem Array 2 x 4TB (brtfs im Verbund), eine 2 TB und eine QNAP 4 Slot Extention mit 4 x 5 TB im RAID 5.

     

    Wenn ich richtig gelesen habe, dann brauche ich eine USV um die 4 x 5 TB in mein Array aufnehmen zu können.

    Meine Fragen:

    1. Wieso brauche ich eine USV?
    2. Kann ich in unRAID ein RAID 5 nachbilden?
    3. Was wäre eine Konfiguration ähnlich einem RAID 5?
    4. Was passiert bei einem defekt mit einer Konfiguration aus Punkt 3?

     

    Viele Grüße

×
×
  • Create New...