Jump to content

Tiras

Members
  • Posts

    188
  • Joined

  • Last visited

Posts posted by Tiras

  1. 2 hours ago, mgutt said:

    Die CMR ist als Parity konfiguriert?

    Damit die Datenübertragung schneller geht, habe ich die Parity nicht in das Array eingebunden.

    2 hours ago, mgutt said:

    Hast paralleles Lesen und Schreiben auf einer Disk im Array?

    Ich weis leider nicht was du damit meinst....

  2. Hallo Zusammen,

     

    ich habe bzgl. der Übertragungsrate der NVMe´s eine neue Frage/ ein neues Problem.

    Ich hatte vor 2 Tagen ein Pool aus 5 HDD Platten (2 x 4 TB + 1 5 TB mit CMR und 2 x 5 TB mit SMR) im RAID 6 konfiguriert. Die Übertragungsrate auf diesen Pool war mit den SMR Platten besser, als ich gedacht hatte. Ich muss habe es jedoch wieder umgebaut (sämtliche HDDs ins Array), weil die Übertragungsrate der NVMe´s unter 800 MB/s lag, nachdem ich sie ins Array hinzugefügt habe (1 TB 970 Evo Plus als Parity, 1 TB 970 Evo Plus und 2 x 128 GB Gigabyte als Daten Disks). Das war mir ehrlich gesagt bei dieser Hardware zu langsam und habe es wie gesagt wieder umgebaut. 

    Ich fand die Übertragungsrate des RAID 6 Pools jedoch echt gut, weil sie wie gesagt trotz der SMR Platten konstant bei 97 MB/s lag. Da SMR Platten hauptsächlich für Datenspeicherung und nicht für Aktionen verwendet werden, habe ich meine Daten (Medien, Bilder, etc) dort gespeichert. Nun bin ich seit 2 Tagen dabei die Daten zu übertragen, weil die Schreibgeschwindigkeit immer wieder auf 19 MB/s runtergeht und es liegen noch 2 TB vor mir und 3 TB wurden erst übertragen. Das ist echt zu wenig und die Platten austauschen ist aktuell nicht drin.

     

    Deswegen bin ich am überlegen, wieder den RAID 6 Pool zu konfigurieren, aber mit der Voraussetzung, dass die NVMe´s ihre volle Leistung im Array erreichen. Die NVMe´s dienen im Array für VMs, appdata, etc. 

    Shares sollen auf dem RAID 6 Pool als "Only" landen. 

     

    Nun meine Frage:

    Hat jemand eine Idee, wie ich das Array mit den HDDs und höherer Schreibgeschwindigkeit oder die NVMe´s im Array mit voller Leistung nutzen kann?

    In den Einstellungen für die Disks habe ich schon "md_write_method" auf "reconstruct write" gestellt, aber leider ohne Erfolg.

     

    Danke schon einmal für eure Hilfe.

  3. Ok, aber was ist, wenn ich ein Pool im RAID 6 mit 5 Platten habe und eine Platte ist defekt? Wenn ich dich richtig verstanden habe, dann wird, wenn ich eine neue Platte einbaue das RAID 6 formatiert und neu erstellt. Somit gehen jedes mal sämtliche Daten verloren, oder habe ich das falsch verstanden? Wenn ich es falsch verstanden habe, was muss in  so einem Fall gemacht werden?

  4. 4 minutes ago, mgutt said:

    Ja. In dem Fall führt man das BTRFS Balancing aus und die Daten werden komplett umverteilt.

    Das Balancing muss ich ja schon ausführen, wenn ich die Platten im Pool hinzugefügt, das Array gestartet und das Dateiformat ausgewählt habe. Ich möchte nämlich zuerst ein Pool mit 4 Platten zu einem RAID 6 erstellen. Anschließend die Daten aus dem Array in dieses Pool verschieben und die Disk aus dem Array ebenfalls in diesen Pool RAID 6 hinzufügen. Vorher würde ich die Disk, die ich aus dem Array entferne natürlich schon BTRFS Encrypted formatieren, damit ich beim hinzufügen dieser Disk in den Pool und erneutem ausführen von Balancing nicht doch mit einer Formatierung und einem Datenverlust überrascht werde.

  5. 3 minutes ago, mgutt said:

    Das einzige was du im Moment hast ist ein Backup, von dem du gelöschte Dateien wiederherstellen kannst, die du versehentlich vom Hauptserver gelöscht hast. Mehr aber auch nicht.

    Ok, aber was bedeutet dann dein Backup-System? Das du ein gleichwertiges System an einem anderen Ort stehen hast, um in eines deiner genannten Fälle deine Dienste, Anwendungen etc. weiterhin nutzen zu können oder einfach deine Daten vom Hauptserver extern zu sichern und diese Sicherungsverwaltung eigenständig läuft?

  6. 17 minutes ago, mgutt said:

    Dir ist aber schon klar, dass es keine gute Idee ist ein Backup im selben System aufzubewahren? Was ist bei Brand, Diebstahl oder Sicherheitslücken?

    Du hast natürlich recht, aber Diebstahl kann ich hier schon mal ausschließen, da das System zuhause steht. Aber es macht natürlich kein Sinn Backups auf dem gleichen System zu sichern.

    Dann bleibt mir wahrscheinlich doch nur, die TR-004 als externen Speicher via USB an dem Unraid Server anzuschließen, um dort die Backups zu speichern. In der TR-004 werden die 4 x 5 TB wieder eingebaut und als RAID 5 konfiguriert, damit auch dort eine gewisse Ausfallsicherheit vorhanden ist.

     

    Im Unraid Server füge ich dem Array die 6 TB als Parity, die 2 x 4 TB und 1 x 2 TB hinzu. Für die Virtualisierungen werden die 2 x 1TB in einem Pool als RAID 1 konfiguriert und die 2 x 128 GB NVMe´s werden dann als Cache für Docker, Transcode etc. verwendet.

     

    Die Backups werden dann automatisiert - via Script - direkt auf der TR-004 gespeichert. MagentaCloud möchte ich täglich via Script synchronisieren.

    Ich glaube, dass das vorerst eine gute Lösung ist.

  7. 7 hours ago, mgutt said:

    Der 2. Pool ist 10TB groß, also RAID5 oder 15TB und RAID0? Ich verstehe gerade nicht wie du die 10 oder 15TB ins Array sichern willst. Da ist doch nur Platz für 10TB und die anderen Sachen sollen da ja auch noch hingesichert werden.

    Korrekt. Die 3 x 5 TB würden quasi ein RAID 5 ergeben. Die 2 x 4 TB und 1 x 2 TB sind (vorerst) als 10 TB im Array. Meine gesamt notwendige Kapazität liegt derzeit bei knapp 8 TB.

    Das würde bedeuten, dass ich auf dem RAID 5 sowieso noch platz habe und sobald dieser auch zum Ende kommt, werden neue Disks eingebaut (sowohl im Array als auch im Pool).

     

    7 hours ago, mgutt said:

    Und warum brauchst du überhaupt einen so performanten Zugriff auf Bilder, Musik und Dokumente?

    Das brauche ich nicht. Die Zuweisung  eines Caches für diese Ordner wäre einfach nur ein Nice-To-Have.

     

    7 hours ago, mgutt said:

    Ich habe zB meine Dokumente dauerhaft auf dem Client und sie werden über meine Backup-Routine regelmäßig auf meinen Server gesichert. So verfahre ich mit allem was ich gerade bearbeiten muss. Wenn ich zB ein Video schneide, dann habe ich die Clips alle auf dem Client und sobald das Video fertig geschnitten ist, wird das komplette Projekt auf den Server verschoben. Hängt bei dir natürlich davon ab wie groß du das VM Image deiner Workstation machen kannst bzw wie groß die Dateien sind, die zu deinem täglichen Workflow gehören. Ansonsten bliebe aber noch die Option das auf einen Share auszulagern, der auf dem 3. Pool mit Cache "Yes" eingestellt ist (setzt natürlich voraus, dass du da etwas größere SSDs verwendest).

    Das war auch zuvor der Fall. Wir haben ausschließlich Apple Hardware, bis auf meinen PC. Das Problem ist hier, dass auf jedem Gerät die Benutzerdaten für bspw. MagentaCloud hinterlegt werden müssen, um es auf dem Geräte nutzen zu können. Deswegen war ich Dir sehr dankbar, als du mir in dem anderen Thema die App rclone empfohlen hast.

    Das die Dateien lokal auf dem Client gehalten werden können ist mir schon klar, nur möchte ich sie gerne zentral halten und von dort aus das Backup steuern.

    7 hours ago, mgutt said:

    Ja und Filme liegen sowieso dauerhaft auf dem Array. Die werden ja beim Abspielen mit max 10 MB/s geladen (4K).

    Das würde sich ja nicht ändern. Die Medien würden weiterhin auf dem Array - so zusagen als Backup - liegen, aber mit dem RAID 5 Cache/Pool als "Prefer". Da das auch nur HDDs sind, würde ich hier keinen wirklichen Performance Boost erhalten, sondern lediglich auf eine Ausfallsicherheit hoffen. 

    Das gleiche gilt für den 1. Pool. Hier würde ich die 2 x 1 TB als RAID 1 nutzen und nur wirklich nur für VMs. Da die MagentaCloud derzeit nur 100 GB hat und für die Bilder, Dokumente, Kamera Videos etc. dient, reicht meiner Meinung nach eine 128 GB. Um die Daten zwischen den Pools/Array schnell zu verschieben, habe ich hier einfach nur an eine NVMe gedacht. Mir ist natürlich bewusst, dass eine HDD - egal ob inn- oder außerhalb des Arrays - vollkommen ausreichen würde.

     

    Ich versuche einfach nur einen Weg für eine ordentliche Backupstrategie zu finden. Ich hätte mir auch für 3500 € ein QNAP kaufen können, die RAID fähig ist, eine einfache Benutzeroberfläche anbietet und VM ready ist. Aber das wollte ich nicht, da irgendwo meine finanziellen Möglichkeiten eine Grenze haben. Außerdem denke ich, dass Unraid all mein Vorhaben unterstützt.

     

    Ich muss nur herausfinden wie....

     

    Wie gesagt, möchte ich das Array nur nutzen:

    • damit die Daten wiederhergestellt werden, wenn eine Platte im Array defekt ist
    • ich weiterhin auf meine Daten zugreifen kann, auch wenn die defekte Platte im Array nicht sofort ausgetauscht wird
    • ich einen hohen Speicherplatz habe, ohne mir Gedanken über die Parity Disk machen zu müssen
    • ich durch das RAID 5 und Synchronisierung mit dem Array eine gewisse Datensicherheit/Ausfallsicherheit habe

    Wie du gesagt hast, gibt es viele Möglichkeiten, die mir auch einfallen würden, aber bspw. eine Low QNAP hier dazu zustellen, die neben mein Unraid Plex ebenfalls als Plex dient, und sämtliche RAIDs enthält und somit Backups regelt, so dass in unraid ein Array mit NVMe und SSDs für VMs aufgebaut wird, war für mich aus Energiegründen keine Option.

     

    Mein Unraid System funktioniert und läuft - bis auf die Platten die derzeit ihren Geist aufgeben - soweit stabil. Nur versuche ich jetzt das Maximum herauszufinden. Dein Tipp mit der Asus Karte war wirklich hilfreich. Wenn ich nun noch das nötige Kleingeld hätte, dann würde ich sogar ein Unraid System mit ausschließlich NVMe´s bauen. Aber dafür habe ich die Anwendungen nicht und mein Intranet liegt auch nur bei 1 GBit/s.

     

    Lange rede, gar kein Sinn... Es geht mir bei diesem Vorschlag wie gesagt um Backup, hohen Speicher und evtl. max. Performance.

  8. Kurze Frage: Ich habe mir folgende Konstellation überlegt:

     

    1. 6 TB als Parity
    2. 2 x 4 TB + 1 x 2 TB als Array Disks
    3. 1. Pool aus 2 x 1 TB NVMe für VMs
    4. 2. Pool aus 3 x 5 TB HDD
    5. 3. Pool aus 2 x 128 GB NVMe

    Array Disks dienen als Backup. Für jeden Anwendungszweck wird ein Share bspw. Bilder, Musik, Dokumente auf den Array Disks mit dem 2. Pool als "Prefer" erstellt. Das gleiche für die VMs. Ein Script synchronisiert die Daten täglich um 0:00 von den Pools auf das Array.

    Der 3. Pool dient vielleicht als Default Cache oder für Docker und MagentaCloud - MagentaCloud wird auch mit dem Array synchronisiert - verwendet.

     

    Gedanke dabei ist, dass ich ein schnelles und großes Volume für Daten habe, ich mich aber 1. um keine gleich große Parity kümmern muss und vor allem alle Daten im Array abgesichert sind. Die Shares / Ordner, die ich brauche erstelle ich im Array und move sie anschließend in die Pools.

     

    Was haltet ihr von dieser Idee? Wäre das eine Backup methode?

  9. Ich habe die nachfolgend Meldung im Dashboard erhalten:

    image.thumb.png.82852db39ea3576c502c4a7de769529b.png

     

    Hat zufällig jemand eine Idee was Disk 0 sein könnte/ist? Das kann doch nicht sein, dass nun durch die Einbindung sämtlicher HDDs in Unraid kaputt gehen.

    Es sind keine neuen HDDs, dass ist mir klar, aber in dem alten QNAP System (QNAP Extension TR-004) habe ich diese Fehler nicht gehabt. Und bis auf die 2 x 4 TB und NVMe´s habe ich alle HDDs aus der QNAP TR-004 (4 x 5TB).

  10. 12 hours ago, mgutt said:

    Die läuft dann auch nur mit 4 GB/s. Mehr kann sie ja auch nicht.

    Genau das habe ich gemeint. Sie würde einen x8 Slot belegen, obwohl sie nicht dafür ausgelegt ist.

    12 hours ago, mgutt said:

    Aber wieso reicht dir das nicht? Du hast doch noch den M.2 Slot von der CPU. Also dann insgesamt 4.

    Ja, dass ist richtig, aber da muss ich schauen, ob durch die Verwendung von Bifurication nicht - wie in anderen Foren oder Mainboard Herstellern beschrieben - ein SATA Controller oder eines der beiden M.2_A oder M.2_B Slot deaktiviert wird. 

    Du hast recht, ich habe hier noch Möglichkeiten bspw. könnte ich die QNAP Karte mit den beiden Gigabyte NVMe´s in den 2. PCIe x4 und die Asus Karte mit den schnellen 1 TB NVMe´s (bis zu 3) in den PCIe x16 installieren. Zusätzlich hätte ich, wie du sagtest die beiden MB M.2 Slots, aber wie gesagt, wenn sie nicht deaktiviert werden wie bei manch anderen Mainboards.

  11. Ich habe gerade mal in den BIOS Einstellungen meines Mainboards geschaut und musste feststellen, dass die neuste BIOS Version nicht mehr Bifurication 4x4 unterstützt. In der Version F3 oder F4 war das noch möglich.

     

    In einem Tutorial wurde gesagt, dass man bei Verwendung einer Asus M.2 Card im BIOS CSM deaktivieren muss und wie du ebenfalls schon gesagt hast, auf RAID Mode umstellen.

    Beides habe ich eingestellt, aber leider bootet dann unRAID nicht mehr sobald ich CSM deaktiviere. 

     

    Wenn es tatsächlich nur 8x4x4 möglich ist, dann bringt mir das leider nicht wirklich viel. Interessant wäre für mich wirklich, wenn alle NVMe´s auf dieser Karte max. 4 GB/s hätten, aber eine 1 TB NVMe mit 8 GB/s, die 2. 1 TB mit nur 4 GB/s und - wenn wirklich nur 3/4 möglich sind - die 128 GB NVMe mit 4 GB/s macht meiner Meinung nach nicht wirklich viel Sinn. Vielleicht würde es funktionieren, wenn ich die BIOS Version F3/F4 wieder installieren würde, oder was meinst du?

    IMG_0909.JPEG

    IMG_0910.JPEG

  12. In diesem Forum  habe ich gelesen, dass die CPU ebenfalls Bifurication unterstützen muss. Leider konnte ich in der Spezifikation zu meinem Ryzen 5 4650G Pro bei AMD keine Angaben zu Bifurication finden. Ich weiß, dass im BIOS meines Mainboards diese Option vorhanden ist und ich diese auch ändern kann. 

     

    Kannst du dazu etwas sagen @mgutt

  13. 3 hours ago, mgutt said:

    Asus listet dort nur Asus Mainboards auf 😉

    Also meinst du, dass es funktionieren soll/muss/könnte? 

     

    Wieso die GPU im 2. Slot nicht funktioniert hat, kann ich Dir leider nicht sagen. Nachdem ich von Gigabyte einen Download Link für eine spezielle BIOS Version erhalten habe, die nicht auf der Webseite verfügbar war, hat die Grafikkarte und die Einstellungen für Bifurication wieder funktioniert.

     

    Du machst das nicht zufällig hauptberuflich, oder? Man merkt, dass du schon sehr viel Ahnung von dem Thema hast. An dieser Stelle mal ein Danke an dich für deine Hilfe.

     

    Wie gesagt bekomme ich die Karte in den nächsten Tagen zurück und teste sie mit den von Dir genannten Einstellungen. Die GPU ist ja nicht mehr in diesem System, da ja ein der Ryzen 5 4650G Pro eine integrierte Grafik hat.

     

    Ich weiß, dass ich in meinem System viele NVMe´s habe, aber das liegt wie gesagt daran, dass ich möglichst alles trennen möchte. Das bedeutet, dass die VMs für sich laufen sollen, so Sachen wie "appdata", "system", "MagentaCloud", "transcode" etc. sollten möglichst ebenfalls für sich laufen. Damit möchte ich erreichen, dass bei einem defekt einer NVMe nicht alle Daten verloren gehen, sondern das System weiterhin läuft.

     

    Wieso ich für die VMs kein RAID 1 mache?

    Das hatte ich vorher so. Die beiden 1 TB NVMe´s waren in einem Pool als BTRFS Dateisystem im RAID 1. Vom Gefühlt her war die Performance der VMs nicht so berauschend, weshalb ich den anderen Thread erstellt habe und Du mir da schon ziemlich weitergeholfen hast. Wie ich in dem Thread schon erwähnt habe, vermute ich, dass ich durch durchschleifen einer 128 GB NVMe in die Workstation noch mehr Leistung erzielen könnte. 

     

    Wieso die 1 TB NVMe fast voll ist durch VMs?

    • Active Directory Server = 80 GB
    • MS SQL 2016 Server = 80 GB
    • Dynamics CRM v8.2 Server = 80 GB
    • Dynamics CRM v9.1 Server = 80 GB
    • SSRS Server = 80 GB
    • TFS 2017 Server = 80 GB
    • Workstation = 2 x 120 GB
    • Playground = 80 GB
    • Kunden VM = 80 GB

    Windows Server OS nimmt min. 20 GB Speicherkapazität für das OS. Hinzu kommen Updates und diverse Dienste/Software. Ich bin am Überlegen, ob nicht 50 oder 60 GB ausreichen würden. Bei dem SQL, Dynamics CRM und TFS auf keinen Fall, da der SQL Server alleine 19 GB braucht. TFS liegt bei 14 GB.

     

    Ich muss aber ehrlich gestehen, dass ich den Sinn eines Pools/Caches als "Prefer" nicht so ganz verstehe, wenn ich einen Pool/Cache erstellen kann und dem Share diesen als "Only" zuweisen kann. Die Daten sichere ich mir durch eine Backup Strategie auf den HDDs. Warum sollte ich also ein Pool/Cache in einem Share als "Prefer" haben?

    16 hours ago, vakilando said:

    Ich würde Docker (appdata) und Vm's immer vom Cache, einen anderen Pool oder von einem unassigned device laufen lassen. Wegen besserer Performance.

    Welchen Performance Unterschied gibt es, wenn ein Share ein Pool/Cache oder ein Unassgned Device nutzt?

  14. So, ich habe gerade mal nachgeschaut und diesen Verlauf gefunden. Leider ist nur die letzte Antwort des Gigabyte Supports zu sehen, aber meine Antworten und Fragen sind zu sehen. Ich hatte gehofft, dass der gesamte Verlauf verfügbar ist. Sorry...

     

    image.thumb.png.128e64f6e98adcdba060e4848b90b0b9.png

  15. 1 hour ago, mgutt said:

    Dann ist es auch kein Wunder, wenn die Karte nicht funktioniert. Die Quad Bifurcation Karte ist 4x X4 und im BIOS muss man das einstellen, ansonsten wird der X16 Slot einfach nur auf X4 gedrosselt und es wird nur eine NVMe erkannt.

     

    Bifurcation ist Bifurcation. Wenn das nicht geht, wäre das ein Bug vom Mainboard. Die Karten besitzen sonst meiner Ansicht nach nichts, was irgendwie inkompatibel sein könnte.

     

    Und was sagt Gigabyte dazu oder die einschlägigen Foren? Das kann doch nicht normal sein. Sicher, dass die NVMe nicht einfach zu heiß wurde und sich selbst gedrosselt hat?

     

    Mein Mainboard ist in den Produkten nicht aufgelistet für diese Karte: https://www.asus.com/support/FAQ/1037507/

     

    Ich müsste in meiner Support History schauen, ob die Antwort vom Gigabyte Support noch aufrufbar ist. Soweit ich mich aber erinnere, haben sie genau das bestätigt, was ich bereits gesagt habe. Dass nur der M2_A Slot ein x4 ist. Ich schaue nach im Ticketsystem nach der Antwort von Gigabyte.

  16. 6 minutes ago, mgutt said:

    Das Board hat zwei voll nutzbare M.2 Slots. Wie kommst du darauf, dass der M.2 Slot des Chipsatzes limitiert sei? Der ist ebenfalls X4.

    In einem Test unter Windows habe ich mit dem Tool "AS SSD Benchmark" habe ich diesen M2_B Slot alleine getestet und anschließend diesen Slot und parallel eine Samsung Evo 860 am SATA Port. Im 2. Test ist die NVMe (1 TB Samsung Evo 970 Pro) eingebrochen. Somit und aufgrund des nachfolgenden Screenshots schließe ich darauf.

    image.thumb.png.1be4d3ecc343c007ad3e428355ad8a18.png

     

    In einem 3. Test habe ich den M2_A, den M2_B und die SSD getestet. Der M2_A kam auf 2800+ MBit/s und die beiden anderen wie im 2. Test.

    13 minutes ago, mgutt said:

    Du kannst also eine ganz billige Bifurcation Karte wie diese verbauen:

    https://www.idealo.de/preisvergleich/OffersOfProduct/6789513_-hyper-m-2-x16-v2-asus.html

    Diese Einstellung habe ich gesehen, aber mich nicht damit auseinander gesetzt. Die Karte habe ich hier ebenfalls liegen, da dort 4 Slots zur Verfügung stehen und ich diese im PCIe x16 installiert habe. Blöd ist nur, dass nur die Karte im ersten Slot erkannt wird. Scheinbar ist diese Karte nicht mit meinem Mainboard kompatible. Ich habe hier eine NVMe auf allen Slots dieser Karte getestet und wie gesagt wurde sie nur im 1. Slot erkannt. Da ich ein defekt vermutet habe, hatte ich sie zum testen eingeschickt und die gleiche Karte mit der Antwort: Die karte funktioniert einwandfrei. Bitte prüfen Sie auf Hardwarekompatibilität. Aus diesem Grund habe ich die QNAP Karte - auch wenn sie um das 12 Fache gekostet hat - entschieden. Dafür wurde sie ohne Probleme erkannt und die Datenübertragung war im Windows Umfeld schon faszinierend. Bei einem Transfer bspw. zwischen dem Cache_default und Cache_vm erreiche ich eine Übertragungsrate zwischen 1,8 bis 2,2 GB/s je nach Temperatur.

     

    In dem Thread "VM Performance schlecht" hast du mich auf die Idee gebracht, um in der Workstation mehr Leistung zu bekommen, ich dort einfach eine 128 GB NVMe durchschleife. Theoretisch gesehen sollte die Workstation noch mehr Power haben, selbst wenn sie im M2_B Slot verbaut ist, als jetzt wo die Image-Datei auf der Cache_vm liegt.

     

    Ich bin aber kein Systemadministrator und mache das nicht Hauptberuflich sondern eher Hobby mäßig.

  17. 3 minutes ago, vakilando said:

    Nein, "prefer" bedeutet, dass die Daten möglichst auf dem Cache verbleiben.
    Fehlt Platz, werden sie auf das Array verschoben.
    Ist wieder Platz vorhanden, werden sie zurück auf den Cache verschoben.

    Ich würde Docker (appdata) und Vm's immer vom Cache, einen anderen Pool oder von einem unassigned device laufen lassen. Wegen besserer Performance.

    Ok, würde dann in meinem Fall bedeuten, dass ich ein "Pool" - außerhalb des Arrays - "Cache/Pool_vms" erstelle, und diesen Cache/Pool dann dem Share "Virtualizations" zuweise. Dass gleiche Spiel mit dem "appdate" Share. Aber 128 GB Pool für den "appdata" Share scheint mir etwas zu viel, oder? Mein "appdata"- Share belegt zur Zeit knapp 4 GB.

  18. Hallo Zusammen,

     

    ich wollte in den anderen Threads kein Spam erzeugen, deswegen stelle ich hier noch einmal die Frage/n:

     

    Ich möchte meine Docker und VMs auf der HDD speichern. Der Share "appdata" erhält den Cache "Cache_default" als "Prefer". Der Share "Virtualizations" erhält den Cache "Cache_vm" ebenfalls als "Prefer". 

    Nach meinem Verständnis werden die Ordner/Dateien in diesen Shares durch den "Mover" nach der festgelegten Zeit auf die Caches transportiert und zukünftig von dort aus gestartet. 

    Nun ist mir aufgefallen, dass neue Docker nicht mehr auf der HDD zusehen sind, sondern direkt auf dem Cache.

     

    Ist es machbar, dass die Docker/Virtualizations zuerst auf der HDD sozusagen als Absicherung gespeichert werden, und zukünftig dann von dem Cache gestartet und immer synchronisiert werden? Meine Caches sind ausschließlich 2 x 1 TB Samsung Evo 970 Plus NVMe´s und ich hätte noch 2 freie Slots und 2 x 128 GB NVMe´s zur Verfügung.

     

    Entschuldigt bitte für die Fragen in unterschiedlichen Threads.

     

    Viele Grüße und danke für Eure Hilfe.

  19. 4 minutes ago, mgutt said:

    EDIT: Ach du willst ein RAID0 bei den 2x 1TB machen und dann reicht der Speicherplatz immer noch nicht? Wie groß willst du bitte die VM Images machen?!

    Ja, ich stelle mir ein RAID 0 vor, aber das wird wahrscheinlich wirklich zu viel. Wieso so viele NVME´s? Weil ich alles gerne trennen möchte. MagentaCloud wird mehr beansprucht als die 2 x 1 TB, da die VMs auch mal heruntergefahren werden (wegen Backup etc.). Die 128 GB wird über den M.2 Slot eingebunden, der über den SATA-Controller läuft und somit auf 600 MB/s begrenzt ist. Die 2 x 1 TB sind über eine QNAP Karte via PCIe x16 eingebunden. Die 500 GB NVME über den 1. M.2 Slot via PCIe x4. Ich erhoffe mir somit mehr Leistung bei der Datenübertragung.

  20. Danke für deine schnelle Antwort. Da meine Parity Platte defekt ist - habe mit WD einen Check gemacht und der Wert steigt weiter an - nehme ich die letzte WD 5 TB mit CMR als Parität und möchte gerne folgendes konfigurieren:

     

    Array:

    • 2 x 4 TB WD Red mit CMR
    • 2 x 5 TB Seagate SMR
    • 1 x 2 TB Toshiba
    • 1 x 5 TB WD als Parity

    Cache:

    • 2 x 1 TB NVME (Cache für VMs)
    • 1  x 500 GB NVME (default Cache für MagentaCloud via rclone)
    • 1 x 128 GB NVME (appdata, system und transcode)

    Für MagentaCloud brauche ich kein RAID 1, da die Daten mit der Cloud synchronisiert werden. Für die VMs brauche ich ebenfalls kein RAID 1, weil mit der VM Backup App wöchentlich ein Backup der XML und das Image auf eine im Array liegende HDD gemacht wird. Für die Backups stelle ich mir vorerst die 2 TB HDD vor, da die beiden 5 TB Platten für Plex, Bilder und Kamera Videos genutzt werden sollen. Die 4 TB dienen erstmal als Reserve. Was hälst du als Unraid Experte von dieser Konstellation?

  21. On 7/28/2021 at 1:37 PM, mgutt said:

    Dass ist, damit du durch den Screenshot weißt welche Disk in welchem Slot gehört, falls du bei New Config was falsch auswählst. Also "Main" meine ich damit.

    Frage dazu:

    1. Was würde passieren, wenn man die Disks in einen falschen Slot einstellt?
    2. Was passiert, wenn ich eine Neuinstallation von Unraid mache und anschließend alle Platten wieder in die Slots hinzufüge, wie sie vorher auch waren. Gehen die Daten verloren, weil nach meinem Verständnis die Ordner (Shares) nicht mehr vorhanden sind?
×
×
  • Create New...