Jump to content

Tiras

Members
  • Posts

    188
  • Joined

  • Last visited

Posts posted by Tiras

  1. Also vielen Dank mgutt für deine Hilfe und Geduld. 

    Ich habe jetzt folgendes gemacht:

    image.thumb.png.02c0f5563d3c9b3c8ac2daff92bb6323.png

     

    Hast du eine Idee, wieso ich nur 11 von 12 Cores isolieren kann? Wenn ich 0/6 auch hinzufügen will, dann geht entweder nur 0 oder 6.

    Bei dieser Konfiguration ist die Performance der Workstation deutlich besser. Visual Studio wird schneller ausgeführt und auch die Aktionen für Repositories sind deutlich besser.

     

    Mir ist jedoch aufgefallen, dass bei einer Datenübertragung mit Krusader die Bandbreite bei knapp 400 MB/s beträgt, obwohl es sich um eine HDD handelt, auf die geschrieben wird und nach kurzer Zeit auf knapp 10 MB/s runter geht. Nach einer weiteren kurzen Zeit geht sie wieder hoch und dann wieder runter. Woran liegt das?

     

    Die Funktion des Caches habe ich nun so verstanden:

    Je nach Einstellung im Share werden die Dateien zwischen dem Cache und Disk geschoben/synchronisiert etc. Ist im Share "JA" eingestellt, dann werden die Dateien aus dem Cache auf die HDD geschoben und befinden sich dann nicht mehr im Cache. Wird im Share "Prefer" eingestellt, dann werden die Dateien zwar auf die HDD geschoben, aber bleiben weiterhin auf dem Cache. Wenn ich nun die Images meiner Virtualisierungen auf der HDD speichere und anschließend einen Cache als "Prefer" angeben, dann den Mover ausführe, werden sämtliche Images auf den Cache kopiert. Die Images aus dem Cache werden dann mit der HDD nach dem Zeitplan des Movers synchronisiert.

     

    Habe ich das so richtig verstanden?

  2. On 7/25/2021 at 10:49 AM, mgutt said:

    Ja tust du und du solltest dir Tipps von jemanden zu Herzen nehmen, der hier jeden Tag Fragen beantwortet.

    Ich nehme mir eure (vor allem deine) Ratschläge zu Herzen. unRAID ist Neuland für mich und von daher vertraue ich auf die Erfahrung und den Aussagen von Erfahrenen Anwendern.

     

    Offene Fragen:

    • Wenn ich eine VM erstelle und dort keine CPUs auswähle, dann werden immer alle CPUs verwendet?
    • Welchen Maschinentyp sollte man am Besten auswählen?
    • Welches BIOS würdet ihr empfehlen?
    • Die Leistung kann verbessert werden, wenn das Images der VM auf einer HDD im Array liegt, aber der Share ein (SSD) Cache mit "Prefer" hat?
    • Wenn ich diesem Share ein (SSD) Cache zuweise, muss in der VM für das Image der Pfad zu dem Cache oder zu dem Share angegeben werden?
    • Welchen Unterschied und Vorteil hätte ich bei einem Disk- Share?

    Viele Grüße

  3. Hallo Zusammen,

     

    mir ist heute aufgefallen, dass im Dashboard für das Array in der Parity der SMART als Error angezeigt wird. Das gleiche gilt für die 1 TB HDD die als unassigned Device eingebunden ist.

    Was hat das zu bedeuten und muss ich mir ernsthafte Gedanken machen?

     

    image.png.d48885521c4e1518418e9f2762118a95.png

  4. 53 minutes ago, mgutt said:

    Manche haben weniger Probleme, wenn die VMs die Kerne 1 bis 4 bekommen und unRAID 5 und 6. Daher wollte ich, dass du das testest. Eventuell solltest du das umdrehen. 

    Auf dem Screenshot sieht man, dass der VM die Kerne 2-11 zugewiesen sind, oder was genau meinst du mit Kerne 1-4?

     

    1 hour ago, mgutt said:

    Was ist mit Powersave? Darauf hattest du nicht geantwortet.

    Der Schnellstart in der VM ist deaktiviert und der Energiesparplan ist auf "Hochleistung" eingestellt.

     

    1 hour ago, mgutt said:

    Hast du eigentlich auch die Kerne der VMs isoliert? Also nicht nur im Template ausgewählt, sondern in den VM Settings auch dafür gesorgt, dass unRAID die nicht nutzen darf? Das war hier mit ein Grund:

    https://forums.unraid.net/topic/86502-win-10-vfio-vm-videohdmi-audio-stuttering-amd-ryzen-3000x570/?tab=comments#comment-812639

    Sorry, jetzt bin ich raus. So Einstellungen habe ich nicht gemacht. Ich habe lediglich die VM erstellt, die Cores angegeben, die Image größe festgelegt, die iso und die virtio treiber eingebunden und das wars auch schon. Das man weitere Einstellungen vornehmen muss, damit die VM evtl. performant läuft, finde ich für einen Anwender der sich evtl. nicht damit auskennt etwas to much.

    Ich habe hier noch eine PCIe x1 Netzwerkkarte liegen, aber das wird nicht funktionierten, da die VM in der AD ist. Und rein theoretisch gedacht, würde ein WLAN Adapter zwar die Verarbeitung übernehmen aber trotzdem via USB über die South-Bridge und demnach über die CPU gehen. Du hast wahrscheinlich recht, dass das Ausmaß nicht so hoch ist, aber dennoch den gleichen Effekt hat. Vielleicht irre ich mich auch.

  5. 20 hours ago, mgutt said:

    Was für dich nun Grund dafür war auf XFS umzustellen, weißt du nur du 😉

    Ok, ich muss gestehen, dass ich euch in dem "Backupmethoden" Thread vermutlich falsch verstanden habe. Ich glaube ihr meintet, dass BTRFS nichts im Array zu suchen hat. Aber das ist glaube ich jetzt hier nicht die richtige Stelle für eine Diskussion.

     

    20 hours ago, mgutt said:

    Teste bitte auch mal die Workstation alleine ohne Kerne zu isolieren. Also gib der Workstation testweise mal alle Kerne. Bitte beachte, dass du Windows dann richtig herunterfahren musst (Schnellstart deaktivieren). Ansonsten kann es sein, dass Windows die neuen Kerne verpeilt.

    Ich habe nun alle VMs gestartet und der Workstation zusätzlich alle Kerne zugewiesen und ich muss sagen, dass Visual Studio sich nicht mehr aufhängt beim Check In von Änderungen im Repository.

    Es ist jedoch noch nicht ganz behoben, da beim öffnen des bspw. Task Managers oder des Windows Explorers weiterhin zu einer sehr langen Wartezeit kommt, bis das entsprechende Fenster angezeigt wird.

     

    Es ist nicht wirklich eine Lösung der Workstation sämtliche Kerne zuzuweisen. Auf einer anderen VM mit Windows 10 und dem gleichen Patch Stand, jedoch ohne Visual Studios etc. habe ich diese Probleme nicht und dieser VM sind nur 4 Kerne zugewiesen. 

    Da ich so wieso eine neue VM mit Windows 10 erstellen muss, werde ich hier mal anstelle von i440fx-5.1 die Q35-5.1 und OVMF testen. 

     

    20 hours ago, mgutt said:

    Glaube ich nicht.

    Das Image für die VMs ist zu viel. In dem anderen Thread hast du gefragt, wieso die Images der VMs zu hoch sind, dass die Platte voll ist. Bis auf die Workstation und Playground VM haben alle Images 80 GB. Das bedeutet 7/9 VM * 80 = 560 GB + (3 + 120 GB) = 920 GB und aus diesem Grund werde ich die VMs wahrscheinlich neu erstellen. Blöd ist nur, das Windows Server 2012 und 2016 sowie Windows 10 min. 20 GB für das System benötigt.

    Es würden wahrscheinlich 40 GB ausreichen, aber das ist den wirklich das Minimum. Für Windows 10 sollte ich mir etwas anderes einfallen lassen. Eventuell eine NVME in den 2. M2 Slot und dann durchschalten. Auch wenn dieser Slot über den SATA-Controller läuft und somit die Übertragung des Arrays ebenfalls beeinträchtigt wird. 

     

    Leider kann ich nicht sagen, ob ich so tiefe Konfigurationsmöglichkeiten bei einem Bekannten und QNAP OS gesehen habe, aber bei unRAID sind die Einstellungsmöglichkeiten schon enorm.

  6. 11 hours ago, mgutt said:

    Du hast zwei Pools? Du weißt schon, dass du dann keine Ausfallsicherheit hast? Siehe auch:

    https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565

    Das Tutorial habe ich zu beginn auch gesehen. Da ich kein 10 GB/s Netzwerk habe und nur kleine Dateien (Dokumente und Home Streaming) über das Netzwerk geschoben werden, habe ich mich für Medien erst einmal für "keinen" Cache entschieden.

    Die 2 x 1 TB NVMe´s hatte ich zuvor in einem Pool als BTRFS (RAID1) genutzt. Im Thread "Backupmethoden" habe ich euch jedoch so verstanden, dass ich das Dateisystem der/des Pools auf XFS ändern sollte. Da dort die VMs immer drauf lagen (Share erstellt und Pool als "Only" eingestellt) habe ich vor einigen Tagen ein neues Share auf Disk 2 (HDD 4 TB) erstellt und dort ein Backup der VMs gespeichert. Anschließend habe ich den Pool gelöscht und aus einem BTRFS (RAID 1) Pool 2 x 1 TB Pool (Cache_default für Docker, Dokumente etc. und einen Cache_vm für die VMs) erstellt. Im Share appdata habe ich den Pool Cache_default als Prefer angegeben und das gleiche im Share Virtual_Machines. Den Mover gestartet und alle Dateien waren anschließend auf den jeweiligen Pools.

     

    Meine Frage:

    1. Warum sollte ich das Dateisystem des alten Pools von BTRFS in XFS ändern, wenn jetzt wieder empfohlen wird, Pools in BTRFS im RAID 1 zu nutzen, oder habe ich das in dem andern Thread falsch verstanden?
    2. Wenn Linux / Unraid standardmäßig 20 % meines DDR RAMs als Read / Write Cache nutzt, was sollte mir das bringen, wenn ich 2 weitere Riegel (2 x 32 GB) verbaue? Ich könnte der/den VM/s nicht mehr Speicher zuweisen, weil das Problem ja wieder auftreten könnte, dass durch die Reservierung wieder nicht genug RAM zur Verfügung steht.
    3. Habe ich nicht wieder einen Nachteil bei der Übertragung/Nutzung, wenn ich das Dateisystem des Pools "Cache_vm" wieder von XFS in BTRFS ändere?
    4. In dem Video wird beschrieben, dass man den RAM Cache ändern kann. Ist die Änderung dauerhaft aktiv, wenn ich den dort gezeigten Befehl in der Console eingebe oder wird er nach einem Neustart wieder zurückgesetzt? Wenn ja, wie kann diesen Wert dauerhaft ändern und vor allem, welcher Wert ist hier empfohlen, da es sich bei meinen Caches um NVMe Hardware handelt, die standardmäßig schon mehr als 1 GB/s bringen?
    5. Würde es das Problem mit der Workstation beheben?
    6. Da ich vermute, dass die ein- oder andere VM neu erstellt werden muss, welchen Wert für das Image der VM/s würdet ihr empfehlen? Wäre es eine gute Idee, wenn ich einen Share "VM_Images" erstelle und dort weitere Images für die VMs speichere, die dann auf den HDDs liegen?

    Danke für eure Hilfe.

     

    VG

  7. 9 hours ago, mgutt said:

    Wie ist denn die Performance der Workstation, wenn die anderen VMs nicht laufen?

    Die Performance ist leider genau so schlecht. 

    9 hours ago, mgutt said:

    Und der virtio Grafiktreiber ist aktiv? Siehst du ja an der besseren Auflösung.

    Also die Auflösung ist die gleiche, wie die des PCs mit dem ich eine RDP Verbindung aufbaue. 

    image.thumb.png.890a06b0e0392a568c60448edf5b5ad5.png

     

    Hier hast du einen Einblick in die Konfiguration der VM.

     

    image.thumb.png.ba35469c7640200247d1e95b0215b423.png

  8. 45 minutes ago, mgutt said:

    Du hast zwei Pools? Du weißt schon, dass du dann keine Ausfallsicherheit hast? Siehe auch:

    https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565

    Ja, dass ist mir bewusst. Aus diesem Grund mache ich wöchentlich ein VM Backup auf 3 verschiedene Disks.

    45 minutes ago, mgutt said:

    Ein Intel System wäre für dich eindeutig die bessere Wahl gewesen:

    https://forums.unraid.net/topic/108650-plugin-intel-gvt-g/

    Das Problem hatte ich ehrlich gesagt nicht als ich auf Unraid umgestiegen bin. Der einzige Unterschied ist, dass ich zurvor einen AMD Ryzen 5 2600 gegen den Ryzen 5 4650G Pro und den gesagten RAM getauscht habe. Der neue Prozessor hat mehr Leistung und ist im Single auch besser. Der neue RAM ist auf das Board abgestimmt und würde ich als Fehlerquelle ausschließen.

    45 minutes ago, mgutt said:

    Wo liegen die VDisks? Prüfe, in dem du bei den Shares rechts auf den Ordner klickst. In der Spalte "Location" steht ob sie auf dem Cache oder der Disk 1 liegen. Gerne auch Screenshots posten.

    Sie liegen wirklich auf dem Cache_VM Pool

    image.thumb.png.a4f838da1e536cdc78d689f8971fd31b.png

     

    45 minutes ago, mgutt said:

    Mit der selben Hardware und da haben sich die Workstation und die Server auch die selben Kerne geteilt?

    Mit dem Ryzen 5 2600 und dem inkompatiblen RAM, ja. 

     

    Ich habe jetzt mal die Core Verteilung neu konfiguriert und nochmal alle Virtrio Treiber installiert. Leider könnte man echt wahnsinnig werden, wenn man Visual Studio startet oder im Team Explorer ein neues Repository erstellen möchte. Dann erscheint immer die Meldung "Keine Rückmeldung". Die längste Wartezeit war knapp 3 Minuten.

    Normal finde ich das nicht. Hier nochmal ein Screenshot vom Dashboard:

    image.thumb.png.0ae6a507452e82754f7114779b2bfedc.png

     

    In einem Beitrag habe ich gelesen, dass es nicht ratsam ist, bei VMs den RAM mit einem Von und Bis Wert zu erstellen sondern beide auf den gleichen Wert zu setzen.

    Wie macht ihr das und könntet ihr als Unraid Profis evtl. ein Beispiel eurer Hardware und die Einstellungen geben, die ihr in euren VMs macht?

     

    Danke für Eure Hilfe.

  9. 1 minute ago, Gorosch said:

    Im Zweifel lieber mehr RAM als die paar 100 MHz mehr Taktung, die du wahrscheinlich eh nur bei Benchmarks siehst.

    Aber das würde mir nichts bringen und auch das Problem nicht beheben. Das Problem tritt ja nicht nur auf, wenn alle VMs gestartet sind, sondern auch, wenn nur eine aktiv ist.

  10. 17 minutes ago, Gorosch said:

    Liegen deine VMs nun auf der NVME oder auf den HDDs? Letzteres wäre sehr ungünstig.

     

    Hast du die VirtIO Treiber auf den VMs installiert und die Grafiktreiber?

     

    Ansonsten ist das ganze vielleicht etwas viel für dein System. Du hast 64GB RAM, deine VMs benötigen aber 48GB. Unraid ist kein ESXi oder Hyper-V, wo du sowas immer noch mit halbwegs brauchbarer Performance machen kannst, da hier die freien Resourcen einfach besser verteilt werden. Was du den VMs in Unraid zuteilst, belegen die auch voll, wenn die aktiv sind. Egal, ob genutzt oder nicht.

     

    Unraid selbst benötigt auch etwas RAM. Wenn du auch Docker am laufen hast, wird das ganze langsam knapp. Das könnte deine Probleme erklären.

    Also der Virtualizations Share liegt wie gesagt auf der Disk 1 (HDD) mit Cache_VM (NVMe) Prefered. Das Problem war schon, als ich den Virtualization Share mit Cache_VM als Only genutzt hatte. Die RAM Auslastung liegt bei 88% und die CPU Auslastung bei 55%, wenn alle VMs und Docker laufen. Docker habe ich nur 2 installiert.

     

    Ich habe hier noch 2 x G.SKILL 16 GB F4-3200C15D-32GTZR liegen, die zuvor verbaut waren. Aber bei diesem RAM war das Problem, dass ich kein XMPProfil aktivieren konnte, weil ich beim Kauf nicht richtig auf die Kompatibilität mit dem Board geachtet habe. Ich könnte ihn wieder installieren, aber dann wird dieser auf 2666 MHz gedrosselt und es ist kein XMPProfil mehr möglich.

  11. Hallo Zusammen,

     

    mir ist aufgefallen, dass die Performance meiner laufenden VMs extrem schlecht ist. Die Programme brauchen sehr lange bis sie geladen sind, dass verschieben von Fenster zieht nach - sprich es wird als Diashow angezeigt - und der Aufbau via RDP braucht auch sehr lange.

     

    Das Problem hatte ich nicht, als ich die VMs auf einem Windows Client mit Hyper-V laufen ließ. 

    Zu meinem System:

    CPU: AMD Ryzen 5 4650G Pro

    RAM: 2 x Kingston DIMM 32 GB DDR4-3200

    Mainboard: Gigabyte x570 Gaming X

    HDDs:

    • 2 x WDC_WD40EFRX-68N32N0_WD-WCC7K2KAS797 (4 TB)
    • 2 x WDC_WD50EZRZ-00GZ5B1_WD-WX11D17L7AUV (5 TB) (eine als Parity)
    • 2 x ST5000DM000-1FK178_W4J0FWLB (5 TB)

    NVMe: 2 x 1 TB Samsung Evo 970 Plus (Cache_Default und Cache_VM)

     

    Cache_VM wird nur für den Virtualizations Share als Cache mit Prefed genutzt. Der Virtualizations Share ist auf Disk 1 (4 TB) erstellt.

    VMs:

    • Windows Server 2012 (Active Directory Controller)
      • 4096 Mb RAM
      • 80 GB Festplatten größe
      • 2 Cores
    • Windows Server 2016 (MS SQL Server 2016)
      • 16GB RAM
      • 80 GB Festplatte
      • 4 Cores
    • Windows Server 2016 (SSRS)
      • 4 GB RAM
      • 2 Cores
      • 80 GB Festplatte
    • Windows Server 2016 (Dynamics CRM 9.1)
      • 8 GB RAM
      • 80 GB Festplatte
      • 4 Cores
    • Windows Server 2016 (TFS)
      • 8 GB RAM
      • 4 Cores
      • 80 GB Festplatte
    • Windows 10 (Workstation)
      • 8 GB RAM
      • 4 Cores
      • 2 x 120 GB Festplatte

     

    Da ich ausschließlich mit der Workstation arbeite ist mir das dort, beim öffnen von VS 2017 Pro oder öffnen des Explorers etc. aufgefallen.

     

    Hat jemand eine Idee? Wenn ihr noch Informationen braucht, dann lasst es mich wissen.

    Danke schon mal im voraus für eure Hilfe.

     

    VG

  12. Hallo mgutt,

     

    ich habe ein Neustart gemacht und jetzt ist der RAM wieder leer. Normal halt, aber wieso wird das tmp-Verzeichnis zugemüllt und vielmehr stell ich mir die Frage, wieso dieses Verzeichnis den RAM nutzt?

    Kann man das evtl. auf eine SSD oder HDD auslagern?

  13. Hallo Zusammen,

     

    Nachdem ich nun alles soweit fertiggestellt habe (siehe diesen Thread) habe ich die VMs wiederhergestellt. Leider kann ich nun nicht mehr alle VMs starten, weil ich freier RAM mehr vorhanden ist. Vor dem ganzen lag die RAM Auslastung bei 84% und jetzt liegt mit 5/7 VMs bei 92%.

    Ich habe dann mal sämtliche Docker und VMs ausgeschaltet und sehe weiterhin eine Auslastung von 42%.

     

    Was habe ich zuvor gemacht?

    Ich habe 2 Stunden vorher ein Backup sämtliche Daten mit @mgutt Skript gemacht und die VMs wiederhergestellt.

    Ich kann mir nicht vorstellen, dass durch Datenübertragung der RAM voll läuft und vor allem nicht in dem Ausmaß.

     

    Hat evtl. jemand eine Idee woran das liegen kann? Falls euch noch Information etc. fehlen, dann lasst es mich bitte wissen.

     

    Vielen Dank für eure Hilfe.

  14. 4 minutes ago, ViRtualRealitY said:

    Hoffe es ist nicht schlimm wenn ich mich hier eingemischt habe.

    Screenshot 2021-07-13 112057.png

    Absolute nicht 😃 vielen Dank für deine Hilfe.

     

    4 minutes ago, ViRtualRealitY said:

    Die WD60WFRX habe ich nicht gefunden meintest du nicht eher WD60EFRX? Die wäre dann CMR.

    Screenshot 2021-07-13 112057.png

    Jein, meine scheint keine Plus zu sein. S/N: WX11D2837CNE, MDL: WD60EFRX-68L0BN1

  15. Danke @Gorosch so werde ich es erstmal machen. 

    @mgutt Kannst du mir bitte sagen, woran man erkennen kann, ob die HDD SMR oder CMR hat? Wie gesagt habe ich hier noch eine 6 TB WD RED WD60WFRX NASware 3.0 liegen. Ist die besser?

  16. 5 minutes ago, hawihoney said:

    Deine "HaHa" Reaktion auf mein "Was machst Du" hat mich dazu verleitet.

    Ok sorry, ich habe dein "Was genau machst Du" als Joke aufgefasst. Mein "HaHa" war nicht so gemeint.

     

    6 minutes ago, hawihoney said:

    MOMENT!!!

    Das läuft noch? Und Du schreibst gleichzeitig von Disk1 auf Disk3? Die Parity wird erzeugt!

     Nein, dass ist gestoppt.... Die 6 TB Platte wird wieder eingebaut, sobald das Board dafür da ist. Die war zuvor als Parity.

  17. 2 minutes ago, hawihoney said:

    Es gibt nur zwei Szenarien: 1.) Du hast nach dem Umstellen auf "Auto" nicht neu gebootet. 2.) Du veräppelst uns.

    Ich habe da nie irgendeine Änderung gemacht. Es steht seit Unraid Installation auf auto.

    Würdest du die Personen veräppeln die weitaus mehr Erfahrung haben und von denen du Dir Hilfe erhoffst? Also nein, ich veräppel dich/euch nicht. Ich bin absolut neu im Linux/Unraid Umfeld. Ich nutze es zwar seit Februar, aber nicht mit der derzeitigen Konfiguration und Anforderungen.

  18. 5 minutes ago, hawihoney said:

    Was machst Du?

    Sorry, ich habe keine Ahnung was da passiert.

    Ich habe ganz normal "New Config" ausgewählt. Dann habe ich eine 5 TB als Parity, 3 x 5 TB und 2 x 4 TB im Array hinzugefügt.

    Es läuft derzeit nur 1 Docker (auf Shares im Array) der aber zurzeit keine Daten abfragt. Die VMs sind eh auf die NVMe gemappt, die sich derzeit ausruhen.

     

    Was genau sollte ich machen, um herauszufinden wieso 2 Platten gelesen und 2 geschrieben werden?

     

    Derzeit:

    image.thumb.png.f2e53fd52cf01b386afc3b8fc7e160ed.png

     

    Ich verschiebe immer noch von Disk 1 auf Disk 3. Disk 1 reads und Disk 3 Writes. Soweit alles super, aber ich konnte mir gestern schon nicht erklären, wieso das Read von Disk 1 höher ist als das Write der Disk 3. Und vorallem wieso Disk 2 und Disk 4 Read und die Parity Write hat?

  19. 6 hours ago, mgutt said:

    Du kannst Reconstruct Write zurück auf Auto stellen.

    Das ist die ganze Zeit auf auto gestellt.

    image.thumb.png.38f7253dddb3c91fd520aa8230ddd5b3.png

     

    Sollte ich das auf "read/modify/write" stellen?

  20. 6 hours ago, mgutt said:

    Du kannst Reconstruct Write zurück auf Auto stellen, aber dann ist die Parity der Flaschenhals. Das sind Dinge in denen Unraid langsam ist, weil HDDs extrem mies beim parallelen Lesen und Schreiben sind.

     

    Und du hast den Effekt noch verstärkt, in dem du parallel von einer SMR Platte liest und schreibst. Du hast sogar die SMR als Parity. Das ist von der Performance her sogar katastrophal, weil die Parität bei unRAID immer zu 100% gefüllt ist und SMR Platten bei 100% auf einstellige MB/s fallen können.

     

    Daher wird es echt Zeit, dass du eine CMR als Parity bekommst. Dann stellst du von Reconstruct Write wieder auf Auto und du solltest bei 60 bis 70 MB/s rauskommen. Mehr wird es nur mit noch schnelleren Platten wie einer 12TB oder noch größeren Ultrastar. Mit meinen 18TB bin ich jetzt bei 90 MB/s. Die komplette Bremse bekommt man aber erst mit einer SSD als Parity raus, aber wer kann sich schon eine 8TB SSD leisten ;)

    Guten Morgen mgutt,

    danke für deine ausführliche Erklärung. Ich habe hier noch eine WD60EFRX liegen, aber da warte ich ja noch auf das Board. Woran erkennt man, ob es sich um eine SMR oder CMR Platte handelt? 

    Ich weiß, dass Unraid ohne RAIDS arbeitet, aber m.M.n wäre eine Lösung, wenn es auch in Unraid möglich wäre, ein zuvor erstelltes Hardware RAID 0 als Parität einbinden zu können. Oder man auswählen kann, wie viele Paritäten man nutzen möchtest und zumindest dort ein RAID 0 möglich wäre. 

    Somit ist das Problem gelöst, dass die Parität min. so groß sein muss, wie die größte Platte im Array. Zusätzlich hat man einen enormen Performance Boost der Parität.

     

    Ein kurzes Beispiel dazu:

    Du hast 4 Paritätsslots ausgewählt: 

    • 2 x 6 TB (mit SMR) als RAID 0 in Slot 1
    • 2 x 6 TB (mit SMR) als RAID 0 in Slot 2

    Ich behaupte jetzt mal, dass man mit dieser Konstellation auf die Performance eine normalen SSD kommt, aber trotzdem noch unter den Kosten einer einzelnen SSD bleibt.

     

    Eine 4 TB SSD kostet zwischen 450 € und 500 Euro. In meiner Testphase von Unraid habe ich 2 x 1 TB NVMe genutzt. Die eine als Parität und die andere im Array. Dort kam ich ebenfalls nur auf 800 MB/s, obwohl ich bspw. im Windows Umfeld mit den gleichen Platten auf 2,2 GB/s kam, weil die beiden Platten auf eine QNAP Card am PCIe x 16 Slot installiert sind.

    Man könnte auch bei normalen 2 TB SSDs bleiben und seine gewünschte Kapazität mit nur diesen SSD Platten erstellen, aber wer hat schon ein Board mit 24 SATA-Schnittstellen in seinem Home NAS 😃

×
×
  • Create New...