Jump to content

Tiras

Members
  • Posts

    188
  • Joined

  • Last visited

Everything posted by Tiras

  1. Danke für deine schnelle Antwort. Da meine Parity Platte defekt ist - habe mit WD einen Check gemacht und der Wert steigt weiter an - nehme ich die letzte WD 5 TB mit CMR als Parität und möchte gerne folgendes konfigurieren: Array: 2 x 4 TB WD Red mit CMR 2 x 5 TB Seagate SMR 1 x 2 TB Toshiba 1 x 5 TB WD als Parity Cache: 2 x 1 TB NVME (Cache für VMs) 1 x 500 GB NVME (default Cache für MagentaCloud via rclone) 1 x 128 GB NVME (appdata, system und transcode) Für MagentaCloud brauche ich kein RAID 1, da die Daten mit der Cloud synchronisiert werden. Für die VMs brauche ich ebenfalls kein RAID 1, weil mit der VM Backup App wöchentlich ein Backup der XML und das Image auf eine im Array liegende HDD gemacht wird. Für die Backups stelle ich mir vorerst die 2 TB HDD vor, da die beiden 5 TB Platten für Plex, Bilder und Kamera Videos genutzt werden sollen. Die 4 TB dienen erstmal als Reserve. Was hälst du als Unraid Experte von dieser Konstellation?
  2. Frage dazu: Was würde passieren, wenn man die Disks in einen falschen Slot einstellt? Was passiert, wenn ich eine Neuinstallation von Unraid mache und anschließend alle Platten wieder in die Slots hinzufüge, wie sie vorher auch waren. Gehen die Daten verloren, weil nach meinem Verständnis die Ordner (Shares) nicht mehr vorhanden sind?
  3. Was genau meinst du von der Disk Übersicht?
  4. Hi jj1987, hier mal ein Auszug der Tabelle: Kann man damit mehr anfangen?
  5. Also vielen Dank mgutt für deine Hilfe und Geduld. Ich habe jetzt folgendes gemacht: Hast du eine Idee, wieso ich nur 11 von 12 Cores isolieren kann? Wenn ich 0/6 auch hinzufügen will, dann geht entweder nur 0 oder 6. Bei dieser Konfiguration ist die Performance der Workstation deutlich besser. Visual Studio wird schneller ausgeführt und auch die Aktionen für Repositories sind deutlich besser. Mir ist jedoch aufgefallen, dass bei einer Datenübertragung mit Krusader die Bandbreite bei knapp 400 MB/s beträgt, obwohl es sich um eine HDD handelt, auf die geschrieben wird und nach kurzer Zeit auf knapp 10 MB/s runter geht. Nach einer weiteren kurzen Zeit geht sie wieder hoch und dann wieder runter. Woran liegt das? Die Funktion des Caches habe ich nun so verstanden: Je nach Einstellung im Share werden die Dateien zwischen dem Cache und Disk geschoben/synchronisiert etc. Ist im Share "JA" eingestellt, dann werden die Dateien aus dem Cache auf die HDD geschoben und befinden sich dann nicht mehr im Cache. Wird im Share "Prefer" eingestellt, dann werden die Dateien zwar auf die HDD geschoben, aber bleiben weiterhin auf dem Cache. Wenn ich nun die Images meiner Virtualisierungen auf der HDD speichere und anschließend einen Cache als "Prefer" angeben, dann den Mover ausführe, werden sämtliche Images auf den Cache kopiert. Die Images aus dem Cache werden dann mit der HDD nach dem Zeitplan des Movers synchronisiert. Habe ich das so richtig verstanden?
  6. Ich nehme mir eure (vor allem deine) Ratschläge zu Herzen. unRAID ist Neuland für mich und von daher vertraue ich auf die Erfahrung und den Aussagen von Erfahrenen Anwendern. Offene Fragen: Wenn ich eine VM erstelle und dort keine CPUs auswähle, dann werden immer alle CPUs verwendet? Welchen Maschinentyp sollte man am Besten auswählen? Welches BIOS würdet ihr empfehlen? Die Leistung kann verbessert werden, wenn das Images der VM auf einer HDD im Array liegt, aber der Share ein (SSD) Cache mit "Prefer" hat? Wenn ich diesem Share ein (SSD) Cache zuweise, muss in der VM für das Image der Pfad zu dem Cache oder zu dem Share angegeben werden? Welchen Unterschied und Vorteil hätte ich bei einem Disk- Share? Viele Grüße
  7. Hallo Zusammen, mir ist heute aufgefallen, dass im Dashboard für das Array in der Parity der SMART als Error angezeigt wird. Das gleiche gilt für die 1 TB HDD die als unassigned Device eingebunden ist. Was hat das zu bedeuten und muss ich mir ernsthafte Gedanken machen?
  8. Auf dem Screenshot sieht man, dass der VM die Kerne 2-11 zugewiesen sind, oder was genau meinst du mit Kerne 1-4? Der Schnellstart in der VM ist deaktiviert und der Energiesparplan ist auf "Hochleistung" eingestellt. Sorry, jetzt bin ich raus. So Einstellungen habe ich nicht gemacht. Ich habe lediglich die VM erstellt, die Cores angegeben, die Image größe festgelegt, die iso und die virtio treiber eingebunden und das wars auch schon. Das man weitere Einstellungen vornehmen muss, damit die VM evtl. performant läuft, finde ich für einen Anwender der sich evtl. nicht damit auskennt etwas to much. Ich habe hier noch eine PCIe x1 Netzwerkkarte liegen, aber das wird nicht funktionierten, da die VM in der AD ist. Und rein theoretisch gedacht, würde ein WLAN Adapter zwar die Verarbeitung übernehmen aber trotzdem via USB über die South-Bridge und demnach über die CPU gehen. Du hast wahrscheinlich recht, dass das Ausmaß nicht so hoch ist, aber dennoch den gleichen Effekt hat. Vielleicht irre ich mich auch.
  9. Ok, ich muss gestehen, dass ich euch in dem "Backupmethoden" Thread vermutlich falsch verstanden habe. Ich glaube ihr meintet, dass BTRFS nichts im Array zu suchen hat. Aber das ist glaube ich jetzt hier nicht die richtige Stelle für eine Diskussion. Ich habe nun alle VMs gestartet und der Workstation zusätzlich alle Kerne zugewiesen und ich muss sagen, dass Visual Studio sich nicht mehr aufhängt beim Check In von Änderungen im Repository. Es ist jedoch noch nicht ganz behoben, da beim öffnen des bspw. Task Managers oder des Windows Explorers weiterhin zu einer sehr langen Wartezeit kommt, bis das entsprechende Fenster angezeigt wird. Es ist nicht wirklich eine Lösung der Workstation sämtliche Kerne zuzuweisen. Auf einer anderen VM mit Windows 10 und dem gleichen Patch Stand, jedoch ohne Visual Studios etc. habe ich diese Probleme nicht und dieser VM sind nur 4 Kerne zugewiesen. Da ich so wieso eine neue VM mit Windows 10 erstellen muss, werde ich hier mal anstelle von i440fx-5.1 die Q35-5.1 und OVMF testen. Das Image für die VMs ist zu viel. In dem anderen Thread hast du gefragt, wieso die Images der VMs zu hoch sind, dass die Platte voll ist. Bis auf die Workstation und Playground VM haben alle Images 80 GB. Das bedeutet 7/9 VM * 80 = 560 GB + (3 + 120 GB) = 920 GB und aus diesem Grund werde ich die VMs wahrscheinlich neu erstellen. Blöd ist nur, das Windows Server 2012 und 2016 sowie Windows 10 min. 20 GB für das System benötigt. Es würden wahrscheinlich 40 GB ausreichen, aber das ist den wirklich das Minimum. Für Windows 10 sollte ich mir etwas anderes einfallen lassen. Eventuell eine NVME in den 2. M2 Slot und dann durchschalten. Auch wenn dieser Slot über den SATA-Controller läuft und somit die Übertragung des Arrays ebenfalls beeinträchtigt wird. Leider kann ich nicht sagen, ob ich so tiefe Konfigurationsmöglichkeiten bei einem Bekannten und QNAP OS gesehen habe, aber bei unRAID sind die Einstellungsmöglichkeiten schon enorm.
  10. Das Tutorial habe ich zu beginn auch gesehen. Da ich kein 10 GB/s Netzwerk habe und nur kleine Dateien (Dokumente und Home Streaming) über das Netzwerk geschoben werden, habe ich mich für Medien erst einmal für "keinen" Cache entschieden. Die 2 x 1 TB NVMe´s hatte ich zuvor in einem Pool als BTRFS (RAID1) genutzt. Im Thread "Backupmethoden" habe ich euch jedoch so verstanden, dass ich das Dateisystem der/des Pools auf XFS ändern sollte. Da dort die VMs immer drauf lagen (Share erstellt und Pool als "Only" eingestellt) habe ich vor einigen Tagen ein neues Share auf Disk 2 (HDD 4 TB) erstellt und dort ein Backup der VMs gespeichert. Anschließend habe ich den Pool gelöscht und aus einem BTRFS (RAID 1) Pool 2 x 1 TB Pool (Cache_default für Docker, Dokumente etc. und einen Cache_vm für die VMs) erstellt. Im Share appdata habe ich den Pool Cache_default als Prefer angegeben und das gleiche im Share Virtual_Machines. Den Mover gestartet und alle Dateien waren anschließend auf den jeweiligen Pools. Meine Frage: Warum sollte ich das Dateisystem des alten Pools von BTRFS in XFS ändern, wenn jetzt wieder empfohlen wird, Pools in BTRFS im RAID 1 zu nutzen, oder habe ich das in dem andern Thread falsch verstanden? Wenn Linux / Unraid standardmäßig 20 % meines DDR RAMs als Read / Write Cache nutzt, was sollte mir das bringen, wenn ich 2 weitere Riegel (2 x 32 GB) verbaue? Ich könnte der/den VM/s nicht mehr Speicher zuweisen, weil das Problem ja wieder auftreten könnte, dass durch die Reservierung wieder nicht genug RAM zur Verfügung steht. Habe ich nicht wieder einen Nachteil bei der Übertragung/Nutzung, wenn ich das Dateisystem des Pools "Cache_vm" wieder von XFS in BTRFS ändere? In dem Video wird beschrieben, dass man den RAM Cache ändern kann. Ist die Änderung dauerhaft aktiv, wenn ich den dort gezeigten Befehl in der Console eingebe oder wird er nach einem Neustart wieder zurückgesetzt? Wenn ja, wie kann diesen Wert dauerhaft ändern und vor allem, welcher Wert ist hier empfohlen, da es sich bei meinen Caches um NVMe Hardware handelt, die standardmäßig schon mehr als 1 GB/s bringen? Würde es das Problem mit der Workstation beheben? Da ich vermute, dass die ein- oder andere VM neu erstellt werden muss, welchen Wert für das Image der VM/s würdet ihr empfehlen? Wäre es eine gute Idee, wenn ich einen Share "VM_Images" erstelle und dort weitere Images für die VMs speichere, die dann auf den HDDs liegen? Danke für eure Hilfe. VG
  11. Die Performance ist leider genau so schlecht. Also die Auflösung ist die gleiche, wie die des PCs mit dem ich eine RDP Verbindung aufbaue. Hier hast du einen Einblick in die Konfiguration der VM.
  12. Ja, dass ist mir bewusst. Aus diesem Grund mache ich wöchentlich ein VM Backup auf 3 verschiedene Disks. Das Problem hatte ich ehrlich gesagt nicht als ich auf Unraid umgestiegen bin. Der einzige Unterschied ist, dass ich zurvor einen AMD Ryzen 5 2600 gegen den Ryzen 5 4650G Pro und den gesagten RAM getauscht habe. Der neue Prozessor hat mehr Leistung und ist im Single auch besser. Der neue RAM ist auf das Board abgestimmt und würde ich als Fehlerquelle ausschließen. Sie liegen wirklich auf dem Cache_VM Pool Mit dem Ryzen 5 2600 und dem inkompatiblen RAM, ja. Ich habe jetzt mal die Core Verteilung neu konfiguriert und nochmal alle Virtrio Treiber installiert. Leider könnte man echt wahnsinnig werden, wenn man Visual Studio startet oder im Team Explorer ein neues Repository erstellen möchte. Dann erscheint immer die Meldung "Keine Rückmeldung". Die längste Wartezeit war knapp 3 Minuten. Normal finde ich das nicht. Hier nochmal ein Screenshot vom Dashboard: In einem Beitrag habe ich gelesen, dass es nicht ratsam ist, bei VMs den RAM mit einem Von und Bis Wert zu erstellen sondern beide auf den gleichen Wert zu setzen. Wie macht ihr das und könntet ihr als Unraid Profis evtl. ein Beispiel eurer Hardware und die Einstellungen geben, die ihr in euren VMs macht? Danke für Eure Hilfe.
  13. Aber das würde mir nichts bringen und auch das Problem nicht beheben. Das Problem tritt ja nicht nur auf, wenn alle VMs gestartet sind, sondern auch, wenn nur eine aktiv ist.
  14. Also der Virtualizations Share liegt wie gesagt auf der Disk 1 (HDD) mit Cache_VM (NVMe) Prefered. Das Problem war schon, als ich den Virtualization Share mit Cache_VM als Only genutzt hatte. Die RAM Auslastung liegt bei 88% und die CPU Auslastung bei 55%, wenn alle VMs und Docker laufen. Docker habe ich nur 2 installiert. Ich habe hier noch 2 x G.SKILL 16 GB F4-3200C15D-32GTZR liegen, die zuvor verbaut waren. Aber bei diesem RAM war das Problem, dass ich kein XMPProfil aktivieren konnte, weil ich beim Kauf nicht richtig auf die Kompatibilität mit dem Board geachtet habe. Ich könnte ihn wieder installieren, aber dann wird dieser auf 2666 MHz gedrosselt und es ist kein XMPProfil mehr möglich.
  15. Hallo Zusammen, mir ist aufgefallen, dass die Performance meiner laufenden VMs extrem schlecht ist. Die Programme brauchen sehr lange bis sie geladen sind, dass verschieben von Fenster zieht nach - sprich es wird als Diashow angezeigt - und der Aufbau via RDP braucht auch sehr lange. Das Problem hatte ich nicht, als ich die VMs auf einem Windows Client mit Hyper-V laufen ließ. Zu meinem System: CPU: AMD Ryzen 5 4650G Pro RAM: 2 x Kingston DIMM 32 GB DDR4-3200 Mainboard: Gigabyte x570 Gaming X HDDs: 2 x WDC_WD40EFRX-68N32N0_WD-WCC7K2KAS797 (4 TB) 2 x WDC_WD50EZRZ-00GZ5B1_WD-WX11D17L7AUV (5 TB) (eine als Parity) 2 x ST5000DM000-1FK178_W4J0FWLB (5 TB) NVMe: 2 x 1 TB Samsung Evo 970 Plus (Cache_Default und Cache_VM) Cache_VM wird nur für den Virtualizations Share als Cache mit Prefed genutzt. Der Virtualizations Share ist auf Disk 1 (4 TB) erstellt. VMs: Windows Server 2012 (Active Directory Controller) 4096 Mb RAM 80 GB Festplatten größe 2 Cores Windows Server 2016 (MS SQL Server 2016) 16GB RAM 80 GB Festplatte 4 Cores Windows Server 2016 (SSRS) 4 GB RAM 2 Cores 80 GB Festplatte Windows Server 2016 (Dynamics CRM 9.1) 8 GB RAM 80 GB Festplatte 4 Cores Windows Server 2016 (TFS) 8 GB RAM 4 Cores 80 GB Festplatte Windows 10 (Workstation) 8 GB RAM 4 Cores 2 x 120 GB Festplatte Da ich ausschließlich mit der Workstation arbeite ist mir das dort, beim öffnen von VS 2017 Pro oder öffnen des Explorers etc. aufgefallen. Hat jemand eine Idee? Wenn ihr noch Informationen braucht, dann lasst es mich wissen. Danke schon mal im voraus für eure Hilfe. VG
  16. Hallo mgutt, ich habe ein Neustart gemacht und jetzt ist der RAM wieder leer. Normal halt, aber wieso wird das tmp-Verzeichnis zugemüllt und vielmehr stell ich mir die Frage, wieso dieses Verzeichnis den RAM nutzt? Kann man das evtl. auf eine SSD oder HDD auslagern?
  17. Hallo Zusammen, Nachdem ich nun alles soweit fertiggestellt habe (siehe diesen Thread) habe ich die VMs wiederhergestellt. Leider kann ich nun nicht mehr alle VMs starten, weil ich freier RAM mehr vorhanden ist. Vor dem ganzen lag die RAM Auslastung bei 84% und jetzt liegt mit 5/7 VMs bei 92%. Ich habe dann mal sämtliche Docker und VMs ausgeschaltet und sehe weiterhin eine Auslastung von 42%. Was habe ich zuvor gemacht? Ich habe 2 Stunden vorher ein Backup sämtliche Daten mit @mgutt Skript gemacht und die VMs wiederhergestellt. Ich kann mir nicht vorstellen, dass durch Datenübertragung der RAM voll läuft und vor allem nicht in dem Ausmaß. Hat evtl. jemand eine Idee woran das liegen kann? Falls euch noch Information etc. fehlen, dann lasst es mich bitte wissen. Vielen Dank für eure Hilfe.
  18. Tiras

    Backupmethoden

    So, dass hätten wir erstmal. Mal schauen wie lange es nun dauert.
  19. Tiras

    Backupmethoden

    Dann bin ich beruhigt und freue mich umso mehr auf das Board. 😃
  20. Tiras

    Backupmethoden

    Absolute nicht 😃 vielen Dank für deine Hilfe. Jein, meine scheint keine Plus zu sein. S/N: WX11D2837CNE, MDL: WD60EFRX-68L0BN1
  21. Tiras

    Backupmethoden

    Danke @Gorosch so werde ich es erstmal machen. @mgutt Kannst du mir bitte sagen, woran man erkennen kann, ob die HDD SMR oder CMR hat? Wie gesagt habe ich hier noch eine 6 TB WD RED WD60WFRX NASware 3.0 liegen. Ist die besser?
  22. Tiras

    Backupmethoden

    Screen 1: Screen 2: Ja, man kann auch nur mit einer Parity den Sync abbrechen. Das die Parity bereits valide ist habe ich nicht aktiviert.
  23. Tiras

    Backupmethoden

    Ok sorry, ich habe dein "Was genau machst Du" als Joke aufgefasst. Mein "HaHa" war nicht so gemeint. Nein, dass ist gestoppt.... Die 6 TB Platte wird wieder eingebaut, sobald das Board dafür da ist. Die war zuvor als Parity.
  24. Tiras

    Backupmethoden

    Ich habe da nie irgendeine Änderung gemacht. Es steht seit Unraid Installation auf auto. Würdest du die Personen veräppeln die weitaus mehr Erfahrung haben und von denen du Dir Hilfe erhoffst? Also nein, ich veräppel dich/euch nicht. Ich bin absolut neu im Linux/Unraid Umfeld. Ich nutze es zwar seit Februar, aber nicht mit der derzeitigen Konfiguration und Anforderungen.
  25. Tiras

    Backupmethoden

    Sorry, ich habe keine Ahnung was da passiert. Ich habe ganz normal "New Config" ausgewählt. Dann habe ich eine 5 TB als Parity, 3 x 5 TB und 2 x 4 TB im Array hinzugefügt. Es läuft derzeit nur 1 Docker (auf Shares im Array) der aber zurzeit keine Daten abfragt. Die VMs sind eh auf die NVMe gemappt, die sich derzeit ausruhen. Was genau sollte ich machen, um herauszufinden wieso 2 Platten gelesen und 2 geschrieben werden? Derzeit: Ich verschiebe immer noch von Disk 1 auf Disk 3. Disk 1 reads und Disk 3 Writes. Soweit alles super, aber ich konnte mir gestern schon nicht erklären, wieso das Read von Disk 1 höher ist als das Write der Disk 3. Und vorallem wieso Disk 2 und Disk 4 Read und die Parity Write hat?
×
×
  • Create New...