renegade03

Members
  • Posts

    61
  • Joined

  • Last visited

Everything posted by renegade03

  1. OK, also bei 2 Platten Raid 1 Formel und ab 3 dann Raid 4 Formel zum berechnen des tatsächlichen Speicherplatzes. Es gehen ja mehrere Arrays gleichzeitig oder? Ja klar manuell über ssh. Bisher war meines ja eine Windows Umgebung und da hat Veeam automatisch die VMs gestoppt, das file gezogen und wieder gestartet und beim Raid 5 einfach incrementell. Alles auf die Platte und das ganze sheduled. War sehr komfortabel. Ich dachte BTRFS sei Mist? Das versteh ich nicht ganz. Dachte die beiden NVMe pack ich in ein Raid 1 und auf denen läuft der Cache dann und dieser wird regelmäßig ins unraid geschrieben?
  2. Ich habe hier ein RDX Laufwerk im Arbeits-PC, welcher in einem anderen Gebäudeteil steht und Regelmäßig backups Zieht. Jede Woche wird das Band getauscht. Also Offside sollte abgehakt sein. Muss nur schauen, wie ich das mit Veeam und den VMs hinbekomme. Die Frage ist werden hierbei XOR-Prüfsummen oder volle Mirrors gespeichert als Parität? Bisher habe ich halt meinen Server so aufgebaut. 2 HDD halten das OS und die VMs im Raid 1 zwecks ausfallsicherheit und 4 HDD bilden einen Raid 5 storage für alle Daten. Da die eigenen Dateien der User auch dort gespeichert werden (über GPO) ist es halt Horror mit Abschalten der HDDs bzw auch die Zugriffszeiten besonders beim anmelden. Darum will ich diese zukünftig auf NVMe halten, welche einfach schneller sind und zudem mehr Datenleistung im Ethernet, weil da haperts teilweise wenn 2-3 Leute drauf zugreifen. Allerdings ist es extrem wichtig, dass genau diese Daten Ausfallsicher gespeichert werden. Ihr wollt NICHT erleben, was abgeht, wenn ein Foto meiner Frau kaputt ist.^^ Ich will das auch nicht mehr. als damals ein ganzer Ordner "verschwunden" ist, lieber Höllenwoche bei den Seals, als nochmal das.
  3. Also derzeit läuft mein RAID mit Cache und Pufferbatterie. Kein Bock bei einem Ausfall oder sonstwas korrupte Daten zu haben. Warum das?
  4. Also auch der Datenverbrauch der Parität mit Raid 4 zu vergleichen? Also kann ich die 2 NVMe in ein Raid 1, diesen dann partitionieren, einen Teil als Cache laufen lassen und im anderen dann meine VM für DC und Smarthome packen? Aus dem Cache wird dann auf die Paritätsplatte geschrieben?
  5. Also wenn ich das recht verstehe, 2NVMe, welche als Cache Funktionieren. Mein Bisheriger Raid 5 wird quasi aufgelöst und als "unraid" geschrieben. Von meinen 4 Platten wird allerdings eine Abgezweigt, welche dann die Paritätsdaten hält?
  6. Also als reiner Paritätsspeicher im Raid 1 reichen mir ja auch normale SSD. Also welche Daten sind das für das System? Ich kenne unraid noch nicht im praktischen Sinne. Darum entschuldigt auch meine "laienhaften" Fragen.
  7. Ah OK. Ja genau bei dem Thema war ich mir ja auch nicht sicher. Erst rätst du von AMD ab und empfiehlst dann sogar genau das System, welches ich mir zusammengestellt habe. ASROCK Rack x470. Ist halt jetzt schwer zu bekommen, aber ein tolles Board, wenn der Verbrauch passt. Da ich meine VMs eh alle nur per Remote bediene brauche ich theoretisch ja nicht mal eine, aber das Problem des startens ist halt unter Umständen bei mancher SW gegeben. Habe jetzt allerdings auch kein Board mit dem Chip 8x SATA und 2x NVMe gefunden. Bisher nur das Gigabyte von dir und auf AMD Seite das ASROCK Rack für AMD. Das ist mir soweit klar, aber wie sieht es mit der Ausnutzung aus und dem stromverbrauch?
  8. Noch mal eine andere Frage nebenbei. Was ist der Vorteil/Nachteil von 2 NVMe SSD zu normalen SATA SSDs als RAID 1 für das OS und die VMs? Anscheinend gibts eh nur passende Mainboards mit pcie 3.
  9. Hi @mgutt Schick. Was ich gelesen habe ist es halt mit 2-4 Watt extra zu rechnen und obwohl es eine eigene iGPU für VGA hat, brauche ich trotzdem eine in der CPU. Dann lieber eine pikvm basteln und bei Bedarf ranhängen. So kann man sie ein bzw ausschalten. Ja das oder das x470 haben mir schon echt gefallen, aber in deinem Thread hast du ja geschrieben, dass es Probleme bei den iGPU von AMD gibt was die VMs betrifft. Und da ich ja noch nicht weiß, welche VM eine GPU braucht, um zu laufen, sollte das schon gegeben sein. Also bleibt eigentlich nur Intel, und am besten ein Xeon der 9. Generation, wenn ich das alles so richtig verstanden habe oder? Und SFP+ am besten über eine PCI Karte realisieren, wenn mir nicht 2x Gbit bridged reicht?
  10. Mahlzeit, nachdem ich jetzt schon einige Zeit im Netz recherchiert habe und es endlos viele dieser Threads gibt, aber ich noch zu keiner befriedigenden Antwort gefunden habe, bitte ich um eure fachliche und persönliche Meinung zu diesem Thema. Es geht um folgendes. Mein in die Jahre gekommener home-Server soll in Rente geschickt werden und was zeitgemäßes, vor allem energiesparendes muss her. Der Server beherbergt mein NAS, meinen Domain-Controller, einen Webserver und gelegentlich starte ich einen Testserver oder Game-Server darauf. Allerdings alles auf Windows-Server 2019 Basis in Hyper-V Maschinen. Also ohne ende Ressourcen verschwendet nurt für den Idle. (Danke Bill) Jetzt soll ein deutlich sparsameres System auf unraid-Basis mit Linux VMs übernehmen, da ich hier wesentlich weniger Leistung für das OS usw. verbrauche. Meine Idee ist, der Domain-Controller läuft ständig und das NAS teile ich in 2 Raids auf. eines auf SSD-Basis und die alten HDDs im 2. Das SSD-NAS hält die ganzen Benutzerdaten der Domain, welche über GPOs gesteuert werden. Die ganzen "gelagerten" Daten, welche selten gebraucht werden (Home-Laufwerke, Filme,...) liegen auf den HDDs, welche erst bei Bedarf anspringen und ansonsten im standby ruhen. Zur Hardware: - Mainboard: 10Gbit Ethernet hat (alternativ eine SFP+ PCI-Karte), 8x SATA/SAS (für 2x SSD Raid 1 und 6x HDD Raid 5), 1-2x NVMe SSD 2 PCI Steckplätze (frei für spätere Erweiterungen). - 16GB ECC DDR4 RAM - Prozessor mit TDP max 35W Im Forum hier habe ich einen tollen Thread gefunden, allerdings schon etwas veraltet und auch minimal unstimmig für mich. Dort wird von AMD abgeraten und dann doch ein AMD System empfohlen. witzigerweise genau das Setup, welches ich mir für meinen Server grundsätzlich überlegt habe. Schick wäre natürlich IPMI oder etwas vergleichbares, da mein Server im anderen Gebäudeteil steht, allerdings ist die Energieeffizienz hier fraglich. Was würdet ihr aktuell grundsätzlich empfehlen? mfG da Renegade