DataCollector

Members
  • Posts

    3384
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by DataCollector

  1. Die Überwachung brauch eich nicht,. Die Steuerung aus der Ferne mache ich extern mit einem Aten8600 (später RasPibliKVM) und einem KVM Switch. Somit fernbediene ich aktuell 5 Geräte mit nur einmal Stromaufwand (maximal 8 Geräte wären möglich). Also hast Du 8C/16T verfügbar. Wenn Du wirklich die Leistung brauchst wäre also eine i5 bis i9 12. - 14.Gen ausreichend. https://geizhals.de/?cat=cpu1151&xf=14840_8~5_Grafik+(iGPU)~6679_16~820_1700&asuch=&bpmin=&bpmax=&v=e&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30#productlist Vergiß diese 8fach SATA Kontroller. um die 8 SATA ports zu realisieren sind entweder 2 SATA kontroller per PCIe Switch verbaut oder ein SATA Kontroller und ein bremsender Verteiler (Multiplier). Hier verweise ich wieder auf meine SATA FAQ: https://forums.unraid.net/topic/132205-faq-grundlagen-zusatzkarte-für-sata-ports-v13-stand-2802024/#comment-1200961 und wegen der Erwähnung der PCIe Switche auch auf die dazu von mir gebastelte FAQ: https://forums.unraid.net/topic/136886-faq-pcie-switche-grundlagen-historie-einsatzgebiete-relevanz-für-unraid-ver-12/#comment-1244062 SATA Zusatzkontroller mit mehr als 6 SATA Ports sind in der Regel eine Zusammenbastelung von entweder strombedürftigen oder bremsenden Komponenten. 2,5GBLan ist heute sehr verbreitet. Bifurcation ist bei Consumerboards eher selten (auch wenn ich es im BIOS meines Z690 gesehen habe, bezweifele ich, daß es funktioniert. Muß ich irgendwann mal testen.) Da kommen dann bei Consumerboards wieder PCIe Switche ins Spiel oder man nimmt einige der PCIe Slots zur Hilfe. Dann bleiben die aber nicht mehr für SATA Kontroller verfügbar. Keine T CPU! Meist sind die teurer als die normalen und das Eingrenzen des Verbrauches ist auf vielen modernen Mainboards auch bei normalen CPUs möglich. (Die Optionen habe ich schon mal gesehen, nutze sie aber nicht). Ich ahbe auch noch ein paar SAS Festplatten, die ich aktuell nicht nutze. Die werden wohl in ein Backupsystem kommen, welches nur bei Bedarf startet. Da ist dann im laufenden Betrieb der Verbrauch weniger wichtig und wenn es nicht gebraucht wird schalte ich es aus. Ich habe 2x 19Zoll Gehäuse mit Scharnieren zusammengeschraubt (um sie aufklappen zu können und an die Zwischenebenen ran zu kommen) und somit mein Hauptsystem mit max. 51 Festplatten (+ diverser SSDs) ermöglicht und da in meinem Backupsystem die älteren (kleineren) Festplatten dienen, brauchte ich dort mehr Plattenplatz und habe dort 3x 19Zoll Gehäuse zusammengeschraubt. Da sind dann 75 Festplatten (+ SSDs) maximal möglich. Aber die Systeme laufen (aktuell noch) mit Windows und einem Megaraid Kontroller und mehreren SAS Expandern. Weil ich so viele SATA Ports bei bestem Willen nicht mehr sinnvoll mit Standard SATA Kontrollern realisieren konnte. 😅 unter unraid sind aber (aktuell) nur Arrays mit 28+2 Festplatten/SSDs möglich, weshalb ich dort mit nur einem 19Zoll Gehäuse fahre und die erforderliche Kapazität von aktuell 300-400TB eben mit großen Festplatten (18 - 22TB) erreiche. Wenn ich von Deinem Stromverbrauch von benannten 130W idle ausgehe würde ich mich von beidem verabschieden. Ein RaspiKVM (oder die chinesiche bliKVM) Version schluckt vielleicht 10W (oder weniger). Bifurcation wäre schön, aber wenn Du ein Consumer Board mit vielen PCIe Slots nimmst und da vielleicht einen PCIe Switch rein steckst (10-20W extra), hast Du also rund 30W. 3x ASM1166 liegen bei zusmamen 6W Wenn man dann mein gemessenes ASUS Prime Z690-P D4-CSM (90MB18P0-M0EAYC) mit seine 8 SATA Ports und 18W dazu nimmt https://forums.unraid.net/topic/160739-asrock-z690-pro-rs-90-mxbgy0-a0uayz-messungen-und-triviales/ bist Du in Summe bei 30+6+18 = 54W (idle) und hast genug SATA Anschlüsse für 26 SATA Devices (wenn Du einen ASM1166 im Key-E Slot adaptierst nur 24 SATA Festplatten), kannst eine Intel Wunsch CPU zwischen 12. und 14. Gen einbauen und die restlichen PCIe/M.2 Slots mit NVMe voll stopfen. Da ich das Board nackt nur mit einer I5-12400 und 2x16GB Ram gemessen habe, kann sich CPU Wechsel, mehr Ram und zusätzliche NVMe und Festplatten auswirken. Aber ich schätze alles in allem kommst Du dennoch so einiges unter 130W bei raus und hast dann eben mehr Rechenpower. Das ist aber eben nur das Zusammenrechnen der nackten zahlen. Je mehr Krempel man verbaut, desto mehr Strom wird es brauchen.
  2. Viele Leute beschweren sich über laute Kopfgeräusche. Subjektiv: ich finde die Laufgeräusche akzeptabel und mir sind keine extrem lauten Kopfgeräusche aufgefallen. Aber ich bin da auch sehr tollerant. Aber im Schlafzimmer, während ich schlafe sind mir dann aber sowieso alle Festplatten zu laut. P.S.: Für die fast 400 Euro Ersparnis, zwischen den beiden Zusammenstellungen, kannst Du das Ding so dick in Dämmmaterial einrollen, daß Du den bestimmt nicht mehr hörst. 😆
  3. Wenn Du nur ein bisschen testen (und später erst final zusammen/umbauen willst) Fliegende Verkabelung und alles einfach so dahin legen. Ich habe mir ein paar einfache Minerchassis aus 4 Blechstücken geholt und momtiere da meine Testsysteme drauf (weil ich unterne Mainboards nackt auf Holz/Pappe/Papier oder so in Betrieb nehme). https://de.aliexpress.com/item/1005006238674910.html
  4. Wenn Du die Backplane wegnimmst und dennoch 24 Ports bedienen willst, brauchst Du auch 24 Ports. Wenn es machbar ist: Ich würde da nicht auf einen SAS HBA setzen, sondern 24 SATA Ports nehmen. Wenn es nicht ,achbar ist (weil zu wenige/ungeeignete PCie Slots/M.2 Slots zur Verfügung stehen entweder einen SAS Kontroller mit vielen Ports (der aber auch einiges an Strom schluckt) oder Du bleibst eben bei der Konfig mit einem 8Port SAS Kontroller und der Backplane. Wenn ich mich recht entsinne hattest Du das Supermicro X10DRi (MBD-X10DRi-O), welches an sich, ja schon energetisch kein Kostverächter ist und die bis zu 2 CPU tragen dazu noch bei. Aber laut www.gh.de hat das Board schon mal 10x SATA 6Gb/s (C612). Damit müsstest Du bei 24 Bays nur noch für 14 Stück alternative SATA Anbindungen finden. Das Board soll auch noch 3x PCIe 3.0 x16 3x PCIe 3.0 x8 bieten. Das ist zwar sehr ungünstig, weil ASM1166 nur 2 Lanes (x2) brauchen und somit der Rest der benutzten Slots brach liegt. (Verschwendung!) Aber mit 3x ASM1166 könntest Du problemlos bis zu 18 SATA Ports zusätzlich bereitstellen, was nur 3x2W = 6W extra Strom direkt für die Kontroller kosten würde. (Ich vermute, daß Dein Mainboard bei Powertop sowieso eher schlecht wegkommt, da Serverhardware (vor allem so alte) nicht auf Energiesparen getrimmt ist. Deshalb wäre es auch egal ob die Zusatzkontroller die C.Stes beeinflußen würden, da das Board wohl sowieso kaum über C3 hinweg kommt.) Stellt sich also die Frage: brauchst Du alle 6 PCie Slots für irgendetwas oder könntest Du auf 3 davon zugunsten von SATA Kontrollern verzichten? So ganz ehrlich: wenn Du die CPU Power und die Luxusausttatung dieses EATX Serverbards nicht brauchst: Mit einem heutigen Consumerboard fährt Du garantiert stromsparender (aber natürlich würde das eine größere Investition kosten (Mainboard, CPU, Ram, SATA Kontroller...).
  5. Wenn es wirklich nur zum exemplarischen Testen ist, kann man ja 32GB Sticks nehmen oder so. Da stört es nicht, daß es klein ist, wenn man nur das Verhalten testen wil, wenn man beispielsweise einen Datenträger verliert und ob Raid oder Parity erfolgreich greift..... Für den echten Betrieb: nein, besser keine USB Sticks oder generell USB Geräte, keine USB-Gehäuse... für das Array und auch beim Pool bin ich eher 'skeptisch'.
  6. Die 2x SFP+ Karte wird vermutlich x8 sein,. sollte aber auch im x4 erkannt werden und nutzbar sein. Ich glaube mich daran zu erinnern (ohne es zu wissen), daß die HP der G4 Generation zwar PCIe 3.0 beherrschen, aber einige Slots nicht mit 2.0 laufen Dennoch sollte die LAN Karte eigentlich mit mindestens einem SFP+ 10GBLan problemlos komplett befeuert werden können.
  7. Ich beziehe mich weiterhin auf seine Aussage: "ich hab mich gefragt ob es möglich ist, Unraid komplett mit USB-Sticks zu betreiben, sprich Array, Pools, Parity." Laß auf einem USB Stick mal eine Parity erstellen. Das beschreibt den ganzen Stick.
  8. Hier stimme ich zu, aber ergänze: im Zusammenhang mit seiner Aussage: daß die Schreibrate einbricht: die ist bei USB2.0 sowieso eher wenig zu empfehlen. Bei einem unraid Bootstick ist das annähernd egal. Aber wenn man mit mehreren USB Sticks in unraid experimentiert um das Verhalten von Pool oder array zu testen und erleben, ist es eben nicht nur der bootstick,. sondern alles
  9. Ja, bei Intenso gab/gibt es Chargen mt der selben Seriennummer, woduch auch hier unraid die nicht unterscheiden kann. Es sollen zwar nur einzelne Chargen sein, aber wenn man sowas erwischt und für unraid nutzen will ist das schon ärgerlich. Ich nutze kein Intenso in unraid.
  10. Grundlegend: ja. Nachteil: nicht jeder billige USB Bootstick unterscheidet sich von seinen Geschwistern weit genug und unraid kann (wie aber auch bei anderen Datenträgern) dann Probleme bekommen die zu unterscheiden, wodurch die dann eben doch nicht alle am selben System genutzt werden können. (Stichwort: Intenso und seine Chargen von Datenträgern mit den selben Seriennummern) Welche Funktionen soll es differenzieren? Ein USB Stick meldet sich in der Regel nicht mit bestimmten SATA üblichen Fähigkeiten an und dann werden die auch auf dem Stick nicht benutzt. Beispielsweise Native Command Queuing findet sich auf USB Sticks nicht, also kann man das dort auch nicht erwarten. Auch sind diese lustigen Sachen, wie die A1 oder A2 kompatibilität bei SD Speicherkarten bei USB Sticks nicht vorhanden. Viele USB Sticks haben auch keine Temperatursensoren, die von außen ausgelesen werden können, also zeigt unraid da auch meist nix an. Dann mach es doch. Ich schätze, es hindert Dich niemand.
  11. Das, anfänglich von Dir erwähnte, N100M hat keine eigene Stromversorgung. Somit brauchst Du da eine ATX kompatbiles Netzteil. Bei 6 SATA Datenträgern könnte gerade eben noch ein Pico ähnliches 160W Netzteil durchgehen, mit einem normalen ATX Netzteil wärst Du dahingehend aber eher auf der sicheren Seite (vor allem, wenn es dann doch mal mehr SATA Disks werden).
  12. Wie Amane schon andeutete, Deine Share Einstellungen scheinen Überarbeitenswert zu sein. Und wenn das geschehen ist: Hast Du bei dem Windows Dialog dann mal die Diagnose durchgeführt, nachdem die durchgelaufen ist, die Diagnose beendet und dann nochmal nachgeschaut (ohne den Win-PC neu zu booten)?
  13. Sowas liest man öfters. Windows merkt sich die Daten, mit denen man sich angemeldet hat und benutzt die dann meist weiter. das beißt sich dann aber mit den neuen Freigaben/Passwörtern in unraid, Erstelle mal einen neuen User mit euiem neuen Passwort und versuche es über windows, indem Du für diese neue Freigabe eben die neuen Daten verwendest.
  14. ja. Natürlich solltest Du dann auch powertop installiert haben
  15. Wenn es jetzt wieder funktioniert, wäre es sowieso mal ab und zu wichtig ein Backup des Bootsticks zu machen. Es gibt den offiziellen Weg, wenn man bei dem Stick in die Einstellunge geht und dort auf Backup klickt. Daraufhin zippt er den Stick und sendet das ZIP an den aufrufenden PC. Dann hat man alles platzsparend zusammen.
  16. Question will this get fixed some time soon? Some time passed and even now with the newer versions I can't see the progress bar in a terminalwindow with mc
  17. Hat keine iGPU: In meinen Augen eine sehr schlechte Wahl! Man kann unraid headless betreiben (wenn alle Komponenten mitspielen, aber ich würde immer eine CPU mit iGPU bevorzugen (wenn ich keinr extra dGPU einbauen will. Und selbst dann hilft es wenn unraid die iGPU nutzt und man die dGPU vielleicht an eine VM durchreichen will.) Wieviele Festplatten sollen es werden? Vielleicht wäre eine Pico-ähnliche PSU sparsamer? Oder brauchst Du bei der Konstellation wirklich mehr als 160W? Wenn Du den Ram schon da hast und der keine Fehler aufweist: den kannst Du super verwenden! Wenn Du neu kaufen würdest, würde ich eher einem einzelnen Standardram-Modul greifen, weil das Blechdeckelzeugs keine Vorteil bietet und teuerer ist. Wieviel Platz brauchst Du? Ich kaufe bevorzugt nach Preis/Kapazitätsverhältnis und da liegen aktuell die Toshiba 18TB vorne, sind aber mit > 15Euro/TB aktuell nicht unbedingt billig. Als Datenfestplatten geht eigentlich jede SATA Festplatte. Für die Parity muß es natürlich mit die größte Festplatte sein, wegen der Geschwindigkeit sind flotte Festplatten ohne SMR da sehr zu bevorzugen.
  18. Okay: Zuerst Auflistung der Preise Deiner Zusammenstellung nach www.gh.de Preisen: CPU 387 Euro ohne Kühler MB: 198 Euro Ram: 120 Euro NVMe: 165 Euro 2x HDD: 325 Euro = 650 Euro Gehäuse: ab 170 Euro PSU: 84 Euro Summe= 1774 Euro (ohne Versand, ohne CPU Kühler, ohne Kabel, etc...) Aus Deiner Aufstellung der Hardware lese ich: S1700 Mainboard Dein vorherig gewähltes Board hat 2x SATA Ports und 2x M.2 M-Key für NVMe. 32GB Ram 2x 3,5inch Festplatten (ca. 16TB). Die gewählten Festplatten liegen aktuell neu bei mindestens ca. 325Euro/Stück 1x NVMe SSD 2TB Die gewählten SSD liegen aktuell neu bei mindestens ca. 165Euro/Stück Aus den vorherigen Beiträgen entnehmen ich: "Ich möchte jetzt ein stromsparendes und zukunftssicheres System zusammenbauen, welches mir Erweiterungs-/Verbesserungsmöglichkeiten bietet. bspw. ... Video-Editing" Mit Hinblick auf die Erweiterbarkeit: - da Du aktuell 2 SATA planst gehe ich mal von 4 SATA Ports aus. Das wäre 100% mehr Möglichkeiten und bei gleichen Festplattengrößen im Array mit Parity 200% mehr möglicher Speicherplatz. - ich sehe 2x M.2 (oder geeignete PCIe Slots) als Minimum an, wenn man auch da erweitern will - Ram: wenn es DDR4 wird, sind maximal 32GB große Module in den Consumerboards möglich. wenn es DDR5 wird, könnte man auch 48GB Module nehmen, doch die sind noch recht teuer. - Da im Rahmen der Diskussion um transcoding dargestellt wurde, die UHD770 sei gut geeignet soll es wohl die werden. Viele S1700 Intel 12.-14.Gen gibt es mit UHD770. - In der Auswahl des I7 sehe ich, daß Dir ein I3 wohl zu schwach erscheint. Ich würde als Kompromiß einen I5 nehmen. - Da das Gehäuse recht viel Platz bietet, sind Mainboards bis ATX möglich. Also mal "Butter bei die Fische": Mainboard: bei den Mainboards gibt es sehr viele mögliche Treffer. Darunter auch das GIGABYTE B760M DS3H DDR4. (104 Euro) CPU: von billig nach teuer: 1x Intel Core i5-12500, 6C/12T, 3.00-4.60GHz, boxed (inkl Kühler) 198 Euro oder 1x Intel Core i5-14500, 6C+8c/20T, 2.60-5.00GHz, boxed (inkl Kühler) 250 Euro RAM passend zu dem Mainboard: 1x Mushkin Essentials DIMM 32GB, DDR4-3200, CL22-22-22-52 (MES4U320NF32G) 60 Euro (Da diese Aufstellung weitaus weniger kostet als Deine Auflistung könntest Du sogar 2x Ram kaufen und gleich mit 64GB anfangen. Ram und SSD Speicherplatz kann bei unraid man nicht genug haben [meine persönliche Meinung]) NVME: Samsung SSD 980 PRO 2TB, M.2 2280/M-Key/PCIe 4.0 x4 (MZ-V8P2T0BW /MZ-V8P2T0B) ist schon eine gute Wahl. (164 Euro) Die 980 Pro gibt es aber nur bis max 2TB. Alternativen: AData Legend 960 (max) ist etwas billiger ohne Kühlkörper und gibt es auch mit 4TB (Thema Aufrüstbarkeit) Patriot Viper VP4300 Lite 2TB ebenfalls etwas billiger und auch bis 4TB zu haben. (Auch hier: Wenn sowieso noch Geld übrig ist: mehr oder größere SSD sind meiner persönlichen Meinung nach ganz nett. Desto weniger müssen die Festplatten anlaufen und steigende Chippreise lassen befürchten, daß es in naher Zukunft nicht billiger wird.) Festplatten: 2x Toshiba 18TB (MG09ACA18TE) für je 279 Euro liegen weit unter dem von Dir akzeptierten Preis von 325 Euro/Stück. Gehäuse: kenne ich nicht, kannst Du aber beibehalten. Netzteil: ist gut, kannst Du beibehalten. Meine Preisauflistung: CPU 250 Euro mit Kühler MB: 104 Euro Ram: 60 Euro NVMe: 165 Euro 2x HDD: 279 Euro = 558 Euro Gehäuse: ab 170 Euro PSU: 84 Euro Summe= 1391 Euro (ohne Versand, incl. CPU Kühler, ohne Kabel, etc...) Wenn Du die kleinere CPU nimmst sind es nochmal rund 50 Euro weniger. Feuer frei zur Diskussion! 😄
  19. Es geht wieder los: DataCollector mißt wieder mal ein bisschen rum 😄 Zuvor hatte ich ja mal ein vorhandenes ASUS Prime Z690-P D4-CSM (90MB18P0-M0EAYC) hier dargestellt, aber das hat eben nur 4 SATA Ports. Da aber gerne nach den Z690 Boards gefragt wird, weil es die auch mit mehr SATA Ports gibt, hier mal ein frisch geliefertes ASRock Z690 Pro RS (90-MXBGY0-A0UAYZ). Da es das volle ATX Format ausnutzt und von mir wegen der 8 SATA Ports und der üppigen PCIe Slotbestückung (auch M.2) ausgewählt wurde könnte es interessant für jemand sein, der nicht unbedingt das sparsamste und kleinste NAS aufbauen will, sondern etwas größeres im Auge hat. Auch hier als Vorbemerkung: ich habe dieses Mainboard NICHT für unraid erworben und deshalb enthält es Komponenten, die den Stromverbrauch wohl etwas erhöhen könnten. Allein das pulsierende RGB LED Zeugs friss schon ein paar Watt, aber es läßt sich im BIOS/UEFI abschalten. Aktuell geht es erst einmal um den Stromverbrauch/C-States des Boards idle/in Minimalbestückung. Hardware und Beschaltung: - ASRock Z690 Pro RS (90-MXBGY0-A0UAYZ) (BIOS/UEFI: 2024/04/01 V18.03) (BIOS auf Default und dann alles auf so stromsparend wie möglich eingestellt RGB aus, Audio aus). Ich habe wirklich versucht alles an zusätzlichem Geraffel, welches für unraid eigentlich nicht benötigt wird, zu deaktivieren. !! (Man beachte: ich habe aus Stromspargründen auch hier im BIOS die CPU und PCH Geschwindigkeit auf PCIe 3.0 reduziert! Somit laufen auch die ggf. später eingesteckten Komponenten (auch NVME SSDs) mit PCIE 3.0) !! - Intel i5-12400 boxed (incl. Intel boxed CPU Kühler) - 2x 16GB DDR4-3200 Mushkin Essentials (MES4U320NF16) - kein SATA - interne Netzwerkkarte (Dragon RTL8125BG) 1GBLan Link aktiv - PCIe 3.0 x1: leer - PCIe 5.0 x16: leer - PCIe 4.0 x16 (x4): leer - PCIe 3.0 x1: leer - PCIe 3.0 x16 (x4): leer - M.2 NVME Slot neben CPU: leer - M.2 NVME Slot mitte: leer - M.2 NVME Slot am Boardrand: leer - M.2 Key-E: leer - Leicke ULL 156W Netzteil 12V 13A 5,5 * 2,5mm - Inter-Tech Mini-ITX PSU 160W, Wandlerplatine (88882188) 12V Input - USB Bootstick: Transcend Jetflash 600 32GB - USB 2.0 Y-Steckadapter (Chinaware): USB_SanDisk_3.2 Gen1 32GB als einzige Disk im Array (weil sich unraid sowieso ja nur mit Array vollständig nutzen läßt). Array mit Autostart, damit es immer gleich ist und ich nach einem Reboot für die Tests nicht erst ins WebGUI zum Starten gehen muß. Unraid hat alle Systemshares automatisch auf die USB Stick gelegt (weil ich ja keinen Pool/Cache-SSD eingebunden habe) und damit den USB Stick schon mit 28GB von den vorhandenen nominal 32GB belegt. Software: unraid 6.12.4 stable (weil ich weiterhin keine Lust habe mich nur für diese Tests mit manuellen ASPM Einstellungen rumzuschlagen. Ich weiss da immer noch nicht so ganz, was ich da wirklich tue.) Community App nerdtools + powertop-2.15-x86_64-1.txz Dynamix Cache Dirs Dynamix File Manager Dynamix System Temperature Unassigned Devices Unassigned Devices Plus Unassigned Devices Preclear im Go File: powertop --auto-tune alle tunables stehen auf "Good", bis auf einer: Ich steuere diese Systeme per ATEN 8600 KVM over IP. Das bedeutet, daß ich HDMI und USB zur Fernsteuerung dran habe. Bei diesem Board wird das auf einmal als "BAD" aufgelistet. Siehe Bild 3 unten. WebGUI und Terminal geschlossen, idle, der Bildschirmschoner hat den angeschlossenen HDMI Ausgang schwarz geschaltet (das spart hier noch mal rund 1W, deshalb warte ich mindestens diesen 'Bildschirmschoner' ab). Messungen wieder mit AVM DECT200 Funksteckdose. Messung 1: nur die nackte (oben genannte) Konfiguration aber HDMI und Displayport gleichzeitg angeschlossen. - knapp unter 18W (Siehe Bild 1) und die C-States gehen nicht weiter als C3 runter. Messung 2: nur die nackte (oben genannte) Konfiguration diesmal nur HDMI angeschlossen. - minimal niedriger 17,3W (Siehe Bild 2) und die C-States gehen dennoch nicht weiter als C3 runter. Und auch hier wieder der Hinweis: diese nackte Messung dient nur der Vergleichbarkeit. Fazit: Entweder ich habe eine Sromspareinstellung übersehen oder das ganze Geraffel auf dem Board verhindert tiefere C-States. Für diese Luxusaustattung auf dem Board zahlt man also rund 8-10 W mehr als bei dem vorher vermessenen ASUS Prime Z690-P D4-CSM oder gar meinem Gigabyte B760M DS3H-DDR4. Sollte man keine tiefern C-States erreichen, braucht man sich auch um die Effizienz (ASPM) eines SATA Kontrollers (ASM1166 oder so) keine Gedanken machen und aufgrund der vorhandenen PCIe Slots und M.2 Slots kann man mit dem Board als Basis und ein paar Zusatzkontrollern problemlos ein 24 Slot Bay versorgen und hat noch ein paar Reserven. Aber die Sache mit den C-States muß ich mir wirklich nochmal anschauen. ... to be continued
  20. Leider sagst Du nicht, ob Du Deinen bisherigen Selbstbau-Fileserver mit unraid aufgebaut hast. Dein HardwareNAS wird vermutlich echtes Raid benutzt haben, aber die Geschwindigkeit ist unter unraid nur sehr begrenzt erreichbar. Deswegen eine grundlegende Info, damit es später nicht zu Entäuschungen kommt: Bei unraid macht es Sinn die unbenutzten Festplatten schlafen zu legen. Wenn Du aber schnellen Dateizugriff per 10GBLan willst, wirst Du unweigerlich darauf stoßen, daß Zugriff auf das Array mit Spinup Wartezeiten einher geht und Du dann sowieso nicht flotter als die jeweilige Festplatte transferiren kannst. Festplatten berechne ich aktuell mit rund 250MByte/s, aus wenn heutige Festplatten im Flotten Außenbereich etwas schneller sind, sind sie im Innenbereich eben erheblich langsamer. Für diesen Transfer reicht also ein heute sehr oft schon vorhandenes 2,5GBLan weitestgehend aus. Da man bei unraid bei einem lesenden Zugriff auf das Array immer nur die Transferleistung einer einzelnen Festplatte erreicht, wirst Du die 10GBLan damit massiv unterfordern. Man kann Schreibzugriffe durch einen SSD-Cache (als Pool) beschleunigen, aber sobald Du auf Dein altes Videomaterial im Array zugreifen willst, ist es eben nur noch 1/4 so schnell zu lesen. Du kannst das für die Arbeit eines Tages/Woche verbessern, indem Du einen ausreichend (sehr großen) SSD Cache/Pool anlegst und den per Mover nur in den gewünschten Zeitabständen ins Array leeren läßt. So greifst Du auch lesend auf das aktuelle Material flotter zu, aber wenn Du eben auf altes Material des Array zugreifst.... naja, für aufwändigen Videoschnitt könnte das ein bisschen zur Geduldsprobe werden. Das nur zur Vorwarnung vorab. Da die CPU eine iGPU drin hat und unraid ohne GPU eher problembehaftet ist, eine GPU brauchst Du, aber die iGPU reicht dafür aus. Nachdem ich mich vom Schock erholt habe: https://forums.unraid.net/topic/111512-hardware-serverstromversorgung-für-angedachtes-4he-unraidsystem/?do=findComment&comment=1017393 Deien Wahl ist zwar eine leicht modernisierte Form, und Du kannst nehmen, was Du willst. Ich fasse mein Fantec SRC-4240X07 (Bauart 2018) nicht mehr an. Momentan dient es frustriert als Tisch, auf dem ich 2 Holzplatten gelegt habe und darauf ein PC System steht. Ich persönlich habe mit diversen Inter-Tech 19" 4HE Gehäusen (Inter-Tech 4U-4424, Inter-Tech 4U-4324L) weitaus bessere Erfahrungen gemacht. hawihoney bevorzugt die Supermicro, aber als Neuware sind mir die zu teuer. Wenn man die günstig/gebraucht bekommt sind die aber ziemlich gut. Deswegen würde ich eher in die Richtung suchen https://geizhals.de/inter-tech-ipc-4u-4724-88887354-a2672956.html?hloc=at&hloc=de und vielleicht zu Inter-Tech IPC 4U-4724 , 4HE (88887354) oder so greifen (die haben mehrere 24 Bay Gehäuse). Aber die haben keine SAS Expander in der Backplane, wie das Fantec. Aber unten schreibst Du sowieso von 3x SAS Karten (overkill und nicht zu empfehlen), dann brauchst Du den Expander ja sowieso eher nicht Bitte nicht böse sein, aber bist Du Dir da sicher? Ich glaube aus Deiner Gesamtausstellung zu erkennen, daß Du da nicht genau genug recherchiert hast und Dir die SAS Technik udn die Funktion des gewählten SAS Expanders nicht bekannt ist. Schlecht: Die x1 Slots für die SAS Kontroller werden ein "Bottleneck" werden, sobald Du mit Parity arbeitest und mal eine Paritycheck anstößt. Damit kommen bei jeder Festplatte nur noch rund 120MByte/s an. Besser, wenn auch nicht optimal: Wenn Du das Fantec mit dem SAS Expander beibehälst brauchst Du sowieso nur einen SAS Kontroller. Die anderen beiden kannst Du weglassen (und somit deren Strombedarf zumindest weglassen. Laut UserManual der 9300-8i Serie: Nominal = 13.0 W; Worst case = 19.04 W) Den SAS Kontroller in den PCIe 4.0 x16 stecken bietet dem Kontroller 8GByte/s (=ca. 64GBit/s). Diese Geschwindigkeit transferiert er dann über 2 SFF Anschlüsse mit je 4 Lines zu je 6G (leider kein 12G, weil die Backplane nur 6G macht) = 48GBIt/s kommen durch. Diese 48GBit/s verteilt die Backplane auf die 24 Bays, was dann pro Einschub 2GBit/s = ca. 200 MByte/s macht. Wenn Du dann noch ein besseres Mainboard suchst mit einem zusätzlichen PCIe x4 Slot kannst Du da dann auch Deine gewünschte 10GBLan PCIe 3.0 x4 Karte rein stopfen. Falls Du feststellst, daß es Dir nicht reicht hast Du dennoch 2 Steckplätze belegt und je weiter Du ausbaust, müssten die ggf. rausfliegen. besser sofort nur einen 32GB Riegel nehmen. Dann hast Du 3 Steckplätze für später Erweiterung frei ohne den alten Riegel zwingend wegwerfen/verkaufen zu müssen. Und das ich überteuerte Blechdecke-Overclocker Riegel generell in einem reinen NAS (mit ein bisschen Docker) für übertriebenen Mumpitz halte, konnte man ja schon mehrfach lesen. Warum nicht einfach einen hiervon? https://geizhals.de/mushkin-essentials-dimm-32gb-mes4u320nf32g-a2344753.html?hloc=at&hloc=de Mushkin Essentials DIMM 32GB, DDR4-3200, CL22-22-22-52 (MES4U320NF32G) ist auch 10 Euro billiger als das Kit. Du scheust den Kauf einer 10GBLan Karte, die man gebraucht unter 100 Euro bekommen kann (Mellanox SFP+ 10GB Connect-X3 PCIe 3.0 x4), willst aber 3 SAS Kontroller zu je 90 Euro kaufen? Wenn Du (siehe oben) 2 der überflüssigen SAS-Kontroller weglässt sparst Du 180 Euro und kannst Die eine Connect X3 kaufen. Diese passt dann auch wunderbar in einen der x4 Slots eines der Mainboaerds, die ich als besser für diese SAS Konstellation halte. Der Knackpunkt hier ist, daß Du einmal eine PCIe x8 Karte (SAS Kontroller) und einen 10GBLan (mindestens x4) stecken willst. Aber auch dafür gibt es passende B760 Mainboards. Auf die Shcnelle gesucht: ASRock B760M PG Lightning/D4 90-MXBLY0-A0UAYZ ASRock B760M Pro RS/D4 90-MXBKL0-A0UAYZ ASUS Prime B760M-A D4-CSM MSI PRO B760-P DDR4 II 7E29-001R Aufgrund des SAS Kontrollers werden die C-States sowieso abgrundtief schlecht werden, so daß sogar ein Z690 Mainboard keinen großen Unterschied mehr macht. (Nebenbemerkung: Ganz frisch habe ich heute ein ASRock Z690-Pro-RS-(90-MXBGY0-A0UAYZ) geliefert bekommen. Da könnte man das alles super drauf vereinen. Ich habe es aber noch nicht getestet, deswegen kann ich dazu noch nichts genaues sagen. Aber mit seiner Ausstattung 1x PCIe 5.0 x16 1x PCIe 4.0 x16 (x4) 1x PCIe 3.0 x16 (x4) 2x PCIe 3.0 x1 2x M.2/M-Key (PCIe 4.0 x4) 1x M.2/M-Key (PCIe 3.0 x4) 1x M.2/E-Key (PCIe/Intel CNVi, 2230) wäre es (in meinen Augen) von den Schnittstellen her besser geeignet (wenn man schon so in die Vollen gehen will und vielleicht für einen großen Cache/Pool ein paar NVMe SSD koppeln möchte). Du wolltest es sparsam und willst dann gleich 3 der Stromverbrenner einbauen? Wie oben schon geschrieben: Laut Handbuch benötigt jeder dieser SAS Karten Nominal = 13.0 W; Worst case = 19.04 W Du steckst also (unnötigerweise, wegen der SAS Backplane) 3x 13W =39W (bzw max./worst 57,12W) in die Kiste. + SAS Backplane 10-20W + 10GBLan 10W Dazu noch CPU, Ram, Festplatten, SSDs, Lüfter ... und das ganze bei miesen C-States. Wenn Du gaaanz viel glück hast schaffst Du das System idle Spindown unter 100W zu drücken, aber ich bin da seeehr skeptisch. Warum willst Du 3 SAS-Karten mit je 2 SFF Anschlüssen, wenn Du oben im Gehäuse eine Backplane mit SAS Expander kaufst, welcher nur 3 Anschlüsse hat und sich selber um die Verteilung von einem/zwei SFF auf alle 24 Bays kümmert? Das verlinkte gehäuse hat keine 6 SFF. Wenn Du auf den SAS Expander verzichtest (also nicht das verlinkte gehäuse nimmst, wären immer noch 3 SATA kontroller sparsamer und billiger. Gedankenspiel 24 Bays per SATA zu versorgen: Man braucht 4-8 SATA Ports auf dem Mainboard (B760 oder Z690 Mainboard) Dazu dann ein paar ASM1166, die dann je 4 bis 6 SATA Ports bieten. Nehmen wir mal das von mir oben erwähnte ASRock Z690-Pro-RS-(90-MXBGY0-A0UAYZ) [welches ich noch nicht wirklich getestet habe!!] 1x PCIe 5.0 x16 1x PCIe 4.0 x16 (x4) (hier könnte die 10GBLan PCIE x4 Karte rein) 1x PCIe 3.0 x16 (x4) (oder hier könnte die 10GBLan PCIE x4 Karte rein) 2x PCIe 3.0 x1 2x M.2/M-Key (PCIe 4.0 x4) 1x M.2/M-Key (PCIe 3.0 x4) 1x M.2/E-Key (PCIe/Intel CNVi, 2230) 8x SATA Also 8x SATA onboard einen ASM1166 in einen der x4 Slots = 6 weitere SATA Ports. je einen ASM1166 in die x1 Slots = 2x 4 SATA Ports = 8 Das macht schon mal zusammen 22 SATA Ports. Wenn Du dann wirklich die letzten 2 Bays noch versorgen willst, eine JMB582 2230 Steckkarte übernimmt das. Alternativ opferst Du ein paar der M.2 2280 Slots für ASM1166 und kannst da dann jeweils sogar 6 SATA gut versorgen. Dann hast Du immer noch einiges frei um NVMe SSD zu betreuben, damit Du mit einem großen Cache/Pool eine 10GBLan belasten kannst. Schauen wir uns die Änderung vom Energiebedarf an. Deine Idee 3x SAS = 39W oder 1x SAS 13W + Backplane 10-20W (zusammen =23-33W) Meine Idee: 3x ASM1166 (je 2W = zusammen 6W) + 1x JMB582 (ca. 2W) = alles 8W /den JMB582 schlage ich vor, weil er dort einfach zu montieren ist, nur 2 weitere SATA benötigt werden und die C-States wegen der restlichen Bestückung sowieso im Eimer sind. Natürlich kann man dort auch per Adapter eine ASM1166 einbauen) Da beide Ideen incl. der 10GBLan die C-States sowieso auf vermutlich C2 oder C3 puschen werden, ist beides nicht perfekt, aber wenn man das Ding 24/7 laufen lassen will, machen sich die rechnerischen 15-25W Unterschied auf Dauer bemerkbar. Da die Festplatten meist schlafen und selbst im betrieb im Schalldämmenden Rack verschwinden ist es egal, was Du einbaust. Bei rund 288TB Zielkapazität würde ich aktuell die Preis/Kapazitätssieger wählen und das sind dann 18-20 TB Festplatten. Je größer dei festplatten, desto weniger brauchst Du und desto weniger Festplatten Du hast,k desto gerihger ist der Energetische verbrauch. Sofern einen nicht ein super Sonderangebot überrollt, sind meist die Toshiba MG Festplatten die günstigsten. 16x 18TB = 288TB Toshiba Cloud-Scale Capacity MG09ACA 18TB, 512e, SATA 6Gb/s MG09ACA18TE wären aktuell die Pris/Kapazitätssieger bei Neuware (sind mir aber aktuell mit 15,49 Euro/TB zu teuer. Ich bevorzuge maximal 15Euro/TB zu zahlen.) Ob mein Feedback hilfreich ist oder Dir nur auf den Schlips tritt mußt Du entscheiden. Ich möchte Dich nur vor einem Schnellschuß und Enttäuschung bewahren. Da ich eigenlich an fast allem aus Deiner Auswahl etws zu 'kommentieren'/meckern habe hoffe ich, Du bist nicht böse. Es soll keine Beleidigung oder so sein. Ich befürchte nur, Du hast nicht alles wirklich durchdacht oder Dir fehlt an ein paar Stellen noch ein bisschen Wissen. P.S.: das war viel Text und es ist schon spät (oder besser früh). Tippfehler sind bestimmt massig enthalten und wenn ich wieder wacher bin, werde ich die vielleicht später noch ausbessern.
  21. Ich würde es in 2 Steps machen. Disk 2 zuordnen: unraid wird die Disk 2 Nullen und einbauen, dann Parity zuordnen und erstellen lassen. Dabei wird die 10TB Parity überschrieben. Sollte die Disk 2 schon per Preclear vorbereitet sein kannst Du das auch in einem Step machen (weil die Formatierung der Parityerzeugung kaum in die Quere kommen sollte): unraid scheint sich an der bestehenden Array Konfiguration zu stören. Benutze das Tool New Config und ordne danach das Array so zu, wie Du es willst (vergiss nicht vor dem Starten des Arrays die Disk Setting wieder wie gewünscht einzustellen. Solange Du Deine bestehende(n) Datendisk(s) nicht formatierst, werden die nichtverändert und Du behälst Deine Daten. Nebenbei: ein Backup der wichtigen Daten ist immer anzuraten, bevor man etwas riskantes macht!
  22. idle 80W zu unterbieten ist keine Kunst und das dürfte aus das Board problemlos schaffen (wenn es nackt ist), aber AMD und stromsparend passt nicht so ganz zusammen. AMD gibt die CPU mit 35-54W an. Das ist also schon einmal eine der sparsameren Versionen (für Power-Notebooks und so gedacht) https://www.amd.com/de/products/apu/amd-ryzen-7-7840hs Nackt (also ohne angeschlossenen Komponenten) würde ich 25W idle vermuten. Ist aber eben nur ein Vermutung. Wenn die PCIe Karten PCIe Switche oder SAS Kontroller wären, ja das wrde etwas ausmachen. aber ollte Deine PCIe Lankarte nur Fastnet oder 1GBit sein, macht das pro Karte vielleicht 3-5 W unter Last aus. bei 10GB RJ45 Karten hingegen könntest Du pro Karte schon 10-15 W unter Last einsparen. Ich würde weder AMD, noch das Mainboard für NAS benutzen, wenn ich nicht genau einen Anwendungszweck hätte, den nur dieses Mainboard erfüllen kann.
  23. Wenn ich mich recht erinnere: keine VM und nur ein bisschen HA sind geplant. Etwas Videoedition, aber keine Game VM. Warum wählst Du so eine Monster CPU mit Übertaktungsfähigkeiten? Du kannst die nehmen, aber die langweilt sich bei der Benutzung die ganze Zeit. VM können mit sowas etwas anfangen, aber die woltest Du ja nicht nutzen. Ein MiniITX Mainboard mit nur 2 RAM Slots und eine NVMe muss man auch noch auf die Rückseite schrauben. Im Schadens- oder Aufrüstfall der betreffenden NVMe also das ganze Mainboard ausbauen. Und dann packst Du Blechdeckel-Overclocker Ram mit nur 16GB Modulen rein und läßt keine Erweiterungsmöglichkeit. Gerade Videoediting legt von Ram oder viel flottem SSD Speicher. Wenn ich es richtig gesucht habe kostet das Kit ca. 125 Euro für popelige 32GB Ram Auch noch ein paar extra teure Festplatten (oder hast Du dafür ein super Sonderangebot gefunden?). Ein Full ATX Gehäuse mit einem Mini ITX Mainboard? Sorry, ich verstehe Deine Gedankengänge so gar nicht mehr. Die einzige vernünftige Wahl, die ich hier sehe Also bei der Kombination stellt sich mir die Frage: was ist aus Deiner vorherigen Zielsetzung geworden? Ich hatte gelesen "Vergessen wir die Gaming VM" Werden es jetzt doch 5 VM gleichzeitig (achja, dann hast Du etwas wenig Ram), aber dafür nimmst Du RAM der sich in einem extra viele Takte langweilen kann, denn die Festplatten drehen sowieso nicht schneller, nur ein eine flotte CPU mit CL36 Ram wartet.... Du wolltest Meinungen: Bitte nicht böse sein, aber diese Kombination mag technisch funktionieren, passt aber irgendwie so gar nicht zu der Aussage "keine VM" und dem, was ein NAS eigentlich macht. Ich würde fast alles davon NICHT für ein 24/7 laufendes NAS nehmen. Naja, mach was Du willst.
  24. Da Du an den Dockereinstellungen spielst und diese nur bei gestopptem Array erreichbar sind: ja. Tja, wenn Du die Bündelung der Karten aufhebst, ist unraid nur noch über eine der Karten erreichbar. Und das dürfte eben die sein, die kein Kabel drin hat. Vielleicht solltest Du die Reihenfolge der Karten in unraid mal ändern.
  25. Wird auch bei den Updates drauf hingewiesen. Und mein Bug Report dazu zeigt, das das auch keiner liest oder meldet. https://forums.unraid.net/bug-reports/stable-releases/6128-and-9-os-update-mentions-link-that-does-not-work-call-traces-and-crashes-related-to-macvlan-r2948/