DataCollector

Members
  • Posts

    3383
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by DataCollector

  1. Wenn Du mit "hinten" die Slots and er Unterseite meinst: Nein. Ich habe dort bei meinem M910x auf je eine Lexar NM790 4TB ein 1mm KUpferstreifen aufgebracht um dann festzustellen, die Bodenplatte geht nicht mehr zu. Ich mußte von der Bodenplatte dann das von innen eingeklebte Gitter abnehmen.
  2. Das war der Hintergrund, warum ich das fragte: https://forums.unraid.net/topic/159009-diks-2-lesefehler-hardware-zu-schwach/?do=findComment&comment=1392437 "Waren die alle an der selben Stelle montiert (gleiche Kabel, gleicher Kontroller, gleiche Backplane?)? Die Geschichte deutet nicht wirklich darauf hin, daß es ein Problem der Disk2 ist, weil Du die ja schon ein paar mal durchgetauscht hast." Primär gehe ich auch von einem Problem im SATA Port, Kabel oder Backplane aus. Aber das danach gemeldete Problem mit dem Bildschirmfoto und dem "Kernel Panik" hat mich eben abgehend vom DISK2 Problem auch zu der Vermutung gebracht, daß dieses neue Problem möglichweise mit dem Ram zusammen hängen könnte. (Schuß ins Blaue)
  3. Das ist eine ganz normale PCIe Karte die durch Bifurcation die Nutzung der x8 Ansbindung des Slot in 2 M.2 PCie Slots verteilt. Dir ist bewußt, daß dafür in dem lenovo M920 herumgelötet werden muß? https://forums.unraid.net/topic/133177-lenovo-m910x-m920x-m90q-als-basis-für-einen-unraid-server/?do=findComment&comment=1270238 und https://github.com/badger707/m920q-pcie-bifurcation/issues/1 sind dabei zu beachten. (Und wenn man der Diskussion dort folgt funktionieren auch nicht alle PCIe M.2 Karten dann in der Lösung.) Das ist keine "Reinstecken und Fertig" Lösung! Im Lieferzustand beherrscht der Lenovo M920 PC kein Bifurcation. Hast Du die Kenntnisse und Fähigkeiten das umzusetzen?
  4. Im Falle der normalen Defaultnutzung: ja. Du willst Reconstruct nutzen. Da laufen dann alle Festplatten bei Schreibvorgängen. ich hege Zweifel and er Einschätzung, daß dies die Festplatten mehr schont als die Defaultnutzung. Korrekt und die Datenfesteplatten werden dadurch nicht schreibend im Maximum betrieben. Ich sehe es anders, da die nicht beschriebenen Festplatten sonst schlafen können und keine extra Starzyklen durchmachen müssen. Aber das ist schon eine sehr alte Diskussion. Startzyklen gegen Laufzeit. Wir sehen es eben unterschiedlich. Mach, was Du willst. Das, was Du vor hast ist meiner absolut persönlichen Meinung nach nicht wirklich das, was eigentlich mit urnaid angedacht war. Aber das ist ja das Schöne: jeder kann es so nutzen, wie es einem gefällt. Und Dein Weg ist für Dich bestimmt der Richtige. Viel Erfolg.
  5. Und welche der beiden steigt immer aus?
  6. Hast Du in dem verwendeten Share so eingerichtet, daß a) ein Minimaler platz frei bleibt und b) bei vollem Cache auf das Array (secondary Storage) durchgeschrieben wird?
  7. Heutzutage macht das zwar eher selten Probleme, aber dennoch kann es eine Ursache sein. Ja. Lass den mal mindestens 24h oder noch länger auf Deinen Ram einhämmern. Auch dabei findet man nicht alle Fehler, aber meist sind dann doch schon Probleme zu finden. Die beiden Memtest86 und memtest86+ sind da eigentlich schon ziemlich gut für geeignet. Da sie beide in ihren testabläufen auch Zufallsmuster testen sind selnbst wiederholende Testdurchläufe nie identisch und somit kan eis sein, daß mal ein ganz seltene sProblem gefunden oder nicht gefunden wird. Auch deshlalb sollte man die schon ziemlich lange laufen lassen, weil die in den Durchläufen immer wieder minimal andere Muster testen. Aber was Du beschreibst deutet ja daraufhin, daß Deine Probleme schon recht füh im normalen betrieb auftauchen. Sollten die RAM dafür verantwortlich sein, sehe ich die Chance als hoch an, daß ein 24h Durchlauf da schon einen vorhandenen Fehler melden wird. Du könntest auch Dein System einfach mal mit so wenig Ram Riegeln (gleicher bauart) laufen lassen und schauen ob der Fehler wieder auftritt. Wenn ich in der Diagnostics richtig gesehen habe sind zumindest zwei baugleiche Hynix/Hyundai HMT41GU6MFR8C-PB drin. Alternative die anderen Beiden ohne diese Hynix verwenden die mit Manufacturer: "0215" zwar nicht wirklich nach namhaften Riegeln klingen, aber auch wohl zusammenpassen sollten.
  8. In einem normalen M.2 NVME/PCIe Slot gibt es keine Kapazitätsbeschränkung in der Hardware. Es ist eine PCIe Schnittstelle und der Kontroller, der dort angeschlossen wirdl (bei einer NVMe SSD auf der SSD integriert) kommuniziert wie jedes andere PCIe Gerät auch mit dem PC. Es gibt uuuuralte PCs, die sowas wie NVMe zum booten nicht kannten und somit im UEFI/BIOS das auch nicht unterstützen. Da kann es sein, daß eine (per Adapterkarte im PCIe Slot) eingebaute NVMe/PCIe SSD zwar erkannt wird aber eben nicht bootet, aber auch da gibt es technisch keine Kapazitätsbeschränkung. Aber diese Systeme haben dann sowieso keine M.2 NVME/PCIe Slots.
  9. Es schon die Festplatten, wenn bei Schreibvorgängen ins Array alle anlaufen und arbeiten müssen, anstatt nur die, die wirklich benötigt werden?
  10. Da Du irgendwie sehr komisch geantwortet hast, kopiere ich die Zeilen von Dir, auf die ich mich beziehe hier manuell ein: Du: "Bisher hatte ich zwei Rechner, möchte das ändern um mein Arbeiten überall im Haus zu ermöglichen, auch Außerhalb." Das geht aber nicht mit nur einem PC, sofern Du den nicht mit Dir herum schleppst. Du: "Mein bisheriger Haupt-PC wird ein Spielerechner für Groß und Klein :). Stromfresser, ja, aber nicht ohne Grund, ich nutze die Leistung ja." Du willst ein NAS mit dauerlaufenden Dockern etc.. aufbauen und der läuft dann vermutlich 24/7 mit dem ganzen Mehrverbrauchsballast der sehr leistungsfähigen Kiste. Diese Konstellation würde aber in den nicht ausgelasteten Zeiten Ressourcenverbrauch haben, den ein externer Rechner im ausgeschalteten Zustand (wenn man eben Geld verdient oder in der Schule ist oder schläft) eben nicht hat. Du: "Das würde mein Vorhaben stark beeinträchtigen. Ich dachte aber, wenn alle Platten gleichzeitig laufen, man keine Einbußen in der Schreibgeschwindigkeit hat." Du zielst auf Reconstruction Write ab. Okay, dann laufen also alle Festplaten des Array gleichzeitig und Du benötigst noch mehr Strom, anstatt die stromsparenden Methoden von unraid zu nutzen und auf den Pools zu werkeln willst Du also zusätzlich ins Array schreiben? Was willst Du denn schreibend mit dem Array machen, daß Du diese Geschwindigkeit brauchst?
  11. Welche SSDs (Hersteller, Type, Größe) werden denn eingesetzt?
  12. Zuerst: Zu Deiner Stromfresserkonfiguration sage ich mal nichts weiter, weil ich mich a) mit den AMD nicht so auskenne und b) die die Anforderungen vielleicht doch besser/sinnvoller in 2 getrennten PC realisieren lassen. Man kann in unraid für die Shares oder auch Pools einstellen, wieviel Free Space bleiben soll. Daß man das für jedes einzelne Laufwerk einstellen kann kenne ich nicht und sehe ich mit Hinblick auf die Fuse-Verwaltung von unraid auch nicht als sinnvoll an. a) Partitionieren: Der Sinn des Array ist alles zusammen anbieten zu können. Man kann Shares auf Disks beschränken, aber Partitionieren? Nicht, daß ich wüßte. b) Ich habe schon viele Benchmarkkurven gesehen, aber linear war keine davon. Eher leicht bogenförmig. Willst Du eine hohe Performance im Array? Ich hoffe Dir ist bewußt, daß die Schreibgeschwindigkeit durch die Parity auf 33-50% der oparity absinkt. Achja, nur so: Du schreibst, daß Du die Parity per zfs verschlüsseln willst. Das ist nicht nur unmöglich, sondern zeigt auch, daß Du Dich bitte noch einmal in die Grundlagen des Array mit Parity in unraid einlesen solltest. Auch sehe ich keinen Grund zfs Verschlüsselung im Array zu nutzen, wenn die xfs Verschlüsselung auch gut funktioniert. Sowas ist mir nicht bekannt und würde in die Dateisystemverwaltung eingreifen. In eine bestimmten Share: ja, das ist Möglich. Du legst einen Share en aund schreibst die Dateien da rein. Aber urnaid entscheidet selber, auf welchen Sektoren die auf den Datenträgern liegen.
  13. Da die Parity signifikant die Performance des Array beeinflußt tendiere ich dazu zu empfehlen die Parityfestplatte sollte immer die flotteste von allen sein (sofern die Größe paßt). SMR ist dabei eben eher schlecht. Besser macht man da einen Bogen um SMR. 7200RPM Platten sind eigentlich immer schneller als 5400 oder 5900 RPM Platten. Die Datenfestplatten hingegen werden ja schreibend weniger belastet so (da sie per Defaulteinstellung durch die Parity ausgebremst werden), daß ich dort auch SMR als akzeptabel ansehe (gibt aber Leute mit dahingehend anderer Meinungen). Wenn man die Wahl hat, sind (meiner persönlichen Meinung nach) zwar auch da CMR und 7200 Rpm zu bevorzugen, aber das ist ja der Vorteil von unraid, das ist bei den Datenfestplatten nicht wirklich pingelig. Einige Leute bevorzugen dennoch 5400 oder 5900 RPM Platten, weil diese bei den Leuten wohl leiser laufen. Das ist also eine persönliche Entscheidung. Im Wohn- oder Schlafzimmer wäre ich auch sehr auf die Lautstärke ausgerichtet, aber meine System sind in einem abgeschotteten Raum und da stört mich die Geräuschkulisse eher weniger. Waren die alle an der selben Stelle montiert (gleiche Kabel, gleicher Kontroller, gleiche Backplane?)? Die Geschichte deutet nicht wirklich darauf hin, daß es ein Problem der Disk2 ist, weil Du die ja schon ein paar mal durchgetauscht hast. Du kannst ja mal versuchen das Netzteil zu tauschen, aber ich fahre in meinem kleineren System 7Daten+1Paritydisk an einem Corsair RM550x und das ist aktuell für bis zu 15 Festplatten ausgelegt (+ Wechselrahmen mit Extralüftern, mehrere SSD etc...). Mit den 8 Disks die gleichzeitig starten, schluckt das System rund 145W. Wenn ich Deine Diagnostics richtig durchgezählt habe, hast Du 10 Festplatten + 500GB SATA SSD und den Bootstick dran. Ich glaube nicht, daß ein Paritycheck Deines oder auch meines Systemes wirklich die Grenzen eines 550W Netzteiles ausreizen würde (sofern das Netzteil nicht defekt ist). Das man das Syslog auf den USB Stick schreiben kann ist Dir bekannt? Für Diagnosezwecke ist das gut. Sollte man aber nicht unnötig laufen lassen, da es den Flashstick beschreibt udn der nur endliche Schreibzyklen durchsteht. Was das Bildschirmfoto angeht: Meine Kenntnisse sind zu schwach, als daß ich das analysieren könnte. Aber nur so als Idee, wenn ich die Kernel-Panik meldung lese: Hast Du schon mal den Arbeitsspeicher (RAM) intensiv getestet? Da auch bei der Paritygeschichte immer viel Ram im Spiel ist könnte ein defekter Speicher vielleicht eine Ursache all Deiner Probleme sein?
  14. Es gibt zwar auch Exos mit SAS, aber eben auch SATA. Aber Du hast recht, sollte @Timmey85 SAS Festplatten einsetzen, ist der SAS Kontroller zwingend erforderlich.
  15. Wenn es der Strom wäre, würde ich mir vorstellen, daß die Fehler wandern oder ist diese Disk2 eine besonders stromfressende Festplatte? Nur so zum Testen würde ich die Festplatte mal anders anschließen. Ein anderer Port des Kontrollers oder gar an das Mainboard hängen und beobachten ob der Fehler bei der Disk2 bleibt oder ob dann andere Festplatten diese Probleme haben, die an Position der ehemaligen Disk2 angeschlossen sind. Auffällig: Disk2 ist eine Seagate SkyHawk +Rescue 4TB, SATA CMR 5900Rpm 6Gb/s (ST4000VX016) Die haben für DVB Unterstützung ja eine spezielle Firmware, die bei Engpässen (eigentlich für Videostreams) auch Bits verwerfen darf. Könnte es damit zusammen hängen? Nebenbemerkung: Du verwendest eine lustige Mischung aus CMR und SMR Festplatten verschiedenster Drehzahlen in Deinem System. Wobei mich am meisten irritiert, daß Du eine SMR als Parity einsetzt. Aber wenn es bisher geklappt hat und Dich weiter nicht stört... Wenn Dein array viel schreibt, bricht durch SMR die Schreibrate nach einiger Zeit stark ein, weshalb die Parity möglichst keine SMR sein sollte. Aber ich glaube nicht, daß dies etwas mit dem aktuellen Problem zu tun hat.
  16. Das klingt nach verbogenen oder ausgeleierten Kontaktdrähten in der Buchse. Man kann diese versuchen nachzubiegen, das ist aber filigrane Arbeit und wenn es schief geht ist die Kontaktgabe in der Buchse ganz hinüber.
  17. Du erinerrst falsch. Da Quelle und Ziel unerschiedliche große "SMB-Freigaben" sind (oder Windowslaufwerke) ist eien automatisierte synchronisierung/abgleich(/bAckup bei mir nicht so einfach möglich. Ich nehme den Totalcommander und lasse so die Verzeichnisse innerhalb der SMB Freigaben angleichen.
  18. Dann kann man aber immer noch hinter diesen "Zwangsrouter" einen eigenen Router stellen, der dann das VPN übernimmt. Das wäre zumindest meine Idee. Ich bin kein Freund davon solche sicherheitskritischen Sachen virtuell in dem System selber zu realisieren, weil dann ggf. eine einzige Hürde zu überwinden ist um Zugriff zu bekommen. Mit einem VPN fähigen Router dazwischen wären es schon einmal 2 unterschiedliche Hürden. Tja, wenn es im lokalen LAN wäre würde ich FTP empfehlen. Wenn Du 2 Netzte (entfernt und lokal) per VPN koppelst, wäre es (je nach Fähigkeit der VPN Verbindung) so, als wäre es ein großes Netz und dann wäre darin auch sicher FTP machbar. Ich sehe eigentlich keinen Sinn ein Nas in ein NAS zu installieren. ja, es gibt Leute, die das machen, aber dann ghen viele der Vorteile von unraid 'flöten'. Ich würde es zumindest probieren. Es muß auch nicht zwingend eine FB sein. Verschiedene andere Hersteller haben ja auch VPN Verbindungsmöglichkeiten drin. Nebenbei: sollte einer der Standorte keien direkte IP Adresse nach außen haben wird es noch mal eine Stufe schwieriger, aber das ist nicht mein Fachgebiet. ich mag es, wie einfach es die Fritzboxen mir machen und ich habe eine IPv4 die von Außen direkt zu erreichen ist.
  19. das 1st System Tessa (siehe Signatur) mit seinen rund 400TB war erst mal mein 2. Backup (weil ich das System noch imme rnoch nicht so zusammengepuzzelt habe, daß es mein Hauptsystem (bisher Windows basiert) ersetzen kann. Meine Primärsysteme sind 2 andere PC (Windows basiert), die ich per 10GBLan sporadisch synchonisiere.
  20. Eine SSD behält ihre Daten, sofern sie nicht gerade mitten im Schreibvorgang absolut ungünstig abgewürgt wird. Die Daten eines RamCache sind von einem Stromausfall betroffen. Da unraid aber per Default alle (ich glaube 20 Sekunden) den RamCache an seinen Zielort befördert sind diese Cachedaten nur solange gefährdet, wie es dauert die wegzuschreiben (mehr Ram = mehr wegzuschreiben). USV ist sinnvoll, aber es wäre jetzt schon ein ziemlicher Unglücksfall, wenn nun in den ersten Tagen des unraidaufbaus ein Stromausfall zuschlägt. Und Da Du angedeutet hast, dass Du ziemlich neu bist: Du willst ja Dein System aufbauen und das Array dann ja mit Deinen Daten füllen: Wenn Du am Anfang keine Parity (also keine Ausfallsicherheit) einstellst, schreibt es sich bei der ersten Befüllung schneller auf das Array. Wenn alles da ist, wo es hin soll, kannst Du die Parity später (in ca. 1,5 Tagen) nachträglich erstellen lassen. Beachte: keine Parity, keine Ausfallsicherheit des Array. Aber Dein Kumpel hat ja ein Backup.
  21. Man könnte es so einstellen, daß die Systemshares auf dem Array liegen, aber das macht keinen wirklichen Sinn, weikl das Array erheblich langsamer schreibt als ein Pool mit einer SSD. Hier zeigt sich, da0 Du noch eine gewisse Lernkurve hast. Der Cache muß kein SATA sein und der Cache ist auch nicht "im" Array. Der wird als Pool dem Array vorgeschaltet. Ich weiß nicht wie wichtig Dir die Daten in den Caches ist, aber ich würde anstreben: 1. NVMe SSD (ohne Ausfallschutz, also kein Raid) für die Systemshares zu nutzen, da Du anscheinend ja viel mit Docker+VM arbeiten willst. 2. NVMe SSD (ebenfalls ohne Ausfallschutz) als Cache für das Array zu nutzen. Deine SATA SSD kannst Du entweder für Daten im Array benutzen, oder als weiteren Cache für andere Sachen oder aus dem System entfernen. Da ich nicht weiß, wie groß die jeweiligen SSD sind, ist dies nur ein Denkanstoß. Ein winziger Cache für das Array macht beispielsweise kaum einen Sinn. Ja. Ich kenne zwar den 9305 nicht, aber meine 9300 sind echte HBA und somit sind sie dahingehend problemlos. Gut, daß Du ein Backup bedacht hast. Denn ich weiß selber aus schmerzlicher Erfahrung: Ein Raid und auch ein unraid können zwar den Ausfall einzelner Datenträger verkraften, aber wenn etwas gravierendes passiert sind die Daten sonst futsch. Da macht sich dann ein Backuo gut. Zu SFTP kann ich nichts sagen, da ich es nicht einsetze.
  22. Also aktuell: 2x NVME (die passen in die 2x M.2/M-Key (PCIe 4.0 x4)) 1 SATA SSD 3x Seagate 12TB 2x Seagate 16 TB 1x Seagate 18 TB 1x Seagate 20 TB Also 8 x SATA und in Zukunft ein paar mehr. Ich weiß jetzt nicht ob Du irgendwo eine Obergrenze ziehen wirst, aber das aktuelle Konvolut ist bei dem Mainboard mit 6x OnBoard und einem ASM1166 Kontroller (für 6 weitere SATA Ports) in dem erwähnten M.2/M-Key (PCIe 4.0 x2), super abzubilden und etwas sparsamer, als mit dem LSI. Damit sind wir schon mal bei 12 SATA Ports, bei einem Bedarf von aktuell 8. 4 Freie Ports x 9 Monate = in 3 Jahren kannst Du ja mal einen weiteren ASM1166 PCIe x1 in einen der x1 Slots stecken und hast dann wieder Luft für 3 Jahre. Unter der mir aktuell bekannten Situation sehe ich keinen Sinn darin den LSI 9308-24i bei Dir einzusetzen. Bedenke, der LSI 9305-24i ist laut Datasheet mit Typical 16,2W angegeben. Ein ASM1166 zieht rund 2W und wenn man Glück hat (BIOS/UEFI und Firmware des ASM richtig zusammenspielen) sind damit auch tiefere C-States möglich. Ist ja kein Problem. Selbst wenn Du in 6 Jahren mit der selben Hardware weiter machen willst reicht dann eben ein Dritter ASM1166 um dann weitere 3 Jahre Zeit zu haben. Ich schätze spätestens nach 9 Jahren wird die Ganze Plattform sowieso gewechselt. Mein Milchmädchen würde dann mal so rechnen: In den ersten 3 Jahren Dauerlauf sparst Du also 14 W (Differenz LSI zu 1x ASM1166) = 3x365x24 x14W= 367.920 Wh In den nächsten 3 Jahren Dauerlauf sparst Du immer noch 12 W (Differenz LSI zu 2x ASM1166) = 315360 Wh In den letzten 3 Jahren Dauerlauf sparst Du 10 W (Differenz LSI zu 3x ASM1166) = 262800 Wh Summe= 946080 Wh in 9 Jahren gespart. Du hast Doch schon 2 NVMe SSD. Willst Du nicht eien davon für Systemshares (Docker.,VM, etc...) und die andere als Cache für das Array verwenden? Okay, soweit hatte ich das Manual nicht betrachtet. Das ändert die obige Milchmädchenrechnung aber nur geringfügig. Aber wenn Du 2 Onboard SATA Ports verlierst, dafür aber 6 SATA Ports mit dem ASM1166 gewinnst könnte das ein brauchbares Tauschgeschäft sein. Ansonsten eben noch die erwähnten PCIE x1 Slots für je 4 aktuelle Festplatten (ASM1166) und andere PCie Slots hat das Board auch (Ich benutze bei mir sogar den M.2 Key-E, welcher eigentlich für WLAN gedacht ist für eine ASM1166. Grundlegend ein toller Kontroller und für das, was er leisten kann (bis ca. 1024 Festplatten ansteuern). Wenn man also einen passnden Einsatzzweck hat (beispielsweise per SAS Expanmder die 24 Anschlüsse zu überschreiten oder einfach keine freien PCIe Slots mehr hat), ist er eine sehr gute Wahl! Aber bei dem, was ich bisher las: eine überdenkenswerte Entscheidung. GIGABYTE Z370 HD3P 6x SATA 6Gb/s (Z370) 2x PCIe 3.0 x16 (1x x16, 1x x4) 4x PCIe 3.0 x1 1x PCI (den kann man heutzutage ignorieren) 2x M.2/M-Key (PCIe 3.0 x4) Auch hier könnte man mit 6 Onboard und mit den 4x PCIe x1 (4x ASm1166) = 22 aktuelle SATA Festplatten/SSD versorgen. (SATA SSD bevorzugt am Onboardkontroller)
  23. Nur so, als vielleicht mögliche Alternative: Welche Hardware hast Du denn im Einsatz? Vielleicht läßt sich im Server dafür Platz schaffen, indem man etwas umbaut? Beherrscht Dein Server Bifurcation?
  24. Wieviele HDDs brauchst Du denn? Das erwähnte Gigabyte Aorus hat ja 6 SATA Onboard. Dein Zusatzkontroller LSI SAS9305-24i kann weitere 24 Festplatten ansteuern. = 30 SATA Devices (wenn man keinen SAS-Expander verwendet) Du hast nur erwähnt, daß Du 7 verschiedene Festpplattengrößen hast. VWieviele Festplatten sind es denn insgesamt, die angeschlossen werden sollen? Und wieviele 2,5inch SATA SSD und wieviele M.2 NVMe SSD? Und sind auch M.2 SATA SSD dabei? (hoffentlich nicht) Beachte ein unraid NAS i(vor allem, wenn Du sowieso eine Firewall drauf laufen lassen willst) läuft 24/7. Du hast also den Extrastromverbrauch des LSI Kontrollers von 10-30W (je nach Modell) rund um die Uhr auf Deinen Stromzähler einwirken. Wenn es nicht sooo viele Festplatten zusätzlich sind, wäre auf Dauer ein Zusatz SATA Kontroller mit großer Wahrscheinlichkeit sparsamer. Mit Hinblick auf den Stromverbrauch (und die Dauer, die man so ein System dann über Jahre nutzt) macht es auch vielleicht Sinn die Anzahl zu reduzieren (besser ein paar Große einbauen, als viel mehr Kleine. Ich habe noch nicht so ganz den Überblick, welches Mainboard Du nun für unraid nehmen willst, aber das erwähnte GIGABYTE X570 AORUS Ultra 3x PCIe 4.0 x16 (1x x16, 1x x8, 1x x4) 2x PCIe 4.0 x1 2x M.2/M-Key (PCIe 4.0 x4) 1x M.2/M-Key (PCIe 4.0 x2) 1x M.2/E-Key (PCIe) 6x SATA 6Gb/s hat mit seinem 1x M.2/M-Key (PCIe 4.0 x2) einen super Anschluß für eine ASM1166 in M.2 Bauweise für bis zu 6 SATA Ports zusätzlich. Auch in die PCIe 4.0 x1 kann man zumindest auch Zusatzkontroller einbauen, welche bei 250MByte/s pro Festplatte 4 Stück gut versorgen können. Und man kann auch mehrere dieser ASM1166 zusammen in einem PC einsetzen, wenn die PCIe Slots/M:2 Slots dafür frei sind. Leider sind aktuelle SATA Zusatzkontroller nicht PCIe 4.0, sondern eher PCIe 3.0, aber das reicht immer noch gut aus und mit ca. 2W pro SATA Zusatzkontroller sind sie erheblich sparsamer als LSI SAS Kontroller.
  25. Klappt problemlos auf der englischsprachigen Seite (Stand 22.03.24 09:20 Uhr). https://unraid.net/pricing