Jump to content

DataCollector

Members
  • Posts

    3,967
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Hallo @mgutt Also das Linke System sieht mir so aus, wie diese Käfige (ebay links). Dort kann man die Platten nur nach hinten, zur Anschlußseite, ziehen. Vorne (schwarzes Gitter) kann ein Lüfter eingeschraubt werden. Hier als 5in3 Version https://www.ebay.de/itm/324144114015 Hier als 3in2 Version https://www.ebay.de/itm/373585086122 Die anderen beiden Bereiche (Mitte und Rechts auf dem Foto) hingegen sind nach vorne zu entriegeln.
  2. Hallo @mgutt Aussage von einigen Gamern, das Nachladen der Grafiken geht erheblich flotter. Aber der Speichertransfer in die GPU Karte mit ihren heutzutage vielen GB geht eben flotter. Wenn das Argument gilt, sehen wir als Datenlagerer (Datahorder) nicht besser aus. Wir konnten sogar mal mit Floppy leben und brauchten auch nicht immer TB Kapazitäten oder 4stellige MB/s Geschwindigkeiten.
  3. Hallo @mgutt Mit großem Kühlkörper und Lüfter. Der wird auch nicht wirklich stromsparend sein. So eine Idee 'ext wieder auf int führen' hatte ich bei der erwähnten Adaptec 78165 auch schon mal. Die Kabel und Adapter bekommt man bei ebay zu akzeptablen Preisen . Aber ich habe schon genug Kabelhenkel aussen an meinen Gehäusen. Ja, man will wohl lieber noch schneller, weil es im Marketing besser klingt, auch wenn der wirkliche Nutzen von M.2 7,x GByte/s gegenueber M.2 3,x GByte/s NVMe SSD mit hundertausenden IOPS bei den meisten Nutzern nicht wirklich groß ist. Ja, das war auch der gedanke hinter meinem PCIe Switch. Doch auch da teilen sich die 4 NVMe SSD im Endeffekt nur den einen PCIe 3.0 x8 Slot. Aber ich brauche selten alle gleichzeitig in maximaker Geschwindigkeit. Naja, bei vielen Mainboards sind die ersten und zweiten x16 Slots shared. Wenn beide besetzt sind, wird je x8 gefahren. So betreibe ich aktuell meine Systeme. Im GPU x16 Slot steckt ein SAS-Kontroller als x8 und im zweiten Slot entweder eine 10GLan oder der PCIe x8 Switch (je nach System). Der Wunsch hängt vom Anwendungszweck ab. Für 24/7 unraid und NAS sind die Stromschlucker weniger gut. Für Workstation oder Gaming hingegen mit nur zeitweisem Betrieb ist das weniger problematisch. Wir werden sehen, was passiert. ich bin skeptisch.
  4. Hallo @Ford Prefect Ich habe eigentlich auch fast nur Intel Expander im Einsatz. einige RES2CV360 und RES3TV360 (die passen besser in die 4HE Gehäuse in den Luftstrom) eine RES3FV288 aka Adaptec 82885T und einen RES2SV240. Ich hatte die HP SAS Karte nur mal gekauft und hier erwähnt, weil es wohl der guenstigste SAS-Expander mnit hohem Portcount ist und trotz nur SATA II (3G) für Festplatten immer noch ausreichend ist. Für ein aktuelle SSD Array würde ich den HP auch nicht nehmen. Aber sein 12G Nachfolger kligngt hingegen schon wieder sehr interessant HP 761879-001 727250-B21 (weil gebraucht recht guenstig). Ja, das ist eine bequeme Lösung um den Expander fern der PCIe Slots zu positionieren. Ich habe die meist zwischen HDD Hotswap in der Front und der Lüfterphalanx eingebaut. Da zieht es immer schön und die Kabel zur passiven Backplane sind kurz. HP Karten nutze ich keine. Bei dem HP SAS-Expander brauchte ich bei Tests keine Treiber. Er lief problemlos, aber eben von der Bauform ungünstig groß und eben leider nur durch PCIe gespeist. Damals wusste ich noch nichts von Mining Riser Lösungen für PCIe Speisung und wollte keinen PCIe Slot für reine Stromversorgung verlieren. Lanes waren damals noch knapper als heute. Irgendwo in meinem Stapel fliegt mindestens einer dieser HP Expander noch rum. Auch weiß ich nicht ob diese Raidkontroller sich auf IT umflashen lassen. Zumindest, wenn man hohen Portcount und einfache Verkabelung will und Stromverbrauch und Preis hinten anstellt. Beides hat seine Vor- und Nachteile. Ich bin keiner Variante abgeneigt, doch ist die Verkabelung bei SAS mit Backplanes einfacher.
  5. Hallo @mgutt Ich sah, daß die Marvell 88SE14xx Raid5/6 Kontroller sind. Ob die in unraid sinnvoll als HBA betrieben werden können hängt wohl stark von der Firmware des Herstellers ab. Auch habe ich irgendwo im Rahmen meiner Recherchen mal von Problemen zwischen Unraid und Marvelhardware gelesen. Dann könnte man vielleicht zwei solche Chips auf eine x16 verbauen. Oder vielleicht entwickelt Marvel gleich einen PCIe 4.0 x4 Nachfolger? Doch ca. 250MB/s reichen für Festplatten heutzutage ja eigentlich aus. Die Mainboards müssten dann aber offene x4 Slots haben. Ich habe mal versucht einen PCIe Slot auf zu dremeln. Dafür war ich nicht gut genug.
  6. Hallo @Ford Prefect Deshalb ja mein Hinweis auf die gleich gelagerte Problematik bei mehreren NVMe SSD in einem PCIe Slot. Entweder unterstützt das Mainboard PCIe Bifurcation (aufsplitten der PCIe Lanes in bestimmten Rastern) oder man muß mit PCIe Switches arbeiten. Diese Switches sind noch selten, stromhungrig und teuer. Ich habe mir einen aus Frankreich kommen lassen um mit 4 NVMe SSD zu experimentieren. Deshalb machen diese Switches auch nur bei NVMe oder vergleichbaren Anwendungen Sinn, da es dort eben eher um Performance geht und weniger um Stromsparen. Aber schön fände ich es schon, wenn man sowieso schon eine PCIe SATA Bridge wie den ASM 116x entwickelt, daß man sich etwas näher an der existierenden Realität orientiert. PCIe x2 Slots mechanisch und elektrisch sind eben eher exotisch bis selten. PCIe mit elektrisch x1 oder x4 hingegen sind weiter verbreitet. Für PCIe 3.0 x1 hat man ja auch den ASM1064 entwickelt und der klingt sinnvoll. Habe von 2 unterschiedlichen Händlern je einen zu Testzwecken bestellt. Mal sehen, was die 4 SATA Ports wirklich in einem PCIe 3.0 x1 Slot bringen. Bei x4 scheint aber noch eine PCIe SATA Bridge zu fehlen, die das ausnutzt. PCIe 3.0 x4 sollte aktuell für 10-12 Festplatten über SATA genug Bandbreite bieten. Wenn man hingegen viele SATA SSD anbinden will wäre PCIe 4.0 x4 schon wirklich interessant. Ryzen und neuere Intel gehen ja den Schjritt zu PCIe 4.0. Ist nur blöd, daß es noch kaum PCIe 4.0 Karten gibt, so daß solche Erweiterungen dennoch maximal mit PCIe 3.0 oder gar 2.0 laufen und eventuell dort bremsen. Und wenn eine x4 PCIe SATA Bridge doch schon (vgl. ASM116x) in "Chip"-Bauweise gegossen wäre, sollten passende Kontrollerkarten schnell und günstig verfügbar und weniger Stromhungrig als diverse SAS Kontroller sein. Die Adressierung eines solchen Chips dürfte dann auch kein Problem mehr darstellen. Und für die Zukunft kann man das für PCIe 3.0 oder 4.0 mit x8 oder x16 weiter denken: 1 Kontrollerkarte mit 20 - 48 diskreten SATA Ports (von mir aus wieder über SFF zusammengefasst). Ist ja nicht so, als wäre so ein Boardlayout so neu (3Ware 9650SE-24M8 hatte eben nur damals aktuelle Technik und ist heute hoffnungslos veraltet und energiehungrig. Davon habe ich noch ein paar hier rumliegen.) Ja, leider. Siehe die Switchinfo oben. Kontrollerkarte ASM1166 (PCIe Gen3 x2 - 6SATA3)+ 575 (1 to 5 port SATA 6Gb/s Port Multiplier) Das ist grundlegend eine etwas neuere Variante der von mir schon erwähnten DELOCK 89384 mit 10Port SATA3. EIn 2 Port Chip (ASM1062) mit zwei nachgeschalteten Multipliern (JMB575). Die Performance der Delock war mehr als nur enttäuschen, wenn man schon 3 Festplatten ansprechen will (hab ich 2016 getestet). Ich bin seit dem kein großer Freund von SATA Multipliern. Bei der Karte oben verlinkten Karte mit dem ASM1166 und 575 vermute ich, daß 5 Ports direkt vom ASM1166 herausgeführt sind und einer weiter zum 575 geht. Dadurch teilen sich die 5 Port des 575 die Bandbreite eines SATA Ports. Ich hege Zweifel, daß diese Ports auch nur für Festplatten sehr performant sind. Auch hat die Karte zwar einen mechanischen PCIe x4 Anschluß, doch da der ASM1166 eben nur PCIe x2 beherrscht teilen sich nun 10 Ports die geringere Bandbreite. Vielleicht hat man x4 gewählt im die Karte stabiler in Slots einzusetzen, aber möglicherweise will man auch die Leute nicht direkt mit der Nase auf den PCIe Engpaß stoßen. 'Täuschen und Tarnen' Ja vor allem, wenn ich einen 8 Port SAS Kontroller gebraucht schon ab ca. 50 Euro bekommen kann. PCIe 2.0 x8 = ca. 4 GByte/s https://www.ebay.de/itm/184848985093 Ein billiger SAS Expander https://www.ebay.de/itm/133335491742 (die wurden schon vor Jahren in Mengen ausgemustert und waren da sogar schon ab rund 20 Euro zu haben). Wenn das Mainboard keinen passenden PCIe Slot fuer den Expander hat, kann man ihn bestimmt auch mit einem Minerriser (20Euro) fremdspeisen, da der Expander wohl nur den Strom aus dem Slot zieht. Dazu ein paar SFF Kabel zum Verbinden (30 Euro) und ein paar Fanout Kabel für die Festplatten (50 Euro). In Summe ähnlich teuer und vermutlich auch stromschluckend wie die ASM1166+575 Karte, aber weitaus mehr Ports (6 SFF mit je 4 SAS/SATA = 24 Ports). Diese Ports sind dann zwar nur SAS6G bzw. SATA3G, aber die bis unter 300MByte/s von Festplatten sollten dennoch auf rund 13-14 Ports problemlos zum PCIe 2.0 x8 durch gehen. Ich seh in der aktuellen ASM1166+575 Karte 8abgesehen von baulicher Platzersparnis) irgendwie keinen echten Mehrwert gegenueber der etablierten SAS Technik von vor ca. 10 Jahren (LSI 9240-8i + HP SAS Expander Card). Erst wenn man SAS in aktueller ausprägung einsetzen will (SAS 12G) wird es wirklich teuer.
  7. Hallo. Zum 6 SATA Port Kontroller mit ASM1166 (PCIe 3.0 x2 Chip) Das frage ich mich auch. Eine solche Karte mit 10 oder 12 Ports und voll genutztem PCIe 3.0 x4 Slot bei dem geringen Striomverbrauch von eben 2 dieser Chips, das wäre wohl eine sehr empfehlenswerte Lösung. Aber entweder ist die Nachfrage zu gering oder die Mehrfachnutzung von PCIe Lanes stellt da ein Problem dar. Das ist ja auch ein Thema im Zusammenhang mit preisgünstiger Nutzung von PCIe x16 Slots und bis zu 4 NVMe SSD.
  8. Hallo @mgutt Wenn ohne Zusatzkosten beim Mainboard möglich: gerne, aber nicht zwingend. Beispielsweise habe ich hier in einem anderen Towersystem (max. Platz für 15 LFF), mit dem ich mal Freenas testen wollte noch ein Fujitsu D3644-B mit ECC Ram und I3-8100. Sollte sich die Idee, das Ganze wirklich mit 3 getrennten Systemen zu verwirklichen (2 Hardware Plattenstapel und ein zusammenfassendes System jeweils alle mit unraid), näher an die Realisierung bringen lassen schließe ich nicht aus die Hardware da heraus zu räubern um zumindest eines der Plattensysteme mit weniger Neuanschaffungen ausstatten zu müssen. Aber aktuell habe ich den Tower erst einmal von einem LSI 9361-8i Raidkontroller auf Adaptec 78165 umgebaut, weil der sich auf HBA umstellen läßt und ich mal testen wollte ob ich darauf unraid stabil zum rennen bekomme. Dieverse Forumsbeiträge sind da widersprüchlich zu der Adaptec Serie 7. Wenn es klappt, könnte der Tower vielleicht auch der Unterbau eines meiner kleineren Systeme werden, so dass ich das bisher im anderen unraid Testsystem verwendet 24 LFF 4HE Gehäuse mit Innereien für die Plattenstapel frei bekäme. Adaptec Kontroller sind gebraucht im Preis etwas niedriger angesiedelt als vergleichbare LSI und diese Serie 7 wegen der Umstellung Raid auf HBA möglicherweise hier etwas flexibler einsetzbar. Zwar sind meine Tests mit dem 78165 vor Jahren eher mies verlaufen, aber da hatte ich versucht mit Windows7 da etwas stabiles aufzuziehen und bin an der Adaptec Software gescheitert. Bei unraid brauche ich aber nicht die Adaptec Software und bin deshalb in hoffnungsvoller Erwartung, wenn ich diese neue Konstellation fernab meiner hier bisherigen Tests auch mal teste. Wie man wohl erkennen kann, teste ich hier in sehr viele verschieden Richtungen und Ausprägungen mit mehreren Systemen um für teils unterschiedliche Anwendungen das jeweils Passende zu finden. Auch dadurch sind die Anforderungen und Ideen in allen Tests fliessend (weil sich auch durch Erkenntnissgewinn immer wieder verschiebungen oder andere Ideen ergeben). Das hat aber auch den Nachteil, daß die Zeit und das Budget sehr beschränkt ist und es auch mal zu diversen Unterbrechungen der einen Tests kommt, weil das Geldverdienen oder ein anderes Projekt kurzfristig überhand nimmt. Nur ist die Beschaffung beispielsweise des oben erwähnten D3644-B eine sehr zeitaufwändige Sache gewesen. Und so passend wie es aktuell für Plattenstapel ist, so ungünstig finde ich, die eher spartanische Ausstattung um es eventuell auch anderweitig einsetzen zu können. Ich will aber nicht meckern. Stromsparend und kompakt gehen eben damit einher, daß man den eigentlich überflüßigen Gamingnonsens wegläßt. Ich verstehe immer noch nicht, warum heutzutage auf vielen Boards, kaum abschaltbare, LEDs oder RGB Kontroller verbaut sind. Das macht es nur teurer und verbrät Strom. Schneller rechnen oder stabiler laufen solche Boards davon auch nicht. Viele meiner Systeme bestehen aus gebrauchten Teilen, welche dadurch günstiger in meiner Anschaffung waren. Ich greife aber weniger zu Kleinanzeigen, da ich beim Kauf doch ein gewisses Maß an Schutz haben will.
  9. Hallo @mgutt Das Problem ist immer bei den Mainboards abzuschätzen wie der Stromverbrauch aussieht. Es sollen guenstige Bords sein. Wäre schön. Aber NVMe muß bei den System für die Festplatten nicht zwingend sein. Und hier kommen wir allein für das Board in Preisregionen, die ich meiden wollte (ganz abgesehen von Beschaffungsproblemen), weil ja auch noch CPU, Ram und so weiter dazu kommen und das dann gleich 2 mal. Schnuckeliges Mainboard, daß das nötigste hat um eben ein Festplattensystem wunschgemäß zu betreiben und anzubinden. Bei geringem Kostenaufwand. IPMI brauche ich nicht Ich mach die Fernsteuerung auf BIOS/UEFI/BOOT-Ebene mit IP-KVM und KVM-Switchen und wenn die Systeme rennen nehme ich VNC. Ich danke für das Angebot, aber 200 Euro nur für ein Mainboard ist eine Preislage in der ich nicht fuer einen simplen Plattenstapel suche. Auch suche ich teurere Produkte gerne im Gebrauchtmarkt, weil es da nochmal günstiger ist.
  10. Ich frage mich wirklich, wie die elektrisch x4 benutzen, wenn der ASM1166 nur x2 können soll.
  11. Hallo @mgutt Meine Bootzeit wird nicht durch das BIOS/UEFI des SAS Kontrollers verursacht. Der SAS Kontroller findet die Festplatten in rund 10-20 Sekunden und übergibt an das Mainboard BIOS/UEFI. Dann startet der unraid Stick und der braucht pro Festplatte mit schwarzem Bildschirm mit blinkendem Cursor knapp unter 30 Sekunden um dann den Bildschirm wieder zu löschen den Curser neu blinken zu lassen und dann wieder rund 30 Sekunden für die nächste Festplatte. usw... Es liegt also an unraid. Gut, den ASM1166 kenne ich nicht, aber scheint ja ein PCIe 3.0 x2 Kontroller zu sein. Das spricht schon eher für bessere Performance. Nur stört mich da eben dass er x2 ist. Wenn man schon einen x4 Slot verschwenden muß würde ich bevorzugen, wenn man zwei dieser ASM1166 zusammen auf eien Karte packt und dann eben auch doppelt so viele Ports bietet und auslasten kann. Mich ärgern irgendwie verschwendete PCIe Lanes, weil es die nur in begrenzter Menge bei preisgünstigen CPU & 'Chipsets' gibt. Aber das ist mein Problem Ich will sie nicht unbedingt einbauen, aber wenn Lanes unbenutzt da sind, hätte ich gerne die Möglichkeit die zu nutzen. Eine NVMe SSD mit den 2 brach liegenden Lanes angebunden würde schon genug bringen um als flotter Cache zu fungieren. Hm. der ASM1166 ist ein "PCIe Gen3 x2". Wie ist die 6PortKarte denn aufgebaut, daß er 6 Ports an x4 macht? Irgendetwas habe ich da wohl nicht mitbekommen. Oh! Den Beitrag hatte ich noch nichtgefunden. Danke! Hoch interessant, weil ich da sowas finde: LSI 9300-8i PCIe gen3 x8 * PCIe gen3 x4 (3940MB/s) Das ist sehr interessant, weil ich nebenher an einer anderen Idee arbeitete. Ich hatte mal etwas ähnliches Vor Wie Du mit einem 10Zoll Schrank. Ich wollte auf 19Zoll Bleche (etwas stabilere Modelle) 5in3 Steckrahmen aufbringen und um die ganzen Platten anzusteuern sowas wie USFF Bauform nehmen und den M.2 PCIe Steckplatz per Adapter und Riser zu einem x4 Kontroller führen. Aber die Sache ist aus Zeitmangel erst einmal eingeschlafen und liegt in Einzelteilen hinter mir. "put it on the backburner" Wegen aktueller Preisexplosion nicht angedacht. Wenn ich den Platz und das Geld hätte soger noch viel mehr. aber es wird hier langsam eng. Das meinte ich ja. also 150MB/s pro Port sind zu wenig, Bei meinen 12 und 14TB sind Spitzenwerde um 230MB/s drin. Mit anstehender Zolländerung werde ich erst einmal meine außer EU Bestellungen mindern, bis die Paketlieferanten das Verfahren eingespielt haben. Aber DHL hat ja schon angekündigt pro Auslegung 6Euro extra zu nehmen. Da macht es wenig Sinn kleine Mengen zu kaufen. Ich habe leider mit schon so einigen Händlern mit chinesischem Sitz größere Probleme gehabt Meist waren Beschreibung und Angebot nicht das, was geliefert wurde. Und schon bei erster Nachfrage wollten die Videos etc. haben und ich habe mich immer wieder textlich mit denen im Kreis gedreht und vorgefertige Textbausteine bekommen. Somit habe ich da ein paar zu schlechte Erfahrungen um dort mit Freuden in Mengen zu bestellen und das Geld dann dabei zu versenken, weil etwas anderes geliefert wird.
  12. Hallo @hawihoney Lärm darf sich in Grenzen halten. Das ist auch eine Erfahrung mit Unraid. Da die Platten eben oft im Spindown liegen sind zwar leitungsfähige Lüfter für Maximalperformance notwendig, aber wenn nur vereinzelte Festplatten laufen oder sogar im Spindown sind, darf es langsamer drehen und somit leiser sein. Geld hingegen ist ein Problem. Normalerweise hätte ich einfach kontinuierlich vereinzelt weiter große Platten gekauft und wäre dann auch irgendwann am Ziel. Aber die Preisexplosion ändert das eben. Es ist rein privat und Hobby. Wenn ich massig Geld reinstecken könnte hätte ich kein Problem. 22 Festplatten zu 18TB in Unraid und ich habe rund 340TB. Leider wären das über 12.000 Euro nur für Neuanschaffung. Nein, ich will wegen der aktuellen Preise mit meinen vorhandenen Festplatten und kleinem Budget zum Ziel. Das ist viel. Mein, nicht auf stromsparen optimiertes, Testsystem mit 24 Festplatten, 2NVMe im extra PCIe Switch, 64GBDDR4 Ram, I7-6700k auf GamerMotherboard und Asus 10G Base-T Karte schluckte bei schlafenden Platten knapp über 100 W idle. Das ist ja der Grund, warum ich nun nachdenke das Mainboard und diverse Komponenten zu ändern, so daß es sich eben bessert. Wenn die 2 Festplattensysteme idle je 60-70W schlucken (also zusammen rund 140W) und da ein zusammenführendes System mit idle 50W hinzu kommt, spart diese Konstellation täglich im Gegensatz zu meinem jetzigen Hardwarerarid Dauerlauf einiges an Strom. Dann darf im Betrieb für wenige Stunden pro Tag das Ganze auch ruhig mehr schlucken. In Summe wird es dennoch Strom sparen. Die Netzwerkswichte lasse ich mal außen vor, da diese Infrastruktur sowieso voprhanden sein muß. Strom ist das nächste Problem. Leistungsfähige ATX PSU sind fast ausgestorben und sehr teuer. Günstige Servernetzteile versorgen wohl überwiegend mit 12V. Ich brauche aber für Festplatten eine leistungsfähige Versorgung mit 12 und 5 Volt und für das Mainboard auch noch die üblichen Spannungen. Ich habe noch einige Super Flower Leadex II ATX PSU im Einsatz. Wenn ich das ganze auf 2 oder 3 Systeme splitte kann ich getrennte Standard PSU nehmen bzw. beibehalten.
  13. Hallo @mgutt Danke für den Testaufbau und Deine große Mühe. Pcie x2 Steckkarten und Multiplier sind nicht so ganz das, was ich suche. Und wenn ich keine x2 Steckkarten einsetze muß es auch kein Mainboard mit 4x4 sein. Wobei sich die Diskussion hier zum Teil darum dreht, welche Kontroller ich einsetzen will. Dazu folgendes: Ich brauche eine hohe Portzahl. Wenn ich das mit SATA Kontrollern hin bekomme soll es mir recht sein. Aber aktuell haben mir heutige SATA Kontrollersteckkarten, der niedrigen Preisklasse, eher enttäuscht. Und wenn ich teurere Kontroller nehme, dann kann ich auch gleich SAS nehmen und die features dabei auch in Zukunft nutzen. 10-15W fuer einen Kontroller fallen bei mir nicht so sehr ins Gewicht wie 200W füer dauerdrehende Festplatten. Deshalb suche ich erst einmal eine Lösung um mein jetziges Hardwareraidsystem mit weit mehr als 30 Ports gegen unraid oder so zu ersetzen um Spindown an einzeln genutzen Ports zu nutzen. Das spart schon viel Strom gegenüber dem aktuellen Zustand. Wenn ich das dann durch anderen Kontroller noch weiter senken kann ist es schön, aber bei meiner aktuellen Suche sehe ich erst einmal das Mainboard selber als primären Punkt. Nebenbei: netter Kühlkörper auf der CPU. Der ist aber wohl nur für kurzfristige Tests gedacht oder schafft er das auch langsfristig?
  14. Hallo @Ford Prefect Ich erwähnte ja, dass nicht nur große Festplatten sondern auch Kontroller mit hohen Portzahlen mit Chia preislich explodiert sind. Ich hatte Anfang Mai einen gebrauchten LSI 9305-24i für 361 Euro im Auge. Aktuell liegt er bei dem Händler bei über 700 Euro. Das ist sogar teurer als Neuware ab 530Euro, dafür ist es kurzfristig verfügbar.
  15. Hallo @mgutt Es ist für mich wünschenswert, daß ich jederzeit auf die Daten zugreifen kann. WOL oder Einschalten per ferngesteuerter Steckdose ist nicht der Weg, den ich gehen wollte. IP-Steckdosen nutze ich zwar um Stromverbrauch abzuschätzen und im absoluten Notfall aus der Ferne neu zu starten, aber ich würde bevorzugen, wenn sich die Festplatten etc. schlafen legen und die PC idle sind. Die Bootzeiten von 24 Festplatten sind unter unraid aktuell erheblich. Je nach Testkonstellation braucht es fast 12 Minuten um alle Platten und das Systeme zu starten. Beim Startvorgang scheint unraid jede Festplatte einzeln am Kontroller noch einmal neu zu suchen, finden und mit blinkendem Cursor initialisieren. Erst wenn das durchgelaufen ist erscheint der Bootscreen zur Auswahl wie unraid starten soll. Das ist zu lang um es täglich pro System mehrfach zu machen. Ich habe langjährige Erfahung schon von anfangs SIL über JMB und Marvel bis jetzt ASM mit Zusatzkontrollern gemacht. Wenn diese so verbaut werden wie vom Hersteller gedacht (nur wenige native SATA Ports) sind sie gut und flott, aber schlucken jeder einen PCIe Slot (sofern nicht onBoard). Mit Portmultiplier bricht die zeitgleiche Leistung naturgemäß zu sehr ein. Deshalb bin ich schon vor Jahren zu Hardwarekontrollern mit 16 oder mehr Ports an breiteren PCIe Anbindungen gekommen, die dann auch Raid unterstützen. Ich bin von 3Ware SATA über 3Ware SAS, Adaptec, LSI, Avago zu Broadcom gekommen (diverse OEM Variationen der wenigen LSI Chips mal unbetrachtet). Und bei SAS konnte ich die Zahl der verbauten Kontroller verringern, weil ich dann anstatt 3 oder mehr Kontroller nur einen mit mehreren Expandern nutzen und die Portzahl massiv steigern konnte. Das ist in Summe zu der jeweiligen Zeit sinnvoller/kostengünster gewesen. Damals konnte WIndows aber noch nicht so große Festplatten selber zusammenschalten, weshalb ich über die Raidfunktion dankbar war und bin. Leider laufen dabei aber die Platten ständig. Wie sind die 6fach SATA angebunden? Ich kenne das nur als PCIe 2.0 x2 Lösung. Ich habe mir Ende letzten Jahres von einigen asiatischen Verkäufern diverse 4fach und auch 6fach SATA Karten gekauft und dann mist zurückgegeben, weil diese schon allein in der Konstrukton Engpäße hatten, die sich auch in der praxis zeigten. 6SATA Ports zeitgleich selbst nur mit 250MByt/s pro Festplatte ueber elektrisch PCIe 2.0 x2 (an zur Tarnung physikalischer PCIe x4 Kontaktleiste) zu transportieren ist knapp. Daran zu denken SATA SSD daran voll auszufahren braucht man erst gar nicht. Und dann hatte der verbaute Chip auch noch 2 Portmultiplier dahinter geschaltet. Technisch war das dann 6 SATA an elektrisch PCIE 2.0 x2 realisiert mit ASM1062 mit nachgeschalteten 2Stück ASM1093. Auch haben viele Boards keine PCIe x2 Slots, wodurch man dann mindestens einen x4 Slot nutzt und damit 2 Lanes brach liegen, die man besser für etwas anderes nutzen möchte. Auch hatte mich eine Delock 89384 10Port schon vor Jahren enttäuscht, da sie auch nur ein ASM1062 mit 2 nachgeschalteten JMB575 ist. Mehr als 2-3 Festplatten gleichzeitig haben sich dann schon ausgebremst. Auch Marvell 88SE92xx ist für mehr als 2 Ports ein bremsender Faktor, auch weil dieser und der ASM1062 nur PCI 2.0 beherrschen. Mit PCIe 3.0 Kontrollern würde das Performanceproblem sinken, aber auch der JMB582 ist zwar PCIe 3.0 aber auch nur für 2 Ports da. Ich habe aktuell einen 4fach Kontroller mit einem ASM1064 bestellt und hoffe, dass er noch zollfrei (also diesen Monat) ankommt, weil ich mir da mit PCIe 3.0 x1 auf 4 SATA 6GBit/s Ports mehr gleichzeitige Performance verspreche. Auch haben Mainboards (nicht nur Miningboards) üblicherweise mehr x1 Slots frei (als X2 oder x4), was die Anzahl der nutzbaren Kontroller hoffentlich erhöht. Aber auch das ändert an dem zugrunde liegenden Problem nicht viel, daß unraid nur mit 30 Devices in einem Array umgehen will (+ Pools) und ich aufgrund der Preisexplosion bei Festplatten eben eine größere Anzahl kleinerer Festplatten einsetzen will. Da wäre schon ein Miningboard mit je einem 4Port SATA Kontrolelr in jedem PCIe x1 Slot erforderlich um alle >80 LFF+SFF Schächte anzusteuern. Mit 24 Disks bekomme ich mit aktuellen Festplattenbestand nur kanpp über 250TB Kapazität hin. Zu wenig. 3xx TB (anfangs eher so 310 TB, aber mit der Zeit steigend ) sind angestrebt mit bisher bestehenden Festplatten (8 bis 14 TB/Stück) pro System. Ein Testsystem mit 24 LFF habe ich mir ja schon aufgebaut um eben mit unraid zu experimentieren und zu sehen, was ich davon erwarten kann. Unraid ist eigendlich super für das, was ich getestet habe, auch wenn ich weiterhin blutiger Anfänger damit bin. Ich habe auch schon eine große Lizenz erworben (teste aber noch mit einer Testlizenz). Aber die 30 Devices Grenze hindert mich noch. Ich werde es zumindest fuer eine kleinere Lösung < 100TB bei mir einsetzen. Doch für die größeren Systeme (> 3xxTB) suche ich eben jetzt weiter. SSD Cache mache ich aktuell ueber PCIe Switch Karte mit 4 Stueck NVMe. Ist aber auch nur Testbetrieb. In dem kleinen System brauch eich diese Performance nicht. Da reichen auch diverse SATA SSD als Cache zusammengeschaltet. Danke. Ich vermute die 4x4 beziehen Sich auf Deine Variation mit mehreren kleinen Kontrollern. Siehe oben. Die so gearteten Kontroller, die ich bisher ausprobiert hatte (noch vorn unraid) waren alle nicht wriklich das, was ich suchte. Ich hoffe jetzt auf das 1064 Modell, weil man dann eben PCIe 3.0 x1 Slots nutzen kann. https://www.ebay.de/itm/304024635356 https://www.ebay.de/itm/303786039296 oder gleich als 5er Pack aus Asien https://www.ebay.de/itm/254837998794 aber da kommt dann noch Zoll usw hinzu. Dann sind auch normale Mainboiards geeignet, weil PCIe x1 als geschlossener Slot da oft vorhanden ist. 150MB/s sind jetzt schon ein Flaschenhals. Mit Schreib- und Leseraten im Außenbereich um 230MB/s sind die kleinen Karten auf PCIe 2.0 eben weniger das, was ich suche. Die Backplanes sind wegen dem Hotswap ein gerne gesehener Vorteil. Und normale gehäuse fuer ext. 24 HDDs sind seit Jahrenkaum noch neu zu bekommen. Zwangsweise musste ich schon auf 19" ausweichen. So ein preislich sehr günstiges Sharkoon Rebel 12 (ohne Fenster SchnickSchnack) mit ausgefräster Frontblende konnte per 5in3 Wechselrahmen mit 20 Festplatten von vorne zugänglich bestücht werden. Aber sowas scheint es ja nicht mehr neu und günstig zu geben. Aber selbst die günstigen Inter-Tech 24HDD 19Zoll Gehäuse sind seit kurzem nicht mehr verfügbar.
  16. Hallo @Ford Prefect Wie angedeutet erscheint für mich die Sache mit der Zusammenfassung der Hardware in einem System nicht das Selbe, wie die softwaremässige Aufteilung (die ich noch nicht ganz verstehe). So kann ich die Systeme später auch wieder splitten und Standalone benutzen oder verkaufen. Das könnte sogar ein NUC oder so sein. Aber ich schätze, daß ich da dann eben ein eher leistungsfähigeres System wähle um dann auch per VM zu arbeiten. Es sind aber alles bisher nur Gedankenspiele um einen Weg zu finden eine sehr grosse Kapazität an Speicherplatz im Netz zur Verfügung zu stellen. Mein Problem ist nicht, ein Rack mit vielen Festplatten zu nehmen. Eines meiner Systeme hat HotSwap für 75 LFF und 8 SFF Datenträger. Dazu noch M.2 Nvme einbau. Nur ist es eben ein Problem das mit unraid sinnvoll zu verwenden. Deshalb ja auch meine gescheiterten Versuche per Hardwareraid0 mehrere kleiner (beispielsweise 8TB) Festplatten als eine Große (16TB) unter zu schieben. Die Teilung der zusammen verbauten Hardware per Software und Virtualisierung durchblicke ich eben noch nicht und wenn ich es richtig gelesen und gesehen habe hängt es auch stark von der verwendeten Hardware ab, ob und wie man überhaupt teilen kann. Da ich die vorhandenen Daten anlassbezogen alle im binaeren Vergleich mit anderen Daten im Zugriff brauche (Windows: Clonesy) ist es erforderlich gelegentlich alles automatisiert in einem Rutsch erreichen und auslesen zu können. Ein LSI 930x liegt irgendwo bei 10-25Watt. Das ist mir bekannt. Da aber aktuell LSI 9361 mit SAS-Expandern in jedem meiner bisherigen Filesysteme verbaut sind und das Hardwareraid der 9361 die Platten nie schlafen legen kann, ist jedes System aktuell mit idle (manchmal in Summe ca. 20h pro Tag) rund 300w 24/7 und Volllast bis ca. 500W doch schon eher unökologisch. Wenn ich es mit unraid mache, legen sich die Festplatten idle schlafen. Selbst wenn jedes System dann idle bei 100W liegt, ist es weitaus weniger Stromverschwnedung als bisher. Dann nehme ich auch den Kompromiß im Kauf, daß ich Geschwindigkeit verliere. Auch deswegen erst einmal die Gedankenspiele und Ideen. Ich suche eben eine später umzusetzende Lösung für aktuell 3xx+ TB pro System. Aktuell nutze ich Windows 8von früher 7 bis nun 10), da aber die Storagespaces sich als unstabil erwiesen haben und es ansonsten mit Bordmitteln in Windows10 so nicht möglich ist, soviele Datentraeger als ein (zumindest paritätsgesichertes) Laufwerk sinnvoll zusammen zu fassen musste ich eine Lösung finden, die in Hardwareraidkiontrollern besteht. Diese Loesung ist bisher sehr stabil und problemarm. Aber die haben eben den Nachteil daß die Festplatten permanent durch laufen. Das habe ich schon getan (Du hattest es in einem Beitrag an mich schon einmal erwähnt). ich kannte es vorher nicht, habe aber die spärlichen Informationen der Webseite intensiv studiert. Ich sehe zwar, daß Stablebit die Daten duplizieren kann, was damit sogar doppelt soviel Speicherplatz erfordert, aber Parität oder gar raid6ähnliche Redundanz vermisse ich dort. Wenn ich damit richtig liege würde Stablebit pro System/PC somit die doppelte Speicherkapazitaet erfordern um eben immer einen oder zwei sofortige Festplattenausfälle abzufangen. Und um einen Systemausfall abzusichern müßte ein Backupsystem dann ebenfalls doppelt soviel Kapazität haben. in dem Fall sind die aktuellen Stromkosten weitaus eher zu verschmerzen. Die Sicherheit von Redundanz/Parität will ich fuer alle Nutzdaten. Deshalb haben meine jetzigen Systeme mehrere Raid6 Arrays. Pro ca. 100TB Kaoazität sind 2 weitere Festplatten nur für Parität vorgesehen.
  17. Hallo Allerseits. Da ich mit dem Ansatz "sehr viel Speicherplatz in einem unraid zu vereinen" aufgrund aktueller Preisexplosionen bei Festplatten & Multiportkontrollern (24i oder so) und auch der Mengengrenze der HDDs in einem unraid Array (30 sichtbare Festplatten/SSD) nicht weiter komme, will ich mal eine früher erwähnet Idee vertiefen: "die Kapazität mehrerer unraid nutzen". (Ich hatte auch schon überlegt & experimentiert einem Unraid einfach jeweils 2 Festplatten als echtes Hardwareraid zusammengeschaltet zu einer großen Festplatte anzubieten und das ganze dutzendfach. (siehe STARTECH.COM S322SAT3R Platine) aber Tests mit so einem Platinchen waren leider ernüchternd: - schwer zu beschaffen (sowas wird wohl nicht mehr als SATA produziert/entwickelt. Als USB ist es zu bekommen, aber dutzende USB HDD (beispielsweise ICYBOX IB-RD3621U3) als Array zusammen zu schalten ist vieleicht nicht die stabilste und stromsparenste Idee.) - läuft bei meinen Tests nicht stabil - erhöht die chaotische Verklabelung - beraubt mich einer sinnvollen SMART Nutzung und so weiter. Da mein Ziel die Stromersparnis im Idle gegenüber aktueller Hardwareraidlösungen mit dauerlaufenden HDDs ist, suche ich nun Mainboardvorschläge, die ich dann später vielleicht nutzen kann. Eine früher hier im deutschsprachigen Formumsteil genannte Idee basiert darauf mehrere Racks über SAS zu konnektieren und auf einem PC mit unraid 2 virtuelle unraid zu betreiben, die dann jeweils einen Teil der Festplatten verwalten. Sehr interessant, aber ich stehe der Idee die Festplatten aufzuteilen noch skeptisch gegenüber, weil ich die Sache mit dem zuweisen der Komponenten irgendwie noch nicht verstehe. Gleiches gilt dafür in einem PC merere Kontroller einzusetzen und diese zu verteilen. Das verschiebe ich mal vielleicht auf später. Ich überlege nun die Sache etwas als Hardware zu realisieren, weil ich das eher verstehe. Zwei getrennte leistungsschwache Systeme mit jeweils vielen Festplatten und RAM+SSD Cache, die dann über ihre Shares ihre Kapazität einem leistungsfähigeren dritten System anbieten und dieses über Netshare zusammenfasst und den Clients im Netz anbietet. Ja, ich weiß um die Möglichkeiten gebrauchter SAS JBOD 19Zoll Racks, doch bieten die preisgünstigen/gebrauchten JBOD die Platten wieder einzeln an, wodurch ich wieder an die Grenze der 30 unraid Festplatten/SSD stoße. Also suche ich nun Ideen für wenig stromverschwenderische PC Mainboards, die aber mindestens - 1 PCIe 3.0 x8 Slot für einen SAS/SATA Kontroller haben und - 1 PCIe 3.0 x4 Slot für 5 - 10GB LAN (oder 5 oder 10GBLan onBoard) haben. Nettes Features wäre - eingebaute Grafikfunktionalität, da ich für Installation, Debugging und evtl. spätere Weiterverwendung nicht ganz Headles unterwegs sein möchte - entweder ein paar freie SATA Ports f+r Cache SSD oder M.2 Slots für SSDs oder so. - weitere Ideen? Was ich bisher fand hatte meist irgendeinen Pferdefuß (spezielle Anschlußstecker oder -psitionen bei Industriemainboards, nicht ausreichende PCIe Slots, ungewöhnliche Bauformen, zwingend extrem teure Prozessoren, sehr teure Boards und so weiter... Da bei vielen hier ja der Einsatz stromsparender kleiner Komponenten in einem NAS im Vordergrund steht, dachte ich mir, daß ich nun nach tagelangem Suchen und lesen von Mainboardbeschreibungen hier Vorschläge bekommen könnte, da ich bestimmt so einiges noch nicht gefunden oder übersehen habe. Ich bedanke mich für die Zeit.
  18. Hallo @ich777 Verzeih, wenn ich es falsch ausgedrückt habe oder Dir auf den Schlips getreten bin. Das war nicht meine Absicht. Ich bin eben eher ein DOS/Windowskind und habe da nicht den Durchblich bei den anderen Dateisystemen. Die Tabelle ist recht ausführlich, doch verstehe ich eben noch nicht alles gut genug. Aber ich recherchiere eben auch dadurch weiter. Auch Dir weiterhin Dank!
  19. Hallo @Ford Prefect Korrekt. Als ich damals von MaxiTowern zu 19Zoll schwenkte, waeren diese fertigen 36HDD-Lösungen schon ohne Innereien aber zu teuer gewesen. Das sind sie meiner Meinung nach auch heute noch. Ich habe 19Zoll mit 24er Backplane Leergehäuse genommen, angepasst und bestückt. Ich gebe schon viel Geld für meine Hobbys aus, aber das ist mir dann doch zu teuer fuer nur ein (gut durchdachtes) Gehäuse. Meine Hardware stammt zu einem Großteil aus der Bucht. Ich muß zugeben, die Preise sind massiv gefallen, aber die Hardware habe ich nun schon mal. Irgendwann später vielleicht. Das habe ich für meine Systeme alles schon. Wie ich schrieb: Ich habe es schon auf Windowsbasis mit Raidkontrollern. Doch weil die Raidkontroller die Platten nicht schlafen legen ist der Stromverbrauch imens. Bei unRaid mit HBA scheint es ja zu klappen, so daß ich dahin schwenken will. Es ist also bei mir eigentlich keine Frage der Hardware, sondern eben der Fähigkeiten von unRaid mit mehreren oder größeren Arrays umzugehen. Ja, das habe ich gelesen. Ich könnte ja auch nach der Inbetriebnahme weitere Devices dazu schalten, doch macht es keinen Spaß bei jedem Start die immer wieder neu anzustöpseln. Wobei ich auch schon überlegt habe jeweils ein paar Festplatten in je einem ext. Gehäuse als Raid zusammen zu fassen und mehrere dieser Gehäuse dann als je ein Device unRaid anzubieten und darüber dann das Array zu bilden. Aber meine bisherigen Erfahrungen mit USB3.0 4HDD Gehäusen war schon eher ernüchternd. Das mag sich mit USB-C und höheren Transferraten gebessert haben, aber das wären alles wieder teure Neuanschaffungen und ein ziemliches Strippengewusel. Ja, das meine ich und genau das könnte mein Dilemma sein. Ganz davon abgesehen, daß ich aktuell immer noch mit unraid kämpfe. Weil ich es verkonfiguriert/zerschoßen habe, habe ich jetzt schon 3 mal das Testsystem neu aufgesetzt. Aber es wird langsam. Ich fange an mir Listen anzufertigen, was ich wie konfiguriere und wo etwas schief geht. Learning by doing Windows mit Hardwareraid nutze ich. Stablebit Drivepool lese ich gerade zum ersten Mal. Muß ich auch mal recherchieren. Danke auch Dir für Deine Mühe und Zeit!
  20. Hallo @Morrtin Das hatte ich schon gesehen und kam genau dadurch ja auf die Idee mit diversen Festplattenpools die 28+2 Grenze zu umgehen. Leider habe ich nicht bedacht, daß ich pro SMB Share wohl nur einen Cachepool einstellen kann, wodurch der erforderliche schnelle SSD Cache für das SMB Share nicht mehr nutzbar ist, wenn ich einen Festplattencachepool mit der Einstellung only da einbringe. Danke für den Hinweis!
  21. Hallo @hawihoney Okay, ich muß ausführlicher werden. a) Ja, ich habe mehrere Windows Computersysteme, die ich so zusammengebaut habe, daß darin jeweils mehr als 40 Festplatten in Wechselrahmen Platz finden und diese auch entsprechend über SAS Raidkontroller und Expander angeschlossen. Ich nutze sie als privates Datenlager und für Backups. Hierfür suche ich eine geeignete unRaid Lösung weil diese Windowssysteme wegen der Raidkontroller schon idle zu viel Strom schlucken. Windows muß aber für Dateioperationen und Management möglich bleiben, weshalb die VM Fähigkeit von unRaid sehr sympatisch ist. b) Desweiteren habe ich auch kleinere Windowssysteme und NAS und so weiter, die jeweils weniger Festplatten enthalten, welche ich aber eben auch überlege per unRaid zusammen zu fassen. Dafür habe ich ein System aufgebaut (19Zoll mit 24 HDD Einschüben), welches ich nun erst einmal zum Testen verwende. Da ich mindestens die zweite (b)) dieser Anwendungen umsetzen möchte schaffe ich mir ziemlich sicher eine uNraid Lizenz an. Wenn ich eine, für mich praktikable, Lösung für meinen Kapazitätsanspruch der großen Systeme (a)) finde, werde ich die größeren Systeme auch auf unRaid umsetzen. Aber aktuell sehe ich eben diesen Kapazitätsengpaß bei 28+2. Wenn ich das Geld hätte, würde ich es direkt mit neuen und sehr großen Festplatten aufbauen und dann wären 28+2 für einige Zeit kein Problem. Aber aus finanziellen Gründen muß ich mit den bestehenden Festplatten arbeiten und da ist 28+2 schon hart an der Grenze der momentan gewünschten Kapazität. Und ich möchte nicht darauf spekulieren, daß sich Festplattenpreise ab 12TB schon in den nächsten Monaten wieder beruhigen und auf das Niveau vor Chia fallen. Das ist eine Idee, die ich schon mal angedacht hatte, war mir aber nicht sicher ob das satbil sein wird. Aber Deine Erfahrung klingt beruhigend. Danke! Ich verstehe nur noch nicht, welche stabile Arraytechnik Du abseits von BTRFS meinst. Wie gesagt ist mir die Ausfallsicherheit von 2 Paritätsfestplatten und die einfache Erweiterbarkeit wichtig. Mit welcher stabileren Technik erreicht man das noch? MultiArray in unRaid - mein aktueller Wunschtraum. Bei den Kosten, die die Hardware bisher verursacht hat sind die Lizenzkosten für unRaid in meinen Augen zu verschmerzen. Dafür würde ich erst einmal Geld für überteuerte Riesenfestplatten einsparen. Wenn ich aktuell statt weniger neuer 16TB Festplatten eine Menge an vorhandenen 2, 3, 4 oder 8 TB Platten einsetzen kann, sind 1, 2 oder 3 unRaid Lizenzen finanziell guenstiger und können später ja auch vielleicht noch anders weiter benutzt werden, wenn wirklich multiple Arrays möglich werden. Hübsch aufgeräumt. Ich habe das bei meinen großen Systemen intern gelöst. Einfach mehrere 19Zoll Gehäuse zusammengeschraubt und intern verkabelt. Dadurch wurden Netzteile eingespart.
  22. Hallo @ich777 Ja, doch bei dem Array wird mit BTRFS ja auch auf die Loesung mit 2 Paritätsfestplatten vertraut Ich verstehe nicht, warum es als Pool auf einmal instabiler sein soll. Korrekt. Ich habe diese kleine SAS Festplatte nur günstig bei Ebay gekauft um Hardware auf SASkompatibilität prüfen zu können. Auch deshalb wurde sie zum Testen in unRaid eingesetzt. Mit ihren rund 75GB ist sie mir aber für später zu klein. Das mit dem englischen Forum werde ich mir mal überlegen. Es wäre zumindest schön, wenn sich in der Richtung etwas tun würde, damit ich mit meinem Hobby nicht unnötig Strom verschwende und die Umwelt dadurch weiter so stark belaste.
  23. Hallo. @ich777 Soweit ich es verstehe verwechsele ich Pools und Array nicht. Wie ich andeutete, will ich weitaus mehr als nur 28+2 Festplatten haben. Mir fehlt einfach das Geld um 30 mal neue 12TB oder größere Festplatten zu bestellen. Und selbst dann ist abzusehen, daß die Grenze irgendwann geknackt wird und ich wieder erweitern will. Aktuell mache ich das mit Windows und SAS Raidkontrollern mit mehreren Raid6 Arrays. Leider legt diese Lösung die Festplatten aber nicht schlafen, weshalb der Stromverbrauch je System schon idle sehr hoch ist (je Computer rund 380W 24/7). Ein unRaid System habe ich aktuell zum Test mit einem SAS HBA aufgebaut und es legt die Festplatten auch schlafen. Einziger Ausreißer ist bisher eine SAS Festplatte, die sich auch mit der SAS App nicht hinlegen will. Aber die ist sowieso nur zum Testen da. Wenn ich in unRaid 28+2 Festplatten in Array für meine Daten zusammen habe, fehlt mir weiterer Speicherplatz. Das darunter liegende Dateisystem ist mir egal. Doch den Anleitungen nach ist BTRFS für zukünftige Kapazitätserweiterungen sinnvoll. Da BTRFS im Array auch möglich und dort auch 2 Paritätsfestplatten einstellbar sind, hoffe ich vergleichbare Ausfallsicherheit auch bei den Pools zu erreichen. Deshalb mein Wunsch die Kapazitätsgrenze des Array durch zusätzliche Pools mit dieser Sicherheit zu erweitern. Zumindest die Kapazitätserweiterung über das Array hinaus scheint mir über die Share Einstellung Prefer oder Only machbar zu sein. Am liebsten hätte ich natürlich ein Array mit mehr als 28+2 Festplatten, so das ich alles in einem SMB Share für meine Clients freigeben kann. Ich kann auch damit leben, wenn es mehrere Arrays wären, die ich zu einem SMB-Share zusammenfassen kann oder schlimmstenfalls auch je ein SMB-Share. Die wohl ungünstigste Lösung wären wohl mehrere physikalische unRaid Systeme aufzubauen und diese dann zu einem SMB-Share zu koppeln. Andererseits reduziert das das Problem mit dem Anlaufstrom der Festplatten. Ich glaube zu verstehen, daß mit unRaid die Pools nur als Raid1 oder vergleichbar Raid5 realisiert werden können. Das habe ich gelesen, doch dabei geht es ja grundlegend um BTRFS. Ich bin mit Linux recht unbewandert, doch klingt es mir so, als wenn BTRFS mehr als 28+2 in einem Array zusammenfassen könnte. Ich glaube deshalb erkannt zu haben, daß mein vermutetes Kapazitätsproblem nicht in BTRFS begründet ist, sondern in einer Grenze/Beschränkung, die in unRaid gewollt ist.
  24. Hallo Allerseits. Wie ich schon einmal erwähnt hatte, bin ich noch in der Lernphase und übe mit unRaid um festzustellen, ob es sich für meine Zwecke eignet. Ich hatte es zwar schon von Anfang an vor, doch aufgrund der aktuell explodierenden Preise bei Datenträgern, wird es nun früher interessant mehr als die 28+2 Festplatten in einem unRaid System zu betreiben. So könnte ich vorhandene kleinere Festplatten weiter nutzen und muß nicht zu aktuell zu teuren neuen und größeren Festplatten greifen. Mein Budget ist etwas begrenzt, weshalb ich vorwiegend vorhandenes Equipment benutzen will. Ich habe zu Testzwecken schon ein Array aus mehreren Festplatten mit 2 Parityplatten gebildet. Dazu wurde ein Pool, bestehend aus 2 SSD als Cache, angelegt. unRaid hat aus den SSDs wohl ein Raid1 gemacht, was im Sinne der Datensicherheit sinnvoll ist. Seit den letzten Versionen kann man ja mehrere Pools mit ebenfalls je bis zu 30 Datenträgern anlegen. Nun überlege ich einen oder mehrere weitere Pools anzulegen um dort mit diversen kleineren Festplatten zusätzliche Kapazität in meinem Netzwerk als SMB Share anzubieten. Nur leider finde ich nirgendwo eine Option in der ich manuell steuern kann, wie unRaid diesen neuen Pool anlegt. Da mir die Daten wichtig sind und es eben doch auch recht viele gebrauchte Festplatten werden können würde ich für die weiteren Pools auch gerne 2 Paritätsplatten haben. Wie und wo kann ich einstellen, in welcher Art unRaid die Datenträger eines Pools zusammenfasst? Ich habe mich schon durch diverse Wiki, Anleitungen und auch die sehr informativen Videos von SpaceinvaderOne gekämpft, aber diesen Punkt finde ich einfach nicht.
  25. Hallo. Mein unraid Testsytem läuft mit dem selben aber neu erstellten USB Stick wieder. @mgutt Du hast recht! Das Startproblem lag wohl wirklich nicht an einem vermkonfigurierten USB Stick mit unraid, sondern an einer mit USB angeschlossenen Festplatte. Sie wurde entfernt und unraid startet. Warum diese Festplatte den Start gestört hat, weiß ich nicht, ist aber auch aktuell nicht wichtig. Es ist eben ein Testsystem, damit ich mit unraid warm werde und abschätzen kann ob es meinen Anforderungen und Wünschen auch angepasst werden kann. Deshalb habe ich die Hardware auch zusätzlich etwas erweitert. Um später 10GB Lan gut nutzen zu können ist wohl ein großer und schneller Cache wichtig, welcher dann regelmäßig auf die Festplatten moved. Zu diesem Zweck wurde die bisherige 1TB SATA 2,5 Inch SSD als cache entfernt und gegen eine PCIe ASM2824 Switchkarte mit 2 NVMe SSD zu je 2TB getauscht und als Cache eingerichtet (2 weitere NGFF Plätze sind noch frei). @ich777 Das bringt mich zu den Test des Treibers Tehuti-1.txz für die Netzwerkkarte TheCus C10GTR PCIe 2.0 x4. Ich habe mich genau an die Anleitung gehalten, erkenne aber nicht, daß die TheCus C10GTR darauf reagiert. Ich finde kein weiteres eth Gerät in den Network Settings und auch mit angeschloßenem Netzwerkkabel blinken Link oder Activity LEDs nicht. Eventuell bin ich als Windowsuser auch nur nicht erfahren genug um die Karte irgendwo in unraid zu finden. Unter Stettings/Network Settings sehe ich weiterhin die Onboard LAN 1GB Schnittstelle. Ich danke für die Mühe mit dem Treiber! Ich habe die Beiträge oben so verstanden, daß ich mit einer ASUS XG-C100C evtl. ohne weitere Zusatztreiber schneller an mein Ziel komme und werde die Karten dann einfach in Kürze tauschen. Unten hänge ich die gewünschte Ausgabe von lsmod als Textdatei an. Damit hat sich meine Frage zu der TheCus C10GTR erledigt. Ich danke Euch beiden für Eure Unterstützung! Für die wohl weiteren Fragen werde ich dann bei bedarf neue Beiträge starten. UNRAID-TEHUTI-2021_04_20.txt
×
×
  • Create New...