DataCollector

Members
  • Posts

    3378
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by DataCollector

  1. Zusatzkontroller in PCIe Slot. Es hängt davon ab, wieviele Ports Du brauchst und wie performant diese sein sollen. Je mehr Ports, desto eher nur Festplatten am Zusatzkontroller anschließen. Sollte es in Frage kommen: SATA SSD besser direkt an vollwertig angeschlossene Mainboardports anschließen. Ja, leider. Und da neuestmögliche Hardware für Linux eher weniger geeignet ist/empfohlen wird wird es eng. Ich überlege noch ob ich zum Maximalschlag aushole Xeon W-1290P oder es doch eine preislich günstigere Version sein kann. Das werde ich aber erst entscheiden, wenn das Board da ist. Wenn ich das nicht geliefert bekomme, muß ich komplett anders disponieren, da ich die Performance der 4-6 NVMe haben möchte (ich werde voraussichtlich einen PCIe Switch als Cache einsetzen). Das wird bestimmt schwierig. Wegen der geringen Verfügbarkeit habe ich doch die Tage bei 2 Händlern das Board geordert (ich will performante CPU mit ECC und viele PCIe Slots) und bisher noch nicht einmal eine verbindliche Lieferbestätigung/angedachten Liefertermin. Wie @mgutt mehrfach angedeutet hat ist das Board (wegen der Features) nicht so sparsam wie die mATX Variante. Ich werde damit leben müssen (wenn ich es doch noch bekomme), da ich eben diese Features zu brauchen glaube. Wegen der benötigten PCIe Slots ist die mATX Version für mich kaum geeignet.
  2. Sieht interessant aus. Die Bilder zeigen zwar ein Stromkabel, welches nicht zum Stromanschluß passen dürfte, aber das wird wohl nur ein Flüchtigkeitsfehler oder ggf. zu beheben sein. Fuer die paar Kröten würde ich es auch probieren. Ich drück Dir die Daumen, daß es mechanisch, elektrisch funktioniert und das BIOS/UEFI auch mitspielt!
  3. https://www.ebay.de/itm/254773508108 GA2HDMI VGA + Audio adaptateur câble adaptateur HDMI 7,20 + 5 Euro aus Spanien Ich kann zur Qualität nichts sagen. Aber auch VGA war generell schon mit FullHD möglich. Mehr und absolut professionelle Bildqualität und Farbkorrektheit ist nicht zu erwarten. Ist eben VGA mit Wandlerverlusten.
  4. Der Link führt mich zu keinem Produkt, sondern zu dem Wunsch Logindaten einzugeben.
  5. Ja. leider. Teilweise ein paar Minuten. Mir ist aufgefallen, dass es sogar sehr lange dauert, wenn Links enthalten sind. Ich habe mich daran gewöhnt und bediene dann das Forum in anderen Firefoxtabs weiter.
  6. Als ich damals (2014) meinen Netgear XS708E (V1) kaufte stand im Handbuch in einer Tabelle Cat5e 10Gb max. 55m. In einem späteren Download hatten sie es auf Cat6 abgeändert. Aber er hat lange Jahre Cat5e mit 10Gb stabil befeuert. Erst seit ich den Mikrotik 12 Port habe, wir der XS708E nur noch zum adaptieren benutzt (da der Mikrotik sich nicht mit meiner 10Gb QNAP NAS Karte vertragen will.
  7. ... in stromsparend. Der aktive PCIe Switch wird unter Last auch einiges an Strom verbrauchen (siehe den Kühlkörper) https://www.riitop.com/collections/msata-ssd-adapter/products/dual-nvme-pcie-adapter-riitop-m-2-nvme-ssd-to-pci-e-3-1-x8-x16-card-support-m-2-m-key-nvme-ssd-22110-2280-2260-2242-2230 "Chipset: ASMedia ASM2812, Supports Non-bifurcation motherboard" https://www.asmedia.com.tw/product/507Yq4asXFzi9qt4/7c5YQ79xz8urEGr1 "ASMedia PCIe product ASM2812... maximum 6 downstream ports packet switch... With upstream PCIe Gen3x4 bandwidth..." Die x8 Schnittstelle zum Board ist also wieder mal nur zur Show/Stabilität. Leider sind die TDP Werte bei asmedia für mich bisher nicht auffindbar. Aufgrund des Kühlkörpers sollte die Karte aber bestimmt einen Luftzug bekommen. Die JMB585 kommen mit ihrem geringeren Verbrauch dann noch dazu. Wenn man die Karte in einem PCIe3.0 x1 Slot betreibt, bleiben wirklich gleichzeitig nur ca. 100MByte/s pro Port übrig. Das erinnert mich an meine alten PATA LSI 24Port Raidkarten. Das kann man machen... Ich bin skeptisch, werde das aber jetzt nicht ausprobieren, da mir der Portcount zu niedrig ist.
  8. Hallo @Ford Prefect Digitus DN-81226 SFP https://www.digitus.info/en/products/active-network-components/sfp-technology/dac-cable/dn-81226-01/?pdf=1 "...AWG24 Twinax cable 10,52 Gbps supported rate Supported applications: 10G Ethernet (10,21Gbps), 10G fiber channel (10,52Gnps)..." Ich gehe bei dem Kabel von passiv aus, da sich die Beschreibung nur in dem Kabelquerschnitt von beispielsweise der 1m Variante unterscheidet. Digitus DN-81221 SFP https://www.digitus.info/de/produkte/aktive-netzwerkkomponenten/sfp-technik/dac-kabel/dn-81221-01/?pdf=1 "...AWG30 Twinax cable 10,52 Gbps supported rate Supported applications: 10G Ethernet (10,21Gbps), 10G fiber channel (10,52Gnps)..." Ja, soweit hatte ich es auch in Erfahrung gebracht. Da der Hersteller aber auch dickere Adern verwendet hatte, war ich nicht davon ausgegangen, daß man etwas unbrauchbares herstellt und verkauft. Naja, muß ich dann doch irgendwan mal testen. Ich habe eben mit SFP+ noch kaum Erfahrung. Mir geht es dabei hauptsächlich um die Stromeinsparung gegenüber 10GBiT/s RJ45 Ethernet auf lange/dauer Betriebszeit. Mir ging es um die erwaehnten passiven DAC. Danke!
  9. Hallo @Ford Prefect Meine Erfahrungen mit SFP+ sind noch sehr spärlich. Für meine Mellanox 10G Karte mit SFP+ hatte ich mich Mitte letzten Jahres mit verschiedenen SFP+ DAC eingedeckt (weil ich noch nicht genau weiß/wusste, wo ich das System hinstellen werde und dann flexibel sein wollte). Digitus DN-81222 SFP Direktanschlusskabel 10 GBit/s 2m Digitus DN-81223 SFP Direktanschlusskabel 10 GBit/s 3m Digitus DN-81224 SFP Direktanschlusskabel 10 GBit/s 5m Digitus DN-81225 SFP Direktanschlusskabel 10 GBit/s 7m Digitus DN-81226 SFP Direktanschlusskabel 10 GBit/s 10m Das längste Kabel ist 10m lang. Sollte ich dabei skeptisch sein?
  10. Hallo @jj1987 Also bei vielen Mainboards sind fuer die PCIe x16 zu x8x8 Schaltung extra kleine "Käfer"/Switchchips drauf, die das aufteilen/umschakten/switchen. Das ist aber kein im UEFI steuerbares Bifurcation. Aber Du kannst recht haben, Ich kann jetzt nicht sagen ob ich die nur bei Intel gesehen habe oder auch bei AMD. Ich schätze aber, daß die meist da anzutreffen sind, wo exzessiv viele PCIe Slots (im Vergleich zu den Möglichkeiten der CPU und des "Chipsatzes") verbaut sind. https://smallformfactor.net/reviews/motherboards/amds-am4-m-itx-platform-round-vrm-temperature-investigation/#The-Boards In der schon sehr in die Jahre gekommenen Tabelle sind die alten Boards X370GTN und AB350N-Gaming mit "Bifurcation (as tested)" mit 'no' gekennzeichnet. Wenn man zwingend Bifurcation will, muß man evtl. gezielt ein Board aussuchen. Ich würde dafür jetzt keien Garantie geben, kann es aber auch nicht widerlegen.
  11. Hallo @jj1987 Das hatte ich auch mal mitbekommen, daß es eben nicht bei allen Mainboards wirklich vollständig umgesetzt wurde. und deshalb finde ich auch Andeutung zu Bifurcation abenteuerlich, wenn dadurch der Eindruck entstehen könnte, daß es bei AMD generell geht. Das ist meines Wissens nach leider eine sehr individuelle Sache des jeweiligen Mainboardtypes, Firmware (BIOS/UEFI) und eben CPU. Aber das habe ich nur gelesen oder von Bekannten. Ich selber habe bisher nru einen Ryzen und das ist ein Notebook.
  12. Hallo @mgutt Tja, Bifurcation ist eben der große Knackpunkt bei vielen guenstigen und weniger energieintensiven Varianten. Die perfekte Lösung habe und kenne ich auch nicht. Aber bei so vielen ports und dem Fall, daß man die evtl. ab und zu wirklich alle gleichzeitig braucht, sind eben SAS-HBA weiterhin die eleganteste aber eben nicht stromsparenste Methode. Können alle AMD Mainboards der letzten Jahre wirklich von Hause aus Bifurcation? Selbst ECC, ist nicht bei allen Mainboards möglich, obwohl es bei Ryzen CPU ja der Charme ist, dass ECC mit in den CPUs drin ist. Ich stelle mir gerade den Igelartigen Kabelverhau bei der Karte vor. Aber irgendetwas ist ja immer
  13. Hier kommen dann diverse https://www.amazon.de/KALEA-INFORMATIQUE-Controller-Karte-CHIPSATZ-JMB585/dp/B078875K5Q/ ins Spiel. Aber dann wird es eben in Suimme teuer. Wenn es performant werden soll (aber eben auch nativ für NVMe): https://www.amazon.de/Controller-Karte-Profile-Chipset-ASM2824/dp/B083SRX7H3/ Man beachte, dass bei der Karte vorne und hinten ein riesiger 2 teiliger Alukoerper ist. Zusätzich vorne auf dem PCIe Switch eben der Quirl.
  14. Hallo @mgutt Ja, das wäre schon etwas besser/performanter. Aber die Erfahrung zeigt, das leistungsfähigere PCIe Switche wärmer werden. Meine KALEA PCIe30 mit elektrisch pcie x8 für 4SSD M2 NVMe mit ASM2824 würde ohne den aktiven Kühler zu warm werden. Irgendwo hatte ich auf Yutube auch ein paar Videos gefunden, die wohl aus dem Entwicklungprozess des ASM stammen. Die Kuehlkörper für nur den Chip waren riesig. Deshalb haben die Hersteller (Karte, nicht Chip) später dann wohl doch eher zu aktiven Kühlern gegriffen. (Alu und Kupfer ist teurer als ein Plastikquirl). Wie geschrieben: der wird alleine doch recht warm.
  15. Hallo @mgutt Okay, den Switch hatte ich noch nicht herausgefunden. Der Chip ist aber nur Gen 2 "upstream PCIe Gen2x4" "5Gb(500MB/s) per lane" Also kann die Karte nur 4 Lanes zu 500Mbit/s gleichzeitig transportieren. Das wären maximal 8 festplatten der ca. 250MByte/s Klasse (im Aussenbereich). Das erklärt, warum man so viele ASM1064 verbaut (man hätte auch ASM1062 nehmen können). Damit ist eien gleichzeitige Gesamtperformance der Ports gleichzeitig nur halb so hoch. Leider sind diese technischen Details der asmedia Chips zumindest für mich nicht erreichbar. 6* ASM1064 1* ASM1812 Der aktive Kühler wird schon seinen Sinn haben. Man beachte, der aktive Kühler sitzt zentral wohl nur auf dem PCIe Switch Chip. Rund herum sind gut sichtbar die kleinen Vierecke, die mutmaßlich die ASM1064 darstellen. Wenn ich richtig liege sind da allein für den PCIe Switch also in Spitze vermutlich so 5-10 Watt abzuführen. Da ist aus Sicht des Stromverbrauches der Schritt zu einem SAS HBA vermutlich nicht mehr weit. Bemerkenswert finde ich auch, daß man eine PCIe x16 Anschluß ohne EInkerbungen für kleinere Slots verbaut hat. So braucht man dafür immer einen PCIe x16 Slot (oder ein ruhiges Haendchen und einen Dremel oder so ). Elektrisch scheint der ASM1812 ja nur 4 Lanes zu nutzen. Nebeninfo: Witzig finde ich, daß ich bei der Suche einen ASM1812 gefunden habe, aber das ist nru ein Transistor aus dem Jahre 2005 der "Alliance Semiconductor".
  16. Hallo @mgutt Sie sieht zumindest besser aus. Besonders sparsam wird sie aber auch nicht sein, weil die 5x ASM 1064 irgendwie an den PCIe angebunden werden müssen. Da der PCIe Bus sich nicht so einfach aufteilen läßt (Stichwort Bifurcation) muß unter dem aktiv belüfteten Kühlkörper noch mehr Technik sein. PCIe Switche sind nicht sehr sparsam und billig. Da stellt sich die Frage, ob ein SAS HBA nicht vergleichbar (und ausentwickelt) ist. Ob die etwas taugt, muß man in der Praxis ausprobieren. Seit ich bei einer meiner ASM1064 basierten Karte festgestellt habe, daß diese Karte bei benachbarten offenen Ports/Kabeln empfindlich ist (ich aber noch nicht weiß ob es nur an meiner Karte liegt oder am Chip), sehe ich ein solches Konstrukt noch skeptisch, wenn man nicht permanent alle benachbarten Anschlüsse belegt.
  17. Hallo @mgutt Nur als ergänzende Meinung: JMB585 PCIe Gen3 x2 to x5 SATA 6Gb/s. Die Karte läuft also auf 2 PCIe 3.0 Lanes, schafft also maximal rund 2 GByte/s. Die JMB5757 sind 1to5 Portmultiplier. Ich glaube ich erzähle Dir nichts Neues, daß Portmultiplier bei unraid nicht als problemlos angesehen werden. Ich hatte 2016 eine vergleichbare Konstellation (bevor ich unraid kannte) in Form einer DELOCK 89384 10Port SATA3 Karte (basiert auf ASM1062 PCIe 2.0 x2 mit mehreren JMB575). Nein, ich habe mich damals dagegen entschieden, weil bei der Delock schon bei gleichzeitigem Zugriff auf 3 Festplatten die Performance zu stark abfiel. Der JMB585 ist etwas neuer, aber 24 Disks darüber anzuschließen wird spätestens sehr stark bremsen, wenn beispielsweise Parität für alle Platten im Array kontrolliert/erstellt wird. Auch wird wieder ein PCIe x4 Slot nur zur Hälfte benutzt. 2 Lanes liegen brach.
  18. Hallo @chrizzo Ich habe jetzt nur grob überflogen, was hier von Dir angedeutet wurde. Mir erscheint das Netzteil mit 1100W überdimensioniert gewählt, aber wenn Dir die Verluste egal sind oder Du noch weiter aufrüsten willst kannst Du es nehmen. Ich würde mal pauschal grob so rechnen: Da Du bei der CPU ins hohe Regal greifen willst: 125W (+ ein bisschen Tolleranz) Mainboard +Ram: 50W Graka 1060 OC: 150W (+OC Tolleranz) Graka 1070 OC finde ich nicht; Scheibfehler? Vielleicht ist eine 2070 gemeint?: 215W (+OC Tolleranz) Ein paar Lüfter: 30W 7 HDD: 105W ein paar SSD: 40W Das kommt irgendwo bei der Summe von 715 Watt (+die erwähnte Tolleranz) an, wenn ich nichts vergessen habe. ==== Noch ein bisschen Reserve eingeplant: Vielleicht ein aktuelles Corsair RM850x Netzteil ausprobieren? Wie @mgutt schon angedeutet hat: Beim booten ziehen die Festplatten einen hohen Anlaufstrom, aber die Grafikkarten ziehen dafür nicht so viel. Es ist unwahrscheinlich, daß alle Komponenten gleichzeitig alle ihre maximale Last aufbringen.
  19. Hallo @mgutt Da ich mich bei Xeon immer noch nicht wirklich auskenne. Wie sieht es eigentlich mit dem Xeon W-1290E aus? (bei ebay gerade für ca. 360 Euro gesehen) Der taktet doch nur ein bisschen niedriger (bei geringerem TDP), sollte aber doch ansonsten die selben Features haben, oder habe ich da etwas übersehen? Ich frage, weil der Händler bei ebay die angeblich als widerrufs-Rückläufer verkauft. Und da frage ich mich, weil der aktuellen Versorgungslage, warum gibt man den zurück? Weil man spontan doch noch ein paar Xeon W-1290P sehr billig bekommen konnte?
  20. Hallo @snowy00 Veileicht kommst Du auch von KEY A/E zu Key-M weiter? https://www.amazon.de/KALEA-INFORMATIQUE-Konverter-Stecker-Adapter-Cable/dp/B07887N7RH In letzter Zeit haben diese Franzosen (Kalea) diverse interessante Produkte (vermutlich nur umgelabelt von ausgesuchten chinesichen Produkten). Ich habe das Ding nicht, aber es wäre möglich, daß man darüber dann mit einem simplen M.2 Key-M auf PCIe x4 Adapter weiter machen kann. Ein ziemliches Gebastel, aber vielleicht bringt es Dir etwas.
  21. Hallo @b_tob Nein. Aber dann bleiben für das Array in der aktuell offiziellen Version nur noch maximal 28 Devices übrig. Der Rest kann aber in einem oder mehreren Pools platziert werden. ... nur so, falls es Dir bei Deiner Sammung um viel Platz geht. Ich baue gerade ein System, welches recht viel Platz bietet und da Parität einiges an Schreibgeschwindigkeit schluckt, habe ich im Array alle bis auf 2 Stück Festplatten ohne Parität eingebunden. Wenn das System dann befüllt ist, werde ich die Parität nachträglich erzeugen lassen und dann binaer prüfen ob auch alles korrekt angekommen ist.
  22. @hawihoney Wie Du es herausfinden kannst: Wenn im BIOS/UEFI dazu keine PCIe Einstellungen zu finden sind, ist die Chance gering. Was sagt der Mainboardhersteller Support dazu? Nein, leider bieten nicht alle modernen Systeme dies. Aber je teurer/Server, desto eher ist es möglich, aber eben nicht zwingend. Schlimmstenfalsl eien Bifucation Karte kaufen, einbauen und freuen oder fluchen und zurückgeben (Fernabsatz/Widerruf). Bei Mainboards, die das nicht unterstützen und die man beispielsweise mit mehreren NVMe oder so versorgen will, kommen dann eben PCIe Switchkarten ins Spiel, die aber einiges an zusätzlichem Strom schlucken. Ich nutze eine PCIe Switchkarte, die einen ASM1064 verwendet und in einem elektrischen PCIe 3.0 x8 Slot bis zu 4 NVMe als einzelne Laufwerke anbinden. @mgutt hatte vor kurzem einen PCIe Switch bei AliExpress gepostet, welcher per Plex Chipsatz vergleichbares für PCIe 3.0 16 auf bis zu 8 Anschlüße bietet (vgl. Die Firma LSI /Avago/Broamcom hat schon länger aber weitaus teurer entsprechende Kontroller im Angebot).
  23. Hallo. Dem kann ich nur zustimmen. Um mein System erstzubefüllen (seit nun schon einigen Tagen) nutze ich parallel den MC unter Firefox und krusader/ich777. Alle ca. 1,5 Tage Dauerdatentransfer von remote zu Disk(s) friert der Firefox ein, so daß der MC und die WebGUI des unraid nicht mehr reagieren. Anfangs dachte ich, das unraid selber abgeschmiert sei, aber das war und ist gar nicht der Fall. Anscheinend ist es wirklich immer nur der Firefox. (Edge habe ich noch nicht sehr lange ausprobiert, aber Edge bekommt bei mir Probleme nach einiger Zeit, wenn man mehrere MC Terminals gleichzeitig öffnet und mit beiden jeweils mehrere TB transferiert hat. Dann schmiert ein Edge Terminal mit MC ab und erneutes öffnen eines MC bringt nur einen sehr verzögert reagierenden MC im Terminal zustande.) FF geschlossen und neu gestartet und weiter geht es ohne unraid selber neu starten zu müssen. Der ebenfalls laufende krusader rennt die ganze Zeit kontinuierlich durch. Anfangs hatte ich den krusader auch über die Docker WebGUI gesteuert und gedacht, daß der auch angestürzt sei. Doch seit ich den krusader über RealVNC direkt von einem anderen PC steuere weiß ich, daß er (und unraid) stabil weiter läuft, wenn der FF auf dem steuernden PC eingefrohren ist. Leider werde ich im krusader aber die Kapazitätzprüfung nicht los, so daß es immer einiges an Handarbeit erfordert, wenn ich Disks (nicht shares) bis zu einem bestimmten Füllstand vollpumpen will. Deshalb parallel mit dem MC. Mit dem Krusader kann ich grob abschätzen, wieviel TB man auf eine leere Disk kopieren wird, aber wenn die eben fast voll ist, steuere ich mit MC nach und lasse parallel den Krusader auf die nächsten Disks los.
  24. Hallo @mgutt Eine 3,5Zoll Festplatte braucht 5V und 12V. SATA sieht auch 3,3V am Stecker vor und WD benutzt diesen Kontakt auch aktiv am Pin3 für sein idle feature. Wenn das Netzteil nur noch 12V bereit stellt und man nicht alle Festplatten über das Mainboard versorgt, wie soll ein 12V only Netzteil dann die Festplatten mit 5V und 3,3V versorgen, die sich eben aufgrund hoher Last nicht alle über das Mainboard versorgen lassen? Dies würde erfordern, daß man mit dem Netzteil und Mainboardtausch auch die teilweise weitaus teurere Grafikkarte gleich mit austauscht. Ich sehe da noch eine Übergangszeit, die aufgrund der Preise der Komponenten, recht lange bestehen wird.
  25. Hallo @mgutt Das befürchte ich. Ich vertraue der Mainboard Wandlung aber nicht genug Leistung zu um 20, 30 oder gar 70 Festplatten zu betreiben. Auch sind Grafikkarten keien Kostverächter und man bräuchte schon einiges an Kupfer in den Mainboards um die Leitungen durch die Boards zu den Grafikkarten zu transportieren. Ich kenne Businesskonstellationen bei denen das Netzteil nur noch das Mainboard versorgt und von dort alles ab geht und es sind kaum verläßliche Informationen zu bekommen wieviel Last man an die Anschlüsse hängen darf. Und dann noch die teilweise sehr eignene Stecker für die Verkabelung bei IBM, Lenovo, Delll und so weiter machen es auch nicht einfacher, die Hardware über die ursprungskonfiguration hinaus weiter aufzurüsten. Es hat einen Grund, warum Netzteile ab 500W aufwärts da viele Anschlußkabel und einiges an Technik drin haben. Und da unraid ja primär als NAS gedacht ist, gerne aber auch mit mehr GPU ausgestattet wird, wären es ein noch größeres Problem damit ein großes NAS oder ne Multi Gamemaschine mit PC Technik aufzubauen. Ich sehe noch nicht, daß für unsere Spartenanwendung 12V only Netzteile mit Resterzeugung auf dem Mainboard eine gute Lösung ist. Ich schätze, es wird sich ein Markt für "12V to other" Zusatzplatinen auftun und der wird aufgrund der kleinen Nische teuer werden.