Jump to content

DataCollector

Members
  • Posts

    3,967
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Hallo @mgutt Das habe ich gelesen, aber das past ja genau. ich schrieb mit Absicht x16 mechanisch, weil ich elektrisch weniger brauche und das genau passt: Meine aktuelle Bestückung ist elektrisch weniger anspruchsvoll und ist auch der Ansatzpunkt, der dann so oder ähnlich auf das Xeonboard kommen würde (solange mir kein HBA mit noch mehr Ports zuläuft). Der erwähnte HBA ist ein ADAPTEC/Microsemi-72405 und hat x8 elektrisch+mechanisch für 24 SATA/SAS Ports. Der erwähnte PCIe Switch (KALEA PCIe3 Controller f. 4SSD NVMe an ASM2824) hat x8 elektrisch, aber x16 mechanisch. Die 10GBLan wäre entweder eine Mellanox ConnectX-3 CX311A oder eine ASUS XG-C100C und die haben beide nur PCIe x4 elektrisch+mechanisch. Durch die Wechselwirkung der M.2 und des einen PCIe Slots habe ich dann die Wahl ob ich eben eine NVMe SSD M2 dort einsetze oder doch noch eine Steckkarte (für SATA). Der zweite M.2 PCIe bliebe dabei ja weiter nutzbar. Der PCIe Switch stützt 4 NVMe SSD. Dazu die eine auf dem verbliebenen M.2 Port, das sollte 5 nutzbare M.2 NVMe SSD ergeben und erst einmal ausreichen um auch die 10GBLan längerfristig als Cache zu befeuern. Daß die großen Bords wegen der Ausstattung etwas mehr Strom schlucken als das uATX ist mir bewusst. Ich kann zwar nicht sagen, wieviel, aber da ich viele PCIe Lanes will/brauche habe ich nichts anderes passendes gefunden. (Da hatte ich das SuperMikro von hawihoney noch nicht gefunden/gekannt, Aber da fehlen mir in meiner Planung auch SATA Ports und ich müßte somit einen anderen HBA oder einen SAS Expander einplanen. Das schluckt auch wieder mehr Strom.) Deshalb hatte ich auch erst mal an einen Thgreadripper gedact, welche es ja mit mehr und flotteren PCIe Lanes gibt, aber die hier öfters erwähnte Problemtik der nicht/schlecht nutzbaren iGPU würde dann auch wieder einen Slot fressen und dann hätte ich kaum einen Vorteil, selbst wenn ich eien PCIe x1 GPU nehme. Momentan teste ich in meinem System mit einem Fujitsu D3644-B + i3-8100 und 64GB ECC Ram und zwei der erwähnten PCIe Steckkarten (HBA Adaptec + Asus 10GBLan) + einer ASM 1064 PCIe x1 und einem M.2 Key A/E JMB582 + 7x 18TB & 11x 16TB Festplatten, + 4 SATA SST 2TB, + 1 NVMe SSD 2TB in einem umgebauten Gooxy-RM4124-660 4U Gehäuse indem ich es eben erst einmal Erstbefülle (ausgeschalteter SSD Cache um die nicht gleich zu verschleißen). Wenn gewüscht kann ich ein paar Fotos liefern. Das würde bei dem Board nur begrenzt etws bringen, weil es gerade wegen der Stromsparsamkeit nicht alle der zulässigen Xeons voll nutzen kann. Schon bei einem I3-9100K sind in der Beschreibung Einschränkungen erwähnt. Und wenn ich schon so viel Geld wieder in die hand nehmen würde, dann bitte auch gleich eine bessere PCIe Nutzung. Stromsparender als mein aktueller auf PC Technik mit Win10 und Hardwareraid basierende Heimserver mit dauernd durchlaufenden Platten wäre es in den idle Zeiten bestimmt. Auch sehe ich da wegen den fernen Zeithorizont keinen Druck. Wenn dafür geld da ist einfach bestellen und warten ob der in 1/2 Jahr geliefert wird. Und wie schon agedeutet: Das ist bisher alles nur Gedankenspiel, da ich das Geld zur Zeit sowieso nicht habe. Erst wird die HDD Kapazität noch etwas gesteigert bis ich alle Daten da drauf habe und abschätzen kann ob es wegen der 30er Festplatten im Array Limitierung von unraid und den Geschwindigkeitsverlusten beim Zugriff eine Sackgasse ist oder ob unraid wirklich eine Lösung für mich an der Stelle ist. Ich habe das alles bei vorherigen kleiner angelegten Tests einfach nicht abschätzen können, weshalb ich hier nun den einen Praxistest mit Realdaten möglichst im Originalumfang durchführe. Wenn sich dabei herausstellt, daß ich von der internen VM nicht vergleichbar bequem und schnell den kompletten Datenbestand bearbeiten kann, oder ich dann bisher unbedachte andere Einschränkungen bei der unraid Maschine finde, kann ich alles bisher einfach in eine W10 Maschine Recyclen und spare zumindest aufgrund der großen Fstplatten darin etwas Strom gegenueber der vorherigen W10 Konstellation mit eben kleineren und zahlreicheren Festplatten. Danke, das hatte ich noch nicht gesehen/gefunden. Danke auch für Deine Denkanstöße.
  2. Hallo @hawihoney Ich habe mir die Daten des vorgeschlagenen SM-Mainboards angesehen und es steht bei den PCIe Slots dem Gigabyte kaum nach. Die erwähnte 10GBLan Karte wäre bei mir nur PCIe x4 und somit könnte ich die selbe angedachte PCIe Steckkartenbestückung ermöglichen. Supermicro X12SCA-F (2 PCIe mechanisch x16, 1 PCIe x4, 2 M2 PCIe, 4 SATA) Es wären aber nur 4 SATA drauf. Das ist nicht gravierend, da ja auch ein HBA vorgesehen ist, aber der hat aktuell nur 24 Ports und bei einem höheren Preis des SM Bords dann ein bisschen weniger an Ausstattung wäre für mich zu bedenken. 6SATA würde ich schon sehr sympatisch finden. Zu Deinen Bildern: als ich vor Monaten meine 300TB+ Idee hier ansprach, hatte ich ja noch das Problem mit auch 30+ HDD in einem Array und da erwähntest Du Dein beeindruckendes System mit den 3 Unraid Maschinen schon mal grob. Dahingehend konnte ich zum Glück mit viel Zeit, Bastelei und einigem Geldeinsatz meine Vorstellung auf ein Gehäuse mit einer unraid Lizenz konsolidieren. Aktuell habe ich das ebenfalls schon mal erwähnte Gooxy 4U Gehäuse auf max. 30HDD, 4 SATA SSD und 1 NMVe SSD umbauen können. Bestückt sind zur Zeit aber nur 18 HDD und ich habe damit schon knapp über 250TB. Somit sollten die 300TB+ in der einzelnen Maschine machbar sein. Wieviel Speicherplatz ich genau brauche um die bestehenende 300TB+ Windowsmaschine zu ersetzen kann ich erst sagen, wenn ich alles transferiert habe, da die Windowsmaschine mit 7 Hardwarearrays (Raid5 und 6) die Daten anders aufteilt. Bei Unraid geht das alles an einem Stück. Das ist aber eben aufgrund der doch großen Menge an Speicherplatz und angedachter Anwendungen eben nur ein Realitaetscheck/Test mit vorhandener Hardware/CPU (I3-8100), weil ich eben erst einmal herausfinden will ob unraid damit nicht doch an der einen oder anderen Stelle ins Straucheln auf der CPU kommt. Schon die Checksummenberechnung auf mehreren Platten gleichzeitig bringt die I3 CPU an die Grenzen, weshalb ich auch die CPU Kühlung heute Nacht von Intel boxed Kühler auf 180W Tower Kühler umbaue (180W laut Hersteller ist zwar weit überdimensioniert, aber evtl. kann ich dann bei vorhandenem Gehäuseluftstrom die CPU Lüfter abschalten/entfernen und habe damit immer noch genug Luftzug.) Falls die Rechenleistung der I3 doch zu schwach ist habe ich dann eben die Sachen mit dem Xeon aufgeschnappt und überlege im Hinterkopf schon weiter/neu. Aufgrund der vielen PCIe Lanes haette ich zwar lieber einen Threadripper, aber wichtiger ist mir die Kompatibilität auch mit einer iGPU, da ich sonst doch wieder einen PCIe Slot für eine GPU opfern müßte. Danke für Deinen Vorschlag, der kommt mit auf den Zettel und wird weiter überdacht.
  3. Hallo. @ich777Natürlich darfst Du fragen. Es ist, wie schon ab und zu mal angedeutet hatte: Eigentlich will ich meine Win10 Kiste (Heimserver basierend auf PC Technik mit Megaraid 9361) mit 300+TB Datenkapazität stromsparender gestalten/ersetzen/ergänzen. Mit der alten Kiste lasse ich unter Win10 neue eintreffende Daten mit clonespy gegen den vorhandenen Datenbestand laufen um binär identische neue Datein zu verwerfen. Zusätzlich fertige ich von den Dateien in jedem Verzeichnis Checksummen an um bei gelegentlichem Prüfen Fehler/Bitrot zu entdecken und mit dem Cold Backup aus einem anderen System auszuhelfen. Die gerade im Test befindliche unraid Maschine (aktuell mit I3-8100 64GB ECC Ram) hat schon rund 250TB Kapazität und ich befülle sie gerade das erste Mal. Und da ich so nette Sachen wie Dynamix File Integrity gefunden habe und das mir als Pruefung gegen BitRot sehr sympatisch erscheint (auch wenn ich die Arbeitsweise der App noch nicht so ganz verstehe und noch teste) habe ich festgestellt, daß ich ab und zu schon recht viel Leistung brauche. Das ist dann aber eben nur sporadisch. Sollte ich die Maschine wirklich mit dem Xeon oder so ausstatten, dann wäre es wohl meine leistungsstärkste Maschine in meinem PC-Fuhrpark. Somit würde ich wohl auch zukünftig vermutlich meinen Videoschnitt und vielleicht aus Platzgründen Videorecoding in W10 VM darauf betreiben. Sollte ich mal neue Software testen, wären später auch weitere VM interessant, die ich dann dafür hernehme. Aktuell teste ich neue/unbekannte Software auf anderen PC in einer VirtualBox VM um mir meine bestehenden Systeme nicht zu sehr zu versauen. Aber wie gesagt sind das überwiegend noch nur Gedankenspiele. Aktuell baue ich eben das System mit em I3 und versuche festzustellen ob nicht schon die Verwaltung der 300+ TB nicht schon etwas viel sind.
  4. Hallo Allerseits. Ich teste zwar gerade mein neues System (I3-8100), aber befürchte, daß unter Last die CPUleistung nicht ausreichen wird. Auch deshalb lese ich bei diversen Vorschlägen und Beiträge mit und bin auf diese Empfehlung des Intel Xeon W-1290 gestoßen (wegen ECC). (Leider kenne ich mich bei Xeon so gar nicht aus und blicke auch nach einigen Artikeln im Netz und Wikipedia mehr schlecht als recht durch die Bezeichnung durch.) Dazu nehme ich mal die Aussage, dass Kerne, die idle sind kaum Strom verbrauchen: Frage: Macht es im Idle so viel Unterschied, ob man Intel Xeon W-1290P (125W) wohl nur als Tray ohne Garantie oder Intel Xeon W-1290 (80W) boxed nimmt? Das sie unter Last recht unterschiedlich sind ist klar, aber die meiste Zeit wird das System kaum etwas zu tun haben/idle sein. Beide scheinen ja für den W480 Chipsatz gedacht zu sein. Deshalb schaue ich gerade nach passenden Mainboards. Ich weiß, daß hier gerne das GIGABYTE W480M Vision W empfohlen wird, doch würde ich etwas mit mehr PCIe Slots bevorzugen, weshalb ein uATX Board mir weniger sympatisch ist. Da gibt es ja dann auch die Varianten GIGABYTE W480 Vision D (scheint gut verfuegbar zu sein, ist aber mit 350 Euro nicht billig) 3x PCIe mechanische x16 Slots, 3x M.2 mit PCIe, 6SATA, 2 Thunderbolt, Wifi GIGABYTE W480 Vision W (scheint kaum zu bekommen zu sein, aktuell aber mit 270 Euro etwas billiger) 4x PCIe mechanische x16 Slots, 2x M.2 mit PCIe, 8+2SATA, 1 Thunderbolt Header Wenn ich die gegeneinander vergleiche erscheint mir die Variante W mit den 4 PCIe Slots für Erweiterungskarten (HBA, PCie Switch ASM2824 für bis zu 4 M.2 NVMe, 10GBLan) und 10 SATA Ports recht sympatisch zu werden. Habe ich da einen Haken übersehen, der gegen das Board spricht? Ich bedanke mich für sachdienliche Hinweise und Vorschläge. P.S.: Bei den Preisen muß ich die Vorstellung sowieso noch etwas reifen kassen und das Geld ansammeln lassen. Es ist also keine Ad Hoc Vorstellung meinerseits und könnte zwischen 1/2 Jahr und nie realisiert werden.
  5. Hallo. Hat sich erledigt! Nur zur Info, falls auch jemand anderes mal auf dem Brett steht und dies sucht. Während PreClear läuft kann man das fragliche Device (hier DEV 6) nicht direkt us dem Main Tab anklicken. Aber ich habe Dev 1 angeklickt und bin dann mit den Pfeilbuttons weiter zu Dev 6 gesprungen. Und dort stand meien vermutung klar bestätigt. Die Platte läuft aktuell nur mit 1.5GBit/s. Jetzt muß ich nur herausfinden, warum das der Fall ist. hab wohl an einem falschen Kabel gewackelt. Hier dazu zwei Bildausschnitte. 1. Ansicht der Platte sdt Dev6 im Main Tab während Preclear läuft 2. Ansicht der Details des Dev 6 (ziemlich weit unten). Schönen Tag noch.
  6. Hallo. Kurzform: Frage: Kann ich in/mit unraid irgendwie abfragen, mit welchen Schnittstellengeschwindigkeiten die jeweiligen Datenträger aktuell angesprochen werden? Langform: Wie schon erwähnt baue ich gerade eine unraidmaschine für massiv viel Speicherplatz auf. Die verbauten Festplatten werden vorher per PreClear (Nullenr+Postread) getestet (zum Test der Festplatten und der Stabilität des ganzes Systemes). Aktuell habe ich 4 baugleiche ST18000NM000J-2TV103 (Seagate Exos 18TB) an einem ASM 1064, welcher mit PCIe 3.0 x1 nur maximal 1GByte/s abtransportieren kann. Dabei hatten alle 4 Festplatte bei einem frueheren Preclear Schreibraten von 270MByte/s bis herab zu 130MByte/s erreicht. Ich schätze im Rahmen der Tolleranz passt das schon, aber kratzt eben an der Grenze des maximal Machbaren bei gleichzeitigem Betrieb. Ich hatte den Preclear aber vorzeitig abgebrochen, da ich weitere Umbaumassnahmen durchführen wollte. Um die Festplatten auch im Aussenbereich nicht auszubremsen habe ich eine der Festplatten an einen anderen Kontroller gehängt (JMB58x AHCI SATA controller M.2 2230). Nun ist bei einem erneut gestarteten Preclear eine der verbliebenen 3 Festplatten am ASM 1064 auffällig langsam und kommt auch im Aussenbereich kaum über 130MByte/s heraus (Angabe von Preclear). Ich befürchte: aus irgendeinem Grund ist die Schnittstelle von SATA3 (6GBits/s) abgewichen (vielleicht SATA1?). Frage: Kann ich in/mit unraid irgendwie abfragen, mit welchen Schnittstellengeschwindigkeiten die jeweiligen Datenträger aktuell angesprochen werden? Betrifft bei mir diese Kombination: Intel i3-8100 CPU @ 3.60GHz FUJITSU D3644-B1 Version S26361-D3644-B1 64 GB DDR4 Single-bit ECC SATA controller: ASMedia Technology Inc. Device 1064 (rev 02) ST18000NM000J-2TV103_ SN02 /dev/sdt 18.0TB Seagate Exos Danke!
  7. Hallo @Jens2601. Was meinst Du mit "auch aus dem Netzwerk geht"? Laeuft der unraid-PC weiter? Wenn Du lokal an dem unraid-PC einen Bildschirm angeschlossen und eine Tastatur dran hast: Leertaste einmal drücken. Wird dann der Screen wieder sichtbar und Du sieht den Boottext? Ist die dort angezeigte IP Adresse korrekt? Ohne, dass ich jetzt eine handfeste Idee habe, klingt mir das, als wenn da irgendeine Stromsparfunktion greift oder evtl. die IP Adresse verloren geht oder so? Könntest Du vielleicht ein bisschen mehr und genauer beschreiben, was Du da wie eingerichtet hast? Vielleicht fällt dazu jemand mehr ein.
  8. Hallo @willi.butz Ist zwar schon länger her, aber die Situation hat sich nicht verbessert: https://toshiba.semicon-storage.com/eu/storage/support/faq/storage_faq-02/storage-Warranty-RMA_01.html "For warranty service, the drive basically should be returned to the dealer from which it was purchased" https://toshiba.semicon-storage.com/eu/storage/support/warranty-support.html "Warranty & Support Europe ... 2.If you bought the Toshiba Hard Disk Drive from a shop, then guarantee claims can only be made with the shop which sold you the drive." Habe bei MF mehrere MG07ACA12TE, MG07ACA14TE, MG08ACA16TE und MG09ACA18TE gekauft. Auf Nachfrage hat mir MF bestätigt, daß man keinen Support über die gesetzliche Gewährleistung hinaus bietet. Da Toshiba die Herstellergarantie bei der Ware (Festplatten ohne Retailverpackung) für Consumer/private Endkunden aber nur bei Abwicklung über den Händler akzeptiert hat der private Endkunde somit bei dem Kauf der Clampshell und Antistatiffoil verpackten bulk Toshiba-Festplatten über einen Händler, der einem dann nicht hilft, auch keine nutzbare Herstellergarantie. Ich habe extra deswegen bei MF nachgefragt und als sie mir das bestätigt haben, hatte ich die damals letzte Lieferung noch innerhalb der Widerspruchsfrist zurück gesendet.
  9. Hallo @skyguy2000 Es stellt sich zuerst die Frage, was Du mit dem unraid System machen willst. Danach kann man erst sagen, welche der vorhndenen Hardware sich dafür am besten eignet. Meine persönliche Meinung (ebenfalls als Neuling und ohne weitere Hardwaredetails zu Deinen Systemen): Ich stimme Zonediver zu: keines der Systeme ist optimal geeignet, aber es ist zumindest möglich und vielleicht kann man mit mehr Informationen zu dem, was Du mit unraid erreichen willst dann mehr sagen. Wobei ich gestehe zu Mac, bzw. Apple gar nichts sagen zu können. Das schöne bei unraid ist aber, Du kannst mit einem probeweise mit unraid versehenem USB Stick einige Zeit lang experimenteren. Mach einfach ein volles Backup oder Image eines der syseteme vorher und experimentiere dann. Sollte es Dir nicht gefallen oder Du Probleme feststellen, die vielleicht von einem anderen System besser bewältigt werden lönnen, einfach das Backuo/Image zurückspielen und dann eben mit einem anderen System testen. Auch wenn ich anfangs dem USB Bootdatenträger skeptisch gegenüber stand, es ist zumindest eien sehr flexible Methode schnell zwischen Computern zu wechseln.
  10. Hallo. Nachdem die ersten 4 Festplatten nun durch sind, habe ich 2 weitere mit Preclear gestartet und es scheint mir wirklich ein Anzeigeproblem der GUI im Dashboard zu sein. Ich habe bisher diese Belastung anhand der Dasgboardanzeige gesehen und vermutet. Doch htop deutet an, daß die CPU in Wirklichkeit weitaus weniger belastet ist. Es ist zwar unter unraid Preclear mehr Last, als ich bei der erwähnten Windowsmaschine mit HD Tunde Pro sehe, doch scheint es so, daß ich nun doch zumindest doppelt so viele Festplatten gleichzeitig preclearen (nullen und postread) kann und dabei die CPU nicht zu überlasten. Angehängt sind 2 Screenshots aus dem unraid-System und darinter zum vergleich ein Screenshot der realen WindowsMaschine (Win11Pro/ keine VM).
  11. Hallo. Nur zur Klarheit hole ich etwas aus. Wie ich vor Monaten schon erklärte strebe ich ein System an, welches 300+ TB fassen kann. (Aktuell ist vorgesehen rund 30 SATA&SAS Festplatten + 4 SATA SSD + 1 NVMe SSD einzusetzen und so ist die Hardware nun auch vorbereitet). Aufgrund diverser beruflicher und persönlicher Probleme und Vorfälle traten Verzögerungen ein. Nun bin ich wieder dabei und dies ist ein komplett neu zusammengestelltes System, welches seite ersten 1-2 Tage erst in Betrieb ist. Somit nutze ich hier Preclear einmal um die bisher (im Laufe der letzten Monate nur einmal durchgetesteten) Festplatten vor dem Realbetrieb zu leeren und erneut zu testen und zusätzlich um stabilitäts- und andere Probleme bei dem Gesamtzusammenbau zu finden (Burnin). Preclear startete ich ohne PreRead, aber mit Nullen schreiben und anschließendem PostRead. Die hohe CPU Last war mir schon früher aufgefallen (vor Monaten, als ich mit einem I7 Skylake unraid getestet hatte) und jetzt in diesem System ist diese hohe Last ebenfalls vorhanden. Die Belastung war schon beim Nullen so hoch (die ersten ca. 21Stunden) und der HTop Screenshot stammt von dem anschließenden PostRead, bei dem die Last ebenfalls so hoch ist. Da ich das Gleiche auch auf einem WindowsSystem mache (siehe erster Beitrag) und dort die CPU Last vernachläßigbar niedrig ist, bin ich eben neugierig. Danke für Eure Meinungen dazu.
  12. Hallo. Habe ich (Preclear ist übrigens heute morgen vom Nullen in den Post Read Vorgang über gegangen).
  13. Hallo. Ich lasse gerade mit Preclear Disk (von gfjardim) 4 18TB Festplatten an den onboard Ports nullen und testen. Dabei lastet Preclear die 4 Cores (i3-8100) zu fast 100% aus. Parallel lasse ich auf einem Windows PC (i5-5600) mit HDTunePro ebenfalls 4 Festplatten (hier aber 8TB) nullen. Dort wird die CPU laut Taskmanager kaum zu 5% belastet. Weiß jemand, was Preclear hier anders macht? Ich würde gerne weitaus mehr Festplatten in dem unraid 6.9.2 System gleichzeitig nullen, aber wenn ich mehr der eingebauten Platten gleichzeitig nullen lasse ist die CPU durchgehend auf Vollast (100%).
  14. Nur zur Info: Habe im Juli 2021 ein paar Seagate Expansion Desktop STEB16000402 gekauft. Darin sind zwar Exos, aber eine Garantieabfrage mit der Seriennummer der Exos ergab, daß Seagate dafür keine Garantie bietet. Entweder spare ich lieber Geld und nehme Toshiba Enterprise Capacity MG08ACA 16TB (aber darauf achten, daß sie mit Garantie geliefert werden. Meine letzten kamen als Out of Warranty und die habe ich zurück gegeben) oder gebe mehr Geld aus und nehme direkt Exos oder so.
  15. Hallo High Water macht das so: Ersten Datenträger bis zur Hälfte, dann erst den Nächsten. https://wiki.unraid.net/Un-Official_UnRAID_Manual#High_Water Wenn Du es so willst, ist es richtig. Was Du willst, weißt nur Du.
  16. Dito! Dann könnte ich meine zur Zeit angedachte Umsetzung stark vereinfachen. 😁 ☺️ ☺️ ☺️ Vorfreude ist die schönste Freude, sagt man.
  17. Vorweg: gekauft habe ich mein Gehäuse 2018. Ob man zwischenzeitlich an der Serie etwas verändert hat, weiß ich nicht. Ich kann nur über das Fantecgehäuse sprechen, das ich hier habe. Fantec bietet weitere ähnliche Gehäuse an, die subjektiv bei den meisten Punkten (auf derem Webseite) für mich vertrauenserweckender aussehen. Aber das Gehäuse sah auf der Webseite und den Händlerabblidungen auch gut aus. Die Details erkannte ich erst, als ich es bestücken wollte und es im Laufe der Jahre mehrfach verwenden wollte und jedesmal doch wieder gefrustet aufgab. Viele Punkte, die ich bei meinen Inter-Tech zu (damals) vergleichbarem Preis besser gelöst kenne: 1. DIe Lüfterstromverteilung bei meinem Gehäuse war so instabil, daß nach dem zweiten Einstecken eines Lüfters bei mir die Halterung ausbrach (dünne Plastikhaken). Somit war Austausch der Lüfter im Betrieb nicht merh möglich und da die Stecker nicht ganz den bekannten 3 oder 4poligen Molex für PC- LKüfter entsprechen musste das alles dann raus (siehe weiter unten). 2. Die HDD Trays werden ins Gehäuse eingesteckt und sitzen dann unterschiedlich stabil/fest. Einige sind so fest, daß ich jedesmal beim Entfernen Angst habe den Entriegelungshebel abzubrechen. Der Entriegelungshebel alleine schafft es auch nicht diese Trays herauszuhebeln, sondern schabt sich am seitlicehn Alu jedesmal minimal ab. Andere Trays sitzen so locker, dass sie durch die seitlichen Führungsnuten nicht ausreichend halten (nur hakelige und unpräzise minimale Führungen durch Nuten im seitlichen Alublech. Es existiert keine Führung/Bleche zwischen den Schächten nach unten, so dass eine oben eingesteckte Festplatte nach unten Druck ausübt.) Wenn darunter die Trays nicht gesteckt sind, kann der obere Tray sogar verrutschen (so kam der defekte Port in der Backplane zuzstande. Unteren Tray entfernt, Tray mit HDD war für seitliche Führung zu schwer, ist etwas abgerutscht, Kontaktsockel beschädigt, wackeliger Kontakt im SAS-Port.) 3. Die Bleche des Gehäuses sind bei mir überwiegend scharfkantig(er als bei meinen Inter-techs). Ich habe teilweise mit Kedergummis oder Klebeband abgeholfen um die Kabel zu schützen. 4. Der Deckel des Gehäuses sitzt sehr stramm und ist von Hand nur schwer zu öffnen und schließen (was im laufenden Betrieb ggf. Erschütterung der Innerein bedeutet) 5. USB Port in Front ist 180grad verdreht, so daß diverse USB Sticks mit LED nach unten leuchten. 6. Der kleine Ein/Aus Taster in Front steht etwas heraus. Wenn man ihn sucht, kann man ihn zwar erfühlen, aber auch versehentlich betätigen. 7. Ob die 2x 5 Molex Stromversorgungsanschlüsse ein Vor- oder Nachteil sind muß jeder selbst entscheiden. Aber ich brauchte nicht alle zu bestücken, als ich alle Trays nutzte. 8. Ein Probem, daß ich auch bei den Inter-Techs habe: keine Dokumentation. Welches mitgelieferte Blech, gehört wo hin? Welcher Anschluß der Backplane macht was? und so weiter... Man muß ein bisschen ausprobieren, was wo passen könnte und ob einige der 5 Backplane FAN/Lüfteranschlüsse geregelt oder nur konstant versorgend ist ... (bei mir sind alle wohl nur konstant. Naja, dadurch kann man die auch für andere 12V-Zwecke nutzen.) 9. Die Luftführung in dem Gehäuse empfinde ich suboptimal. Da die Stromversorgung der mitgelieferten Lüfter zerbrochen ist und nicht den PC-üblichen Anschlüßen entsprach, mußte ich alle 3 Zwischenlüfter gegen Standardlüftern austauschen und habe dabei rund 200 Euro an Lüftern und Lüftersteuereungen durchprobiert, bis ich bei 24 voll bestückten Trays mit SATA und SAS Festplatten unter voller Auslastung der Platten endlich die Temperaturen konstant unter 54 Grad halten konnte und es mir nicht konstant zu laut war. Bis dahin sind die Festplatten zwischenzeitlich leider sehr warm geworden, was wohl auch ein Grund für meine aktuell vielzahligen Festplattenausfälle dieser HDDs ist. Naja, sie waren zu dem Zeitpunkt sowieso nur Opfer zum Testen und Ausmustern vorgesehen. Daß ich sie wegen Chiapreisexplosion doch wieder in Wirkbetrieb nehmen wollte, war zu dem Zeitpunkt nie angedacht. 10. Iigendwie haben ich nie die richtigen Standoffs/Abstandhalter für die dort zwischenzeitlich bei tests verbauten Motherboards gehabt. Weder mitgelieert noch nachgekauft. Irgendwie war da immer 1 oder 2 mm zuviel oder zu wenig, so dass die Montage immer irgendwie etwas augeglichen werden musste. 11. Die HDD Trays haben zwar Kunststofflichführungen um die Backplane LEDs vorne anzuzeigen, aber die blauen Power LEDs sind sehr hell. Selbst als ich die blauen LEDs abgeklebt habe, waren für mich die grünen AktivitätsLEDs kaum zu erkennen. Im dunkelen Raum kann man sie gut sehen, wenn man gerade drauf schaut. Unter der Lupe erkannte ich, dass der Lichtein- und -austritt der Kunstoffleiter verschmutzt/angeschmort waren. Habe sie mit einem Messer angeschnitten, aber viel mehr Licht erkenne ich da trotzdem nicht. Ich weiß, daß ich da noch mehr Punkte habe, aber das ist, was mir so aus dem Stand wieder eingefallen ist. Sind eben Erfahrungen und Erlebnisse mit meinem Gehäuse seit 2018 und in den rund 3 Jahren immer wieder durchgeführten Versuchen das Gehäuse sinnvoll bei mir einzusetzen. Das war auch der Grund, warum ich mir vor kurzem das Goxy gekauft habe Es war schnell verfügbar und sah qualitativ so aus, daß ich meine es besser einsetzen zu können. Aber auch bei dem Goxy werde ich einiges anpassen müßen und bisher habe ich damit noch wenige praktische Erfahrung, Es steht hier bereit für Ausstattung und Umbau, aber das dauert noch etwas.
  18. Bisher habe ich meine alten Super Flower Leadex und Leadex II benutzt. Leider verwenden die noch erhältlichen Leadex 3 ein anderes Modularex Anschlussschema, so daß die Kabel nicht passen. Dafür konnte ich durch Zukauf weiterer Leadex/II eigentlich genug 4pol Molexkabel zusammen bekommen und damit versorge ich auch meine aktuell im Betrieb befindlichen Maschinen. Ja, der Markt an funkionell sinnvoller Technik ist dahingehend stark geschrumpft. Früher wurde mehr an PC gebastelt und es gab viel Nützliches. Heutzutage legt man weniger Wert auf Nutzen, sondern auf bunte LEDs und farbige Waküflüssigkeit, die dann hinter dezenten Rauchglasscheiben zirkulieren muß, während ein leuchtender Lüfter die Temperatur auf seinen Flügeln anzeigt und die LEDs der 3 verbauten GPU gleichmäßig pulsieren. Und dazu kommt seit ca. 1/2 Jahr noch eine gewisse Beschaffungsproblematik. Es sind 2Stück 12er Backplanes (passiv) verbaut und jede sollte mit 3 4pol. Molexsteckern gespeisst werden. Dazu dann noch ein paar Anschlüße für die internen Erweiterungen die noch geplant sind Ich habe ein Fantec SRC-4240X07. Persönliche Meinung: Nie wieder. Meine Inter-tech 4U-4424 (brauchen nur 6x Molex fuer alle Backplanes zusammen) und IPC-4U-4324L (braucht zwar auch nur 6x Molex, hat aber 12x Molex um eien bessere Versorgung zu ermöglichen) sind meiner persönlichen Meinung nach weitaus besser/sinnvoller. Da ich aber eben auch ein Netzteil verbauen möchte, welches wenig Platz wegnimmt (um zusätzlich weitere Festplatten und SSD intern zu verbauen) will ich mich eben auch mit Servernetzteilen beschäftigen. Nur scheinen die eben keinem einheitlichen Standard zu folgen. Ich hatte sogar schon die Idee ein paar 12 Servernetzteile zu nehmen und die PC Technik per PICO zu adaptieren, aber das Kabelgewusel und der Platzbedarf wäre weitaus größer und schlimmer als dann doch ein ATX oder SFX Netzteil per Winkel oder Adapterblech rein zu schrauben.
  19. Hallo und einen x16 PCIe Slot Soll da schon etwas rein? Raid1 dient der Datensicherheit gegen Ausfall einer SSD. Wenn Dir die darauf gelagerten Daten entsprechend systemkristisch sind, ist Raid1 anzuraten. Wenn Du dabei zwei identische Medien nehmen willst, sind entweder 2 SATA SSD oder 2 NVMe SSD anzuraten. Da man M.2 NVMe SSD mit billigen Adapterkärtchen auch in einem PCIe Slit betreiben kann, könntest Du auch eine in den M.2 und eine in den PCIe Slot verfrachten und damit Raid1 zusammenstellen. Aber wenn es nicht so wirklich wichtige Daten sind, könnte es auch reichen ein einzelnes Medium (also kein Raid1) zu verwenden und die Daten eben häufer zu sichern. Ist eien Entscheidung, wie wichtig Dir die Daten sind, die durch den Cache gehen.
  20. Ich gebe zu, ich hatte jetzt eher auf Ideen gehofft, die sich mehr auf Servernetzteile beziehen. Beispielsweise habe ich viel über HP Netzteile gelesen und gesehen, welche sehr guenstig bei ebay zu haben sind. Diese sind selbst in der 1000 bis 1200W Klasse noch überraschend leise und halbwegs effizient wenn man sie eben nicht voll ausfährt. Leider sind die aber meist (fast) nur mit 12V zu haben. Das Soundproblem lege ich deswegen erst einmal beiseite. Auch weil 800-1000W ATX Netzteile sowieso heutzutage kaum noch 4pol Molex Anschlüße haben und ich deswegen sowieso adaptieren muss. Wie schon angedeutet, könnte ich adaptieren. Habe mir bei bedarf schon Adapter aus Alu fertigen lassen. Ja, das geht. Da ATX aber doch recht groß ist, hatte ich (auch aus Platzgründen um im Gehäuse ja noch weitere zusätzliche Laufwerke unter zu bringen) auf ein flaches oder schmales Servernetzteil gehofft um dann darüber HDDs zu montieren. Deswegen suche ich eben weitere Informationen zu Servernetzteilen, die auch einen geraden Airflow haben. Somit kann man die sehr gut in jeder drehrichtung bündig auf dem Gehäuseboden verbauen ohne einen Lüfter zu blockieren. Nebenbei habe ich auch schon damit geliebäugelt ein SFX einzubauen (Coolermaster hat da das V850), das wäre schon mal etwas kleiner als ATX und eine Blende müßte ich ja auch dafür basteln. Doch da wäre auch das Lüfterproblem und vieleicht finde ich ja eien Lösung, die in der Höhe weniger Platz einnimmt.
  21. Hallo Bisher habe ich in der Regel auch in 4HE Gehäuse ATX Netzteile verbauen können, weil passende Adapterbleche beilagen. Leider habe ich nun ein 4HE Storagegehäuse in die Finger bekommen, bei dem ein ATX Netzteil Adapter nicht bei lag. Auch wird es immer schwieriger und teurer leistungsfähige ATX Netzteile für Storagesysteme zu bekommen. Meist haben sie mehr Versorgung und Anschlüße für 6 oder 8Ping GPU anstatt 4Pin Molex. Aber GPU Power brauche ich in (m)einem unraid Storage nicht wirklich. Der Netzteilausschnitt im Gehäuse ist 4eckig und etwas größer als ein ATX Netzteil. Nun kann ich mir entweder ein Adapterblech auf ATX basteln oder nach einem passenden Servernetzteil suchen. Servernetzteile gibt es bei ebay guenstig, massenhaft und auch sehr leistungsfähig aber anscheinend folgen die kaum irgendeinem Standard und deren Maße sind auch eher selten zu erkennen, aber wohl oft recht firmenspezifisch. Auch sind diverse Servernetzteile nur für die Versorgung von 12V und 5V vorgesehen, so daß die benötigten 4 pol. Molex, 4+4 (oder 8 ) pol. CPU und 24 pol ATX mit einem Powerboard für PC übliche Weiterverwendung adaptiert werden müßen. Dann kommen auch noch Varianten mit PSU Cages und Redundanz dazu. Bei geplanten ca. 30 HDD, diversen SATA + NVMe SSD und dem Motherboard +CPU +Ram +SAS-Kontroller werde ich für den ab und zu anfallenden Spitzenverbrauch wohl ein Netzteil zwischen 800 und 1000W anstreben müssen. Grafikfähigkeit der CPU sollte für meinen Zweck ausreichen. Ich habe nun schon ein paar Wochen recherchiert, aber irgendwie finde ich mich nicht zurecht. Also dachte ich mir, vielleicht hat hier ja schon mal jemand sich mit Servernetzteilen für privaten Gebrauch mit PC Technik beschäftigt (außerhalb des Mining) und kann mir einen Tipp geben. Falls es intressiert oder hilft, es geht im ein Goxy RM4124 (auch von Raidsonic als 4HE verakuft) welches ich noch auf eben weitere Festplatten erweitern will. (siehe beil. Fotos. 1. Bild vom leeren Ausschnitt für das Netzteil links 2. Bild Herstellerfoto mit 2 redundanten Netzteilen im PSU Cage von hinten zu sehen 3. Bild Herstellerfoto mit 2 redundanten Netzteilen im PSU Cage von oben ins Gehäuse zu sehen) Any Ideas? In welche Richtung könnte ich nach Netzteilen suchen? Gibt es irgendwo einen einfachen Guide zu Abmessungen von Servernetzteilen und PSU Cages? Ja, daß diese Servernetzteile aufgrund der Leistung und kleinen Lüfter laut sind ist mir klar. Da würde dann doch ein ATX Netzteil mit seinen großen und leisteren Lüftern wieder interessant sein. Ich bin eben noch unentschlossen und suche Input. Danke!
  22. Nur so zur Fehlersuche: Hast Du mal den Safe Modus probiert?
  23. Hallo @mgutt Okay. Das habe ich verstanden. Ich hatte unter dem Tab Stats/System Stats nachgesehen aber alle 4 Graphen blieben unverändert leer. vermutlich war der Prozess auch behindert/abgestürzt. Done. ich vermute das ist nun sowas wie ein Batch unter Dos? Laienfrage: Wie wende ich die dann an? Zusätzliches Terminalfenster auf machen und stop tippen um dann alle laufenden rsync zu stoppen? Das hatte ich auch vermutet. Deshalb meien Frage für die Zukunft. 🙂 Danke! Ja, denn sonst habe ich von meiner 10GBLan Anbindung keinen Nutzen. Es sind SMR Platten und die bremsen sonst massiv. So verteilt sich die Schreiblast gut. Etwas Leistung war mir klar und hatte ich auch ueber Stunden auch beobachtet. Ich teste ja chon seit Monaten. Aber dass es nun so hohe Last wird wundert mich. Ich kann es mir dadurch erklaeren, daß zusätzlich bei diesem testlauf encryption aktiviert ist. Aber daß ich damit einen I7-6700k an die Maximallastrenze treibe hätte ich jetzt nicht vermutet. Ich hatte immer im Hintrekopf, dass unraid nicht ganz so leistungshungrig ist. Ist ja nicht so, als hätte ich da eine VM noch aktiv gehabt. Und der krusader Docker sollte ja auch nur kopieren. Da befürchte ich aber, dass SMR zuschlägt und die Platten nach ca. 0,5-1h drauf schreiben (auch wegen der parallelen Lesezugriffe des Dateisystemes) auf nur noch 24MByte/s einbrechen. Zumindets kann ich sowas beobachten, wenn ich dann auf den Disks direkt mit krusader arbeite. (siehe diverse vorherige tests). Diesesmal wollte ich es eben nichtvorher sortieren, sondern erst alles auf die Unraidmaschine kopieren und spaeter sortieren. Wie ich es mache ist egal. Ich stosse auf allen Wegen immer wieder vor Probleme 😊 Aber deshalb teste ich es ja. Ich vermute 30-50% pro Kopiervorgang? Dann waren 3 gleichzeitige Vorgänge wohl etwas viel. Prio 1: Am Ende maximale Datensicherheit! Prio 2: möglichst hohe Stabilität (keine Abstürze) Prio 3: Weniger Strom verbrauchen als meine Hardwareraid basierten Windowsmaschinen Prio 4: Geschwindigkeit Prio 5: Komfort Prio 6: Spass an der Sache 😀 Da ich bei dem angestrebten spaeteren System (ich schrieb es ja schon mal 300-400TB) alles schön in Unterverzeichnissen sortiert in einem Share haben will, wäre die direkte Nutzung von Disk Shares weniger in meinem Sinne. Aber auch das muß ich erst einmal ausprobieren. Später im Wirkbetrieb werde ich den Cache auch zuschalten, aber bei den intialen Test würde ich den SSD Cache kaputtschreiben, deshalb nutze ich den zur Zeit nicht
  24. Ich verwende nun seit ca. Nov. 2020 Toshiba Enterprise Capacity und habe darüber bisher keine Klagen. Alles okay. Jede Festplatte wird vor dem Einsatz bei mir einmal voll geschrieben und dann per verify überprüft: Bisher alle dabei fehlerfrei und performant. Und dass sie zusätzlich noch den Stromausfallschutz (Persistent Write Cache) haben macht sie in meinen Augen noch ein bisschen attraktiver. Ich setze aktuell mehrere MG07ACA14TE , eine MG07ACA12TE und 2 MG08ACA16TE ein.
  25. Hallo. Seit knapp unter 2 Tagen pumpe ich Daten auf mein unraid. (Disks wurden kurz vorher gelöscht und dann unraid mit xfs encrypted auf 11 HDD array ohne Parity neu erzeugt. Cache ist für alle Shares aus. Dazu ist eine NVME SSD für appdata, isos, system und domains drin.) Hier benutze ich einmal Terminal rsync um viele Videos von einer Win10 Maschine über das Netzwerk zu ziehen und auf einem Share (realvideo auf Disk1-5) abzuspeichern. Da die Quelldateien auf dem WIn10PC in verschiedenen Verzeichnissen enthalten sind, starte ich nach einem kopierten Verzeichnis manuell das nächste. Deshalb schaue ich öfters auf den PC um zu sehen, wann ich den nächsten rsyncbefehl absetzen kann, Ungefär so: rsync -avh "/mnt/remotes/QUELL1064_Z/VERZ1" "/mnt/user/realvideo" Dann läuft gleichzeitig ein zweites Terminalfenster mit rsync um viele Dateien unterschiedlichster Größe zu kopieren (von vielen kleinen jpg Bildern und Textdateien bis zu mehrere GB grosse Images von Backups oder ISOs) von einer anderen Win10 Maschine über das Netzwerk auf Share (data auf Disk6-7). Auch hier sind es mehrer Quellverzeichnisse, deren Kopiervorgang ich manuell nacheinander anstoße. Und als drittes habe ich im unraid-PC selber 3 SAS Festplatten als unmounted Device gemounted und kopiere von dort per ich777Docker/krusader auf ein Share (ae auf Disk 8-11). Diese kopiere ich sequentiell. Erst SASDisk1 gemountet, dann alle Dateien/Verzeichnisse von SASDisk1 auf Share kopiert, dann SASDisk2 gemountet und Dateien markiert und per krusader auf Sahre kopiert. Aktuell ist SASDisk3 dran. Zuletzt hatte ich heute Nachmittag gegen ca. 16 Uhr mal auf den PC geschaut und da lief alles erwartungsgemäß. Als ich jetzt gegen 22 Uhr wieder auf den steuernden PC schaue sehe ich im "Main" Tab nun Lese- & Schreibrate aller 12 Disks 0 MB/s. Verwundert schaue in die Terminalfenster: keine Fehlermeldung, keine Abbruchmeldung, die zeigten einfach, dass sie aktuell wohl jeweils eine Datei kopierten und bewegten sich nicht. Ich habe beide Terminalfenster dann geschlossen. In den krusader geschaut und auch dort, sah es aus, als wenn er mitten drin sei eine Datei zu kopieren. Nach einer Wartezeit von einigen Minuten sah ich aber keine Veränderung und habe das noVNC Firefox Fenster (WebUI) des krusader geschlossen und den krusader Docker dann einige weitere Minuten später gestoppt. Dann erst schaute ich bei Unraid in das Dashboard und sah, dass die CPU auf allen 4Kernen (+4HT) voll ausgelastet ist. (Screenshot siehe unten) Dennoch bediente sich die per Firefox über LAN gesteuerte GUI flüssig. Ab und zu zuckten auch die CPU Anzeigen etwas, aber alles im Bereich sehr hoher Auslastung (fast konstant 100%) nun schaue ich ueber eine halbe Stunde der Sache zu und klicke ein bisschen zwischen main und Dashboard hin und her. Nun auf einmal bekomme ich 504 Gateway Time-out und kann mich auch nicht mehr über die IP einloggen. Also greife ich per KVMoverIP direkt auf die Bildschirmausgabe und USB Ports des etwas entfernt stehenden unraidPC zu und mit Tastendruck wacht auch die Konsolenanzeige auf. Ich kann mich per root + <passwort> einloggen. Dann löse ich einen Reboot aus, aber das wars. Es passiert seit dem nichts mehr. (Screenshot unten) Ich werde wohl wirklich (aus der Ferne) Power abschalten und dann auch darüber wieder neu booten müssen. Nun stellt sich mir die Frage: Wenn so etwas wieder passiert, wie bekomme ich heraus, welche(r) Verursache hier klemmen geblieben ist? Welche Mittel habe ich, wenn unraid selber sich noch bedienen läßt?
×
×
  • Create New...