Jump to content

DataCollector

Members
  • Posts

    3,974
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Ich weiß nicht, wann/wie oft das schon bei Dir vor kam, aber die Situation für unraid ist schon seit ca. 1-2 Jahren so schlecht. Vor rund 1/2 Jahr haben ich überraschend bei Amazon USA einige interessante Gigabyte W480 Boards gezeigt, die wren dann aber auch schon schnell vergriffen (3 hab ich gekauft).
  2. Grundlegend eien nette CPU. kein ECC, aber wenn man ECC nicht will, kann man die nehmen. Wenn sie günstig ist, ich ein passendes Board haette, kein ECC wollte, würde ich die nicht verschmähen
  3. Ja, Bei 4TB Nutzkapazität bestehend aus 2 Stück 2TB Festplatten brauchst Du 1 Parityfestplatte gegen Ausfallsicherheit (wenn Du ausfallsicherheit haben willst). Man kann auch 2 Parityfestplatten einsetzen, aber jede muss gleich gross oder größer als dir größte Daten-/Nutzfestplatte sein. Je weniger Festplatten Du einsetzt, desto sparsamer kann das System sein. Anstatt 3x 2TB wäre deshalb vielleicht 2x 4TB auch eine Möglichkeit. Grob gesagt: ja, so ist das gedacht. Nach dem Austausch wird dann die neue Festplatte wieder mit den fehlenden Daten aufgebaut und im Endeffekt läuft wieder alles so wie vorher (sofern zwischenzeitlich nichts anderes schief geht). Achja, Parity ersetzt kein Backup! Tja, das meinte ich mit Parity ersetzt kein Backup. Gegen versehentliches Löschen, Fehlbedienung, amok laufende Software oder Schadsoftware hilft Parität nicht. Du solltest von Dir wichtigen Daten mindestens ein Backup anfertigen und ab und zu aktualisieren. Pflicht ist es nicht. Wenn ein System ausführliche anfängliche Tests fehlerfrei bestanden hat, sollte auch in naher Zukunft kein Ramfehler auftauchen. Aber natuerlich gibt es keine 100%ige Sicherheit. Erwähnte ich schon mal ein Backup? 😁 Wie Du vermutlich bei entsprechendem Studium hier im Forum wohl schon mitbekommen haben dürftest, ist die Beschaffungssituation seit einiger Zeit mies. Neueste Hardware (Intel 12.Gen) wird von Linux/unraid (noch) nicht ganz unterstützt, Intel 11.Gen oder neuer hat auch Probleme mit der Benutzung einer iGPU. Hardware 8-10.Gen wird empfohlen, ist aber schwer zu bekommen. Wenn ECC gewünscht ist bleiben nur noch wenige CPU und Mainboards übrig und die sind zwischen schlecht, teuer oder gar nicht zubekommen. Wenn man viele Festplatten wollte (nicht Dein Fall!) wird es noch enger, da begehrte/sparsame Boards mit 8 oder mehr SATA Ports wirklich schwer zu bekommen sind. Da Du nicht wirklich hohe Hardwareanforderungen hast (3 Festplatten, vieleicht eine oder zwei SSD für und ein bischen Docker...) sollte aber auch beliebige ältere Hardware reichen. Wenn Du sie aber soweiso anschaffen musst, würde ich jetzt nicht auf alte Komponenten wie 1.-4.Gen Intel setzen. Achja eines noch: fuer das bisschen NAS, was Du nutzen willst ist vielleicht ein Out of the Box NAS vielleicht doch eine sparsamere Loesung. Die Hardware richtet sich nach den Wünschen. Wie gesagt: 3 Festplatten, 1 oder 2 SSD sind nicht viel. mgutt hat da ein paar nette Fujitsusysteme erwähnt, die sich hinbiegen/basteln lassen sollten. Bei ECC trennt sich aber Spreu vom Weizen. Willst Du es oder nicht? Overkill und nicht wirklich sparsam. Kann man nehmen, wenn man wirklich viel mit VM und so machen will. Das habe ich Deiner anfrage aber nicht entnommen. bedenke, daß Deien Kiste ja 24/7 laufen soll. Da rechnet sich jedes eingesparte Watt auf Dauer. CPU kaum zu bekommen. Mainboard nicht zu bekommen, Weitaus mehr CPU-Leistung als das, was ich von Dir hier las. Wie gesagt: da wird es eng. Schau mal in meine Signatur mein 2nd System. Das Board hat 6 SATA Ports, ein I3-8xxx oder I3-9xxx (4Core) unterstützt auch ECC, ECC Ram läuft uf dem Board auch ... Nur so als idee
  4. Naja, neu wäre wohl vielleicht ein hoher finanzieller Aufwand. Aber in der Bucht gibt es viel udn mit etwas Geduld auch günstig. Wenn maan bei DDR3 bleiebn will (um nicht auch Ram zu zukaufen) Wäre 3. bis 5. Gen Intel passend. Ab Skylake (6. gen) hatten fast alle Boards (bis auf ein paar [Hybrid-] RIngeltauben) schon DDR4. Aber ein Board der 3.-5. Gen mit 6SATA sollte mit etwas Glück um 30-50 Euro kosten. Eine CPU mit IGPU, die mindestens ähnlich leistungsschwach wie der ursprüngliche I3 ist, wird auch nicht die Welt kosten. Das wäre zumindest meine Marschrichtung unter ähnlichen Voraussetzungen. Aber das kann p5lukas ja mal genauer durchdenken, bevor da ein Kind in einen Brunnen fällt und man später sich doch ärgert. Nur so als Gedanke.
  5. Mit der PCie x4 Karte, hast Du das Modell, welches elektrisch x2 angebunden ist. Damit bist Du limitiert darauf diese Karte in dem X16 Slot einzusetzen, da die PCIe x1 Slots des Mainboards vermutlich nicht nach hinten offen sind. Die Karte hat dann eine Versorgung über den PCIe x16 Slot von ca. 1 GByte/s, wodurch sich bei aktuellen Festplatten (mit rund 250MByte/s) 4 Stück gleichzeitig performant anbiinden lassen. Dafür fällt aber die NVMe Möglichkeit im PCIe x16 Slot weg. Jetzt kannst Du nur noch hoffen, daß wenigstens die OnBoard SATA 3.0 Ports auch noch unbeschädigt sind und somit SATA SSD gut für Cache oder so betreiben können. Ernsthaft: Ich bin auch dafür alter Hardware noch eine Chance zu geben. Aber diese SandyBridge Plattform wirklich wirklich seeehr alt und diese noch nennenswert aufzurüsten/benutzen ist meiner persönlichen Meinung nach wenig energieffizient/sinnvoll (Du wolltest ja "stromsparend"). Solltest Du also in irgendeiner Form über eine größere Geldinvestition (Gehäuse...) dafür nachdenken, denke vielleicht lieber über eine gebraucht Plattform aus der Bucht mit 3. oder neuerer CPU Generation nach. PCIe 3.0 ermöglicht schon einiges mehr für Erweiterungen (NVme, SATA Kontroller, flottere LAN Kontroller...)
  6. Könnte klappen, ja. Dies ist eine PCIe x1 Steckkarte. Das Maainboard hat laut der von Dir benannten Webseite: 1 PCI Express x16 (Gen 3.0 für i5-/i7-Ivy-Bridge-Prozessoren, Gen 2.0 für alle anderen) 3 PCI Express x1 (Gen 2.0) 1 PCI-Express-Minicard Laut Deiner Darstellung soll ein i3-2120 (Sandy bridge) mit HD-Grafik 2000 drin/drauf sein. Damit sind alle PCIe Slots wohl auf Gen2 beschränkt. Deine Steckkarte wird also mit maximal 500MByte/s befeuert. Wenn Du heutige Festplatten mit irgendwas um 250MByte/S dort anschließt, kannst Du gleichzeitig maximal 2 Festplatten damit performant betreiben. Also 6 Festplatten Onboard, 2 Festplatten mit dem Zusatzkontroller: dmit kommst Du in Summe auf die gewünschten 1xParity, 4-6x3,5 HDD, 1xCache Wobei ich zustimme: wenn der Cache eine SSD ist, solltest Du genau raussuchen, welcher der SATA Ports SATA 3.0 spricht. Achtung: einige Chipsätze der Sandy Bridge Serie hatten einen Bug und die SATA 3.0 Ports sind mit der Zeit ausgefallen. https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Sandy-Bridge-Probleme-mit-SATA-Umtausch-moeglich-Update-2-fehlerhafte-Ports-erkennen-810068/ Bevor Du Dir zuviele Hoffnungen machst und dann diese enttäuscht werden: probiere alle Ports mit einer SSD aus und Benchmarke die SSD an allen internen Ports (unraid mit diskbench kann das). Sollten die Ports defekt sein, könnte es billiger sein ein anderes Board+CPU zu nehmen, als mit Zusatzkontrollern die ausgefallenen SATA Ports zu kompensieren. Das müsste man dann genauer durchrechnen. Wenn Dir für Deine Zwecke in interne Prozessorgrafik ausreicht, könntest Du im PCIe x16 Slot (Gen2.0) vielleicht sogar eine Adpaterkarte für eine NVMe SSD einbauen und dort eine NVMe SSD für Docker/VM/Cache einsetzen. Die läuft zwar dann nur mit Gen2.0 (halb so schnell wie Gen3.0), aber das sollte immer noch rund 2GByte/s ermöglichen und weitaus flotter als SATA sein. Leider sind die letzten beiden wirklich guten Deals zu Samsung 970 Evo Plus 2TB (x-kom und Amazon) abgelaufen. Hat Deine "Gaming Maschine" noch DDR3 Module? Das HP-Mainboard beherrscht laut Webseite: 4x 240-Pin-DDR3-DIMM-Steckplätze PC3-10600 (DDR3-1333) PC3-12800 (DDR3-1600)
  7. Thank you. I did so on my 1st unraid machine. And I am surprised. Diskspeed tries to test/bench a Device Disk4 sdaf on the ASM1062 controller (and seems to be stuck at it). I can't figure out which device it is. When I look in the main tab and search for an sdaf I can't find any. Even at the "Tools/System Devices" I can't find a Disk4 sdaf on my only ASM 1062 controller. It seems diskspeed does not use the same naming like unraid in the Main tab or in the Tools/System Devices Section. Tools/System Devices: ================ PCI Devices and IOMMU Groups IOMMU group 0: [8086:9b33] 00:00.0 Host bridge: Intel Corporation Comet Lake-S 6c Host Bridge/DRAM Controller (rev 05) IOMMU group 1: [8086:1901] 00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 05) [9005:028c] 01:00.0 RAID bus controller: Adaptec Series 7 6G SAS/PCIe 3 (rev 01) [1:1:0:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdb 16.0TB [1:1:4:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdc 16.0TB [1:1:5:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdd 16.0TB [1:1:6:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sde 16.0TB [1:1:7:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdf 16.0TB [1:1:9:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdg 16.0TB [1:1:10:0] disk ATA WDC WUH721818AL PCGN /dev/sdh 18.0TB [1:1:12:0] disk ATA WDC WUH721818AL PCGN /dev/sdi 18.0TB [1:1:13:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdj 18.0TB [1:1:14:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdk 18.0TB [1:1:15:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdl 18.0TB [1:1:16:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdm 18.0TB [1:1:17:0] disk ATA ST18000NM000J-2T SN01 /dev/sdn 18.0TB [1:1:18:0] disk ATA ST18000NM000J-2T SN02 /dev/sdo 18.0TB [1:1:19:0] disk ATA ST18000NM000J-2T SN02 /dev/sdp 18.0TB [1:1:20:0] disk ATA ST18000NM000J-2T SN02 /dev/sdq 18.0TB [1:1:21:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdr 18.0TB [1:1:22:0] disk ATA ST18000NM000J-2T SN01 /dev/sds 18.0TB [1:1:23:0] disk ATA WDC WUH721818AL PCGN /dev/sdt 18.0TB IOMMU group 2: [8086:9bc6] 00:02.0 VGA compatible controller: Intel Corporation Device 9bc6 (rev 05) IOMMU group 3: [8086:06f9] 00:12.0 Signal processing controller: Intel Corporation Comet Lake PCH Thermal Controller IOMMU group 4: [8086:06ed] 00:14.0 USB controller: Intel Corporation Comet Lake USB 3.1 xHCI Host Controller Bus 001 Device 001 Port 1-0 ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 001 Device 002 Port 1-5 ID 0bda:5411 Realtek Semiconductor Corp. RTS5411 Hub Bus 001 Device 003 Port 1-8 ID 0463:ffff MGE UPS Systems UPS Bus 001 Device 004 Port 1-11 ID 090c:1000 Silicon Motion, Inc. - Taiwan (formerly Feiya Technology Corp.) Flash Drive Bus 001 Device 005 Port 1-12 ID 1a40:0101 Terminus Technology Inc. Hub Bus 001 Device 007 Port 1-12.2 ID 0c45:7403 Microdia Foot Switch Bus 001 Device 008 Port 1-13 ID 048d:5702 Integrated Technology Express, Inc. ITE Device Bus 002 Device 001 Port 2-0 ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 002 Device 002 Port 2-5 ID 0bda:0411 Realtek Semiconductor Corp. Hub [8086:06ef] 00:14.2 RAM memory: Intel Corporation Comet Lake PCH Shared SRAM IOMMU group 5: [8086:06e0] 00:16.0 Communication controller: Intel Corporation Comet Lake HECI Controller IOMMU group 6: [8086:06d2] 00:17.0 SATA controller: Intel Corporation Comet Lake SATA AHCI Controller [8:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdaa 2.00TB [9:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdab 2.00TB [2:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdu 18.0TB [3:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdv 18.0TB [4:0:0:0] disk ATA ST18000NM000J-2T SN01 /dev/sdw 18.0TB [5:0:0:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdx 18.0TB [6:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdy 2.00TB [7:0:0:0] disk ATA CT2000MX500SSD1 033 /dev/sdz 2.00TB IOMMU group 7: [8086:06c0] 00:1b.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #17 (rev f0) IOMMU group 8: [8086:06ac] 00:1b.4 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #21 (rev f0) IOMMU group 9: [8086:06b8] 00:1c.0 PCI bridge: Intel Corporation Device 06b8 (rev f0) [8086:06bc] 00:1c.4 PCI bridge: Intel Corporation Device 06bc (rev f0) IOMMU group 10: [8086:06bd] 00:1c.5 PCI bridge: Intel Corporation Comet Lake PCIe Port #6 (rev f0) IOMMU group 11: [8086:06bf] 00:1c.7 PCI bridge: Intel Corporation Device 06bf (rev f0) IOMMU group 12: [8086:06b0] 00:1d.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #9 (rev f0) [8086:06b4] 00:1d.4 PCI bridge: Intel Corporation Device 06b4 (rev f0) IOMMU group 13: [8086:0697] 00:1f.0 ISA bridge: Intel Corporation Device 0697 [8086:06c8] 00:1f.3 Audio device: Intel Corporation Comet Lake PCH cAVS [8086:06a3] 00:1f.4 SMBus: Intel Corporation Comet Lake PCH SMBus Controller [8086:06a4] 00:1f.5 Serial bus controller: Intel Corporation Comet Lake PCH SPI Controller [8086:0d4c] 00:1f.6 Ethernet controller: Intel Corporation Ethernet Connection (11) I219-LM IOMMU group 14: [144d:a808] 03:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller SM981/PM981/PM983 [N:0:4:1] disk Samsung SSD 970 EVO Plus 2TB__1 /dev/nvme0n1 2.00TB IOMMU group 15: [8086:15f2] 06:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-LM (rev 03) IOMMU group 16: [1b21:0612] 07:00.0 SATA controller: ASMedia Technology Inc. ASM1062 Serial ATA Controller (rev 02) [10:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdac 18.0TB [11:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdad 18.0TB
  8. Hello. I am new to diskspeed and by far i do not know everythin what this thing can do. I installed the Docker 'Diskspeed' on both of my Systems. On the 1st System it looks good. Just one small thing: I do miss an indicator which disk already was benchmarked and has a graph and with does not have a benchmark graph. With more than 20 Disks it is a hassle to keep track wwhen using this tool the first time. 😁 But that is just a luxus problem. On the 2nd System (look at my signature) I once started it, and it crashed. Then I stopped docker and tried to start again and now I always get an Server Error. I should mention, that 3 unassigned Devices are currently in the process of preclear. Is the Diskspeed Docker vulnerable when preclear is running on a disk? Edit: After precler is finished on all 3 Disks: diskspeed docker starts and works without rebooting the unraid System. It looks like diskspeed does really not like it, when some disks are in use (preclear).
  9. Marvel hat unter unraid nicht den besten Ruf, aber es gibt einige Marvel basierte Kontroller, die funktionieren. Ich mache da eher einen Bogen drum. Wenn ich das YT Video zu dem Microserver Gen10 plus richtig gesehen habe, könnte man dann imme rnoch hinten im gehäuse ein paar Öffnungen für Kabel rein Dremeln/Bohren. Kann man machen. Evtl. die Masseleitungen zusammenlaufen lassen um nicht durch zu große Potentialunterschiede Probleme zu bekommen. Natuerlich geht bei 2 Netzteilen die Effizienz etwas flöten. Nicht zwingend. Aber wenn Du es aus einem Netzteil versorgen könntest, wäre es wohl. Vielleicht kannst Du das Slotblech jaua uch etwas schmaler Flexen/Dremeln und dann direkt am Kontroller die Kabel raus führen. Es gibt ja auch schön dünne Kabel https://www.amazon.de/CableCreation-Einbausteckverbinder-abgewinkeltem-Buchsenstecker-Verriegelung-Blau/dp/B01IBA3ITK Aber da sollte mann dann wirklich drauf achten, daß die Blechkanten etwas abgedeckt sind. Je dünner die Kabel, desto weniger Isolation/Schutz ist da drum. Okay, Ich habe solche Skrupel verloren (wenn es mein Eigentum ist).
  10. Wenn aus "alle idle/spindown" einen Paritycheck startet, laufen bei mir alle Disks im Parity gesicherten Array gleichzeitg an.
  11. Ich hoffe kein SIL oder Marvel Chip(satz). Soweit ich das sehe, sind kaum andere für unraid sinnvolle SATA Chipsätze (ausser eben ASM oder JMB) auf dem Markt. SAS ist leistungsfähiger aber auch stromhungriger. Zum Gehäuse: Leider nicht wirklich hübsch, aber die sind ganz brauchbar (IcyDock fatcage Icy Dock MB153SP-B): https://www.ebay.de/itm/255538970099 oder 2 Stück hiervon nebeneinander auf dem Microserver mit Doppelklebeband. Aufgrund des geschlossenen Eckigen gehäuses finde ich, siehte s etwas weniger gebastelt aus (wenn man nur von vorne/oben drauf schaut) IPC Wechselrahmen ST-5253 3-fach Wechselrahmen für 2,5" oder 3,5" Festplatten: https://www.ebay.de/itm/224878901428 Ich habe sowas mal ne Zeit lang mit einem RaidSonic Icy Box IB-553SSK gemacht: https://geizhals.de/raidsonic-icy-box-ib-553ssk-55103-a435968.html 😁 Edit: Ich habe mir nun mal den Gen10plus angesehen: Wenn Du die Ilo Funktion nicht brauchst, kannst Du die SATA und Stromkbel vielleicht durch das zugehörende Slotblech oberhalb des Zusatz SaTA Kontrollers heraus führen. Aufgrund der Metallkanten würde ich dann aber Kantenschoner/Kederband an dem Blechausschhnitt anbringen (oder zumindest mit Isoband oder so die Kanten entschärfen). In meinem 2nd System habe ich gerade 7 Festplatten bei einem einen Paritycheck und bin bei 97W. Deine 180W sollten also reichen.
  12. Wenn Du den PCIe Slot für nichts anderes brauchst und auch bei der Stromverkabelung vor nichts zurückschreckst, könnte eine ASM 1166 basierte Portkarte mit PCIe x4 Slot (elektrisch x2) für bis zu 6 SATA Festplatten gut sein. Beispielswesie sowas (da hgehen auch die Kabel nach hinten weg, was bei Low Profile wohl passend sein dürfte): https://www.ebay.de/itm/384650299069 Du musst Dir eben nru etwaqs einfallen alssen, wie Du die bis zu 6 weiteren SATA Geraete mit Stromversorgst udn unter bringst. Wenn es nicht schön ein muß könntest Du 1 oder 2 Wechselrahmen auf den Microserver drauf Kleben und da die Festplatten rein stoeppeln. Aber wie gesagt: schau Dir auch die Stromversorgung des Servers an. Du mußt genug Leistung haben um alle Geräte gleichzeitig nutzen zu können. gerade im Moment des Anlaufens aller festplatten (Paritycheck oder so) wird die Last wohl am höchsten sein.
  13. Ich vermute anhand Deienes Screenshots: NextCloud. Klar, aber wenn es die einzige Parity war verlierst Du dann eben die Sicherheit gegen HDD Ausfall. Ich würde einfach eine 2TB NVMe für alle Cacheaufgaben+VM einsetzen und alle SATA für Festplatten. Oder nutzt Du die 3TB SSD Gesamtnutzkapazität wirklich aus? Solange Du ein Backup vorhälst, würdest Du auch nichts verlieren, wenn Du Parity weg lässt. Alternativ: Ich kenne jetzt den internen Aufbau den Microserver Gen10 nicht, aber wenn ein M.2 NVMe Anschluß mit PCIe x2 vorhanden und genug Platz dort ist, könnte man darüber bis zu 5 oder 6 SATA Anschlüsse (JMB585 oder ASM1166) nachrüsten. Ist aber etwas zusätzliche Bastelarbeit Strom und extra Platz für Festplatten da dran zu frickeln (evtl. Öffnung ins Gehäuse schneiden um Kabel raus und ext. Festplattenrahmen anzubringen. (Nicht hübsch, aber funktionell). Die internen SATA würde ich dann bevorzugt für SSD verwenden und die so nachträglich zugebauten 'externen' SATA Möglichkeiten für Festplatten, weil bei voller Ausnutzung weniger Performant.
  14. Und wenn es doch eine zwischenzeitlich gealterte Hardware ist? Spontane Neustarts treten bei problematischer Stromversorgung gerne auf. Hast Du vielleicht zu Testzwecken ein anderes Netzteil rum liegen?
  15. Ich habe keine Lösung und kann nur empfehlen die vorgeschlagenen Veränderungen durchzutesten. Die wichtigste Veränderung scheint miot in der Position der Grafikkarte zu liegen. Im obersten x16 PCIe Steckplatz sollte sie auch ausreichend Strom bekommen. die anderen Plätze könnten wirklich für die P1000 mit mutmaßlicht über 40W Bedarf etwas schwach sein.
  16. Du kannst aktuell leider nur bekommen, was es auch verfügbar gibt. Da Du sowieso schon SAS Kontroller mit mehr Verbrauch akzeptierst, wie wäre es einen SAS Kontroller mit mehr als 8 Anschlüssen zu nehmen und den auf ein erhältliches Mainboard zu stecken? Überraschenderweise aktuell Neuware (OEM) billiger als Gebrauchtware bei ebay https://geizhals.de/broadcom-sas-9201-16i-lsi00244-a800984.html?hloc=de spätere Ergänzung nur so als weitere Denkanstöße: Da es das Gigabyte W480 Vision W aktuell nicht zu kaufen gibt und Du das Vision D nicht willst, bleibt bei den gewünschten Eckdaten laut Geizhals nur das ASRock W480 Creator 90-MXBC30-A0UAYZ https://geizhals.de/asrock-w480-creator-a2301763.html?hloc=de übrig. Kurzfristig verfügbar ab ca. 650 Euro. Leider weiß ich nichts über die weitere Bestückung auf dem Board (was ist in welchen PCIe Slots drin?). Du erwähntest ja, daß Du schon eine SAS Karte drin hast und 16 HDDs. Ich vermute eine 8i SAS Karte und 8 der internen 10 SATA Ports. Ich würde allein schon wegen den Kosten aber dennoch mal über das W480 Vision D (ca. 285Euro) in Verbindung mit der erwähnetn SAS 16i Karte (ca.227 Euro) nachdenken (Summe ca. 512Euro). Gegenüber dem W480 Vision W mit einer 8i Karte wird das nicht viel Leistungsunterschied machen, Du hast in Summe mehr Ports frei und es kostet weniger als das ASUS Board mit 8 SATA Ports. Sollte es bei 16 benötigten SATA Ports bleiben, könnte man auch den SAS Kontrolelr raus nehmen und die 6 SATA Ports auf dem Vision D mit 2 SATA Kontrollern der ASM1166 PCIe x4 (elektrisch x2) Bauart bestücken. https://www.ebay.de/itm/384650299069 Damit kann man dann zum Teil kompensieren, daß das Board bei Verwendung einiger M.2 Slots wohl einzelne SATA OnBoards abschaltet. Das wäre billiger (2x 32 Euro) und da der SAS Kontroller raus ist möglicherweise sogar stromsparender als die Kombination des Mainboards mit dem SAS Kontroller. Alternativ (zusätzlich?) einen ASM1064 im PCIe x1 Slot. Laut englischsprachigem Manual soll der erste x16 Slot auch Bifurcation ermöglichen (x8x8 oder x8x4x4). Wenn Du einen Bifurcation Adapter verwendest (extra Kosten!) sind sogar noch mehr Möglichkeiten drin. https://www.ebay.de/itm/133733719047
  17. Und wenn Du es mit dem Modify Flag startest, so daß es auch die gefunden Fehler schreibend korrigieren darf?
  18. Hast Du es schon mal mit dem MC (MidnightCommander) versucht? Bei mir ist der recht robust. Wie oben schon geschrieben: Wenn Du das Filesystem checken willst, kannst Du das Array in den Maintenance Mode versetzen und dann hast Du auf jeder Disk auch die Möglichkeit das Filesystem zu checken.
  19. Also diese Werte würden mich sehr nervös machen. Wenn ich mir die Rohwerte ansehe sind 3608 mal Sektoren umgemappt worden. 13 konnten nicht korrigiert werden. 24 sind aktuell fraglich ob die noch korrekt gelesen/beschrieben werden können... Ich würde die Festplatte austauschen. Details zu SMART: https://de.wikipedia.org/wiki/Self-Monitoring,_Analysis_and_Reporting_Technology#Übliche_Parameter
  20. Da die Daten auf den jeweiligen Festplatten liegen würde ich erst einmal mit den SMART Tests der Festplatten beginnen. - Bei der betreffenden Festplatte anklicken (hier im 1. Screenshot beispielsweise Disk3) - Dann Selftest (2.Screenshot) - Dort kann man einen Kurztest (roter Pfeil) anwählen. (3.Screenshot) Oder, wenn man den Spindown delay abschaltet, kann man auch einen längeren Test starten (blauer Pfeil). (4.Screenshot) Wenn Du wirklich das Filesystem der jeweiligen Festplatte testen lassen willst, findest Du das auch bei (beispielsweise) Disk3 (siehe wieder 1. Screenshot) und dann etwas weiter unten "Check Filesystem Status". (5.Sreenshot) Dazu muß das Array aber vorher gestoppt und im Maintenance-Modus neu gestartet werden. 1.Screenshot: 2.Screenshot: 3.Screenshot: 4.Screenshot: 5.Screenshot:
  21. Scheint so. Bin gerade auch (bei einer Suche für Dich) auf ein Angebot reingefallen, bei dem dann doch Modell D angezeigt wurde. Amazon.de verweist auf Amazon US. Da habe ich auch meien 2 Vision W her. Aktuell etwas über 300 Euro (Vorauszahlung der Importgebühren eingerechnet) https://www.amazon.de/Gigabyte-Vision-Multi-GPU-Support-Motherboard/dp/B08BTVBZKX/ Bei Xeon-W wird es eng. Warum nicht das GIGABYTE W480 Vision D und in den PCIe x1 Slot eine SATA Portkarte rein (ASM1064 oder so)? https://geizhals.de/gigabyte-w480-vision-d-a2376284.html?v=k&hloc=de
  22. Das hängt davon ab wie Deine Nutzung aussieht. Wenn Du wenig genug Daten hast, daß sie alle auf eine Festplatte passen, macht es aus Stromverbrauchsgründen Sinn alles auf die eine Festplatte (mit Parität) einzustellen. Ich habe Datenmengen die zu groß sind, weshalb ich einzelne Shares über mehrere Diks aufspanne. Ob Du vielleicht aus anderen Gründen lieber trennen willst, kannst Du das natürlich machen/so wie bisher lassen. Du kannst es einfach umstellen und er wird dann entsprechend Deiner eingestellten Verteilregeln in den Shares die Disks dann alle nutzen.
  23. Hello. I created a 2nd unraid PC completely new (from old parts). I filled Disks with Data and then created Parity. After that I did install the Plugin Dynamix File Integrity. Then I checked disk1 and started Build on that disk. So disk1 is the only one I started to build the checksums and none other on this machine up until now. After Buiild for disk1 was ready I looked and was surprised: Disk1, 2 and 3 have a green sign (Build up-to-date). Since i did not build on Disk2, 3, 4 or 5 I am confused. I now started Disk2 Build and this is now running. But look at the Screenshot below: The Tool tells me the Build on Disk1,2 and 3 are mentioned to be okay. I did only create disk1 checksums and let it now bulild them on disk 2. I never build checksums on disks 3, 4 or 5. I had this problem several Month ago (january 22) on my first unraid machine also and did uninstall the plugin. Now on this (2nd) machine I have the same problem. How can I trust the File Integrity Plugin, when it looks like it does not tell me the actual truth? Where is my mistake? My previous posting concerning my 1st unraid System from January 22:
  24. Den Wert kurz und längerfristig im Auge behalten. Wenn der Wert steigt ist irgendwas im Signalweg zwischen Kontroller (Mainboard/Steckkarte) und Festplatte im Argen. Staubfussel, schlechter Kontakt, Vollmond. Nicht selten hilft (im ausgeschakteten Zustand) einfcah man vorsichtig ein paar mal ab+anstecken um oxidierte Kontakte zu mindern. Sollten dann immer noch steigende Werte auftreten, Komponenten (Kabel, Kontroller, Festplatte) testweise austauschen und dadurch herausfinden, was vermutlich die Ursache war. Dann entscheiden ob man damit lebt oder vielleicht die Ursache dauerhaft ersetzt. Sollte der Wert nicht steigen, ist es von selber verschwunden.
  25. Ich habe eine Aktualisierung durchgeführt: Im oberen PCIe Slot X16 habe ich per UEFI/BIOS Bifurication auf 8x4x4x einstellen können und dort nun eine x4x4x4x4 M.2 Karte drin. Eine NVMe Samsung 970 Evo Plus 2TB spielt darauf nun Cache und wird im Laufe der Zeit (und je nach verfügbarem Geld) um maximal 2 weitere M.2 SSD erweitert (wegen der 8x4x4x Aufteilung sind dort keine 4 SSD auf der Karte nutzbar). Zusätzlich: In dem M2 Key-E Slot war ja ein JMB582 2Port SATA Kontroller drin. Den habe ich entfernt. Dort habe ich nun einen Adapter von Key A/E auf Key-M eingebaut und dieser hat eine M.2 Key-M 6Port SATA Karte aufgenommen. Aufgrund eines Kunststoffhalters ist die Kontruktion nicht so wackelig, wie befürchtet. Da der Key-E Slot nur mit einer PCIe Lane (vermutlich 3.0) angebunden ist, macht es keinen Sinn mehr als 4 der SATA Ports für Festplatten gleichzeitig zu verwenden. Aber das sind immer noch 2 Ports mehr, als mit dem vorherigen JMB582 Adapter. Somit kann ich nun in Summe 18 SATA Geräte anschliesen. 12 SATA Ports über Kontrollersteckkarten mit je ca. 250MByte/s gleichzeitig und 6 SATA Ports onBoard, die sich mutmaßlich 2GByte/s teilen. Hier noch ein paar Bilder Dies ist der Adapter, der in einen KEY E/A Sockel passt und nach oben/senkrecht auf Key M adaptiert. Dabei links die Kunstsoffhalterung, die die 2280 M.2 Karte festhalten soll. Dies ist der Adapter in Großaufnahme, der in einen KEY E/A Sockel passt und nach oben/senkrecht auf Key M adaptiert. Links noch einmal der Key A/E auf Key M Adapter rechts die ASM1166 SATA Karte, die eigenltich PCIe3.0 x2 auf 6 SATA Ports adaptieren soll. Leider hat mein Mainboard an dem M.2 Key E Slot nur eine PCIe Lane, wodurch die Bandbreite sich besser nur auf 4 Ports aufteilt. Die rstlichen beiden SATA Ports lasse ich einfach frei. Hier der die eingebaute Kombination (mit 2 gelben und 2 grünen Kabeln zu den Wechselrahmen für Festplatten). Das Selbe aus einem leicht anderen Winkel.
×
×
  • Create New...