Jump to content

DataCollector

Members
  • Posts

    3,969
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Könnte klappen, ja. Dies ist eine PCIe x1 Steckkarte. Das Maainboard hat laut der von Dir benannten Webseite: 1 PCI Express x16 (Gen 3.0 für i5-/i7-Ivy-Bridge-Prozessoren, Gen 2.0 für alle anderen) 3 PCI Express x1 (Gen 2.0) 1 PCI-Express-Minicard Laut Deiner Darstellung soll ein i3-2120 (Sandy bridge) mit HD-Grafik 2000 drin/drauf sein. Damit sind alle PCIe Slots wohl auf Gen2 beschränkt. Deine Steckkarte wird also mit maximal 500MByte/s befeuert. Wenn Du heutige Festplatten mit irgendwas um 250MByte/S dort anschließt, kannst Du gleichzeitig maximal 2 Festplatten damit performant betreiben. Also 6 Festplatten Onboard, 2 Festplatten mit dem Zusatzkontroller: dmit kommst Du in Summe auf die gewünschten 1xParity, 4-6x3,5 HDD, 1xCache Wobei ich zustimme: wenn der Cache eine SSD ist, solltest Du genau raussuchen, welcher der SATA Ports SATA 3.0 spricht. Achtung: einige Chipsätze der Sandy Bridge Serie hatten einen Bug und die SATA 3.0 Ports sind mit der Zeit ausgefallen. https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Sandy-Bridge-Probleme-mit-SATA-Umtausch-moeglich-Update-2-fehlerhafte-Ports-erkennen-810068/ Bevor Du Dir zuviele Hoffnungen machst und dann diese enttäuscht werden: probiere alle Ports mit einer SSD aus und Benchmarke die SSD an allen internen Ports (unraid mit diskbench kann das). Sollten die Ports defekt sein, könnte es billiger sein ein anderes Board+CPU zu nehmen, als mit Zusatzkontrollern die ausgefallenen SATA Ports zu kompensieren. Das müsste man dann genauer durchrechnen. Wenn Dir für Deine Zwecke in interne Prozessorgrafik ausreicht, könntest Du im PCIe x16 Slot (Gen2.0) vielleicht sogar eine Adpaterkarte für eine NVMe SSD einbauen und dort eine NVMe SSD für Docker/VM/Cache einsetzen. Die läuft zwar dann nur mit Gen2.0 (halb so schnell wie Gen3.0), aber das sollte immer noch rund 2GByte/s ermöglichen und weitaus flotter als SATA sein. Leider sind die letzten beiden wirklich guten Deals zu Samsung 970 Evo Plus 2TB (x-kom und Amazon) abgelaufen. Hat Deine "Gaming Maschine" noch DDR3 Module? Das HP-Mainboard beherrscht laut Webseite: 4x 240-Pin-DDR3-DIMM-Steckplätze PC3-10600 (DDR3-1333) PC3-12800 (DDR3-1600)
  2. Thank you. I did so on my 1st unraid machine. And I am surprised. Diskspeed tries to test/bench a Device Disk4 sdaf on the ASM1062 controller (and seems to be stuck at it). I can't figure out which device it is. When I look in the main tab and search for an sdaf I can't find any. Even at the "Tools/System Devices" I can't find a Disk4 sdaf on my only ASM 1062 controller. It seems diskspeed does not use the same naming like unraid in the Main tab or in the Tools/System Devices Section. Tools/System Devices: ================ PCI Devices and IOMMU Groups IOMMU group 0: [8086:9b33] 00:00.0 Host bridge: Intel Corporation Comet Lake-S 6c Host Bridge/DRAM Controller (rev 05) IOMMU group 1: [8086:1901] 00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 05) [9005:028c] 01:00.0 RAID bus controller: Adaptec Series 7 6G SAS/PCIe 3 (rev 01) [1:1:0:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdb 16.0TB [1:1:4:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdc 16.0TB [1:1:5:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdd 16.0TB [1:1:6:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sde 16.0TB [1:1:7:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdf 16.0TB [1:1:9:0] disk ATA TOSHIBA MG08ACA1 0102 /dev/sdg 16.0TB [1:1:10:0] disk ATA WDC WUH721818AL PCGN /dev/sdh 18.0TB [1:1:12:0] disk ATA WDC WUH721818AL PCGN /dev/sdi 18.0TB [1:1:13:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdj 18.0TB [1:1:14:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdk 18.0TB [1:1:15:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdl 18.0TB [1:1:16:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdm 18.0TB [1:1:17:0] disk ATA ST18000NM000J-2T SN01 /dev/sdn 18.0TB [1:1:18:0] disk ATA ST18000NM000J-2T SN02 /dev/sdo 18.0TB [1:1:19:0] disk ATA ST18000NM000J-2T SN02 /dev/sdp 18.0TB [1:1:20:0] disk ATA ST18000NM000J-2T SN02 /dev/sdq 18.0TB [1:1:21:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdr 18.0TB [1:1:22:0] disk ATA ST18000NM000J-2T SN01 /dev/sds 18.0TB [1:1:23:0] disk ATA WDC WUH721818AL PCGN /dev/sdt 18.0TB IOMMU group 2: [8086:9bc6] 00:02.0 VGA compatible controller: Intel Corporation Device 9bc6 (rev 05) IOMMU group 3: [8086:06f9] 00:12.0 Signal processing controller: Intel Corporation Comet Lake PCH Thermal Controller IOMMU group 4: [8086:06ed] 00:14.0 USB controller: Intel Corporation Comet Lake USB 3.1 xHCI Host Controller Bus 001 Device 001 Port 1-0 ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 001 Device 002 Port 1-5 ID 0bda:5411 Realtek Semiconductor Corp. RTS5411 Hub Bus 001 Device 003 Port 1-8 ID 0463:ffff MGE UPS Systems UPS Bus 001 Device 004 Port 1-11 ID 090c:1000 Silicon Motion, Inc. - Taiwan (formerly Feiya Technology Corp.) Flash Drive Bus 001 Device 005 Port 1-12 ID 1a40:0101 Terminus Technology Inc. Hub Bus 001 Device 007 Port 1-12.2 ID 0c45:7403 Microdia Foot Switch Bus 001 Device 008 Port 1-13 ID 048d:5702 Integrated Technology Express, Inc. ITE Device Bus 002 Device 001 Port 2-0 ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 002 Device 002 Port 2-5 ID 0bda:0411 Realtek Semiconductor Corp. Hub [8086:06ef] 00:14.2 RAM memory: Intel Corporation Comet Lake PCH Shared SRAM IOMMU group 5: [8086:06e0] 00:16.0 Communication controller: Intel Corporation Comet Lake HECI Controller IOMMU group 6: [8086:06d2] 00:17.0 SATA controller: Intel Corporation Comet Lake SATA AHCI Controller [8:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdaa 2.00TB [9:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdab 2.00TB [2:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdu 18.0TB [3:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdv 18.0TB [4:0:0:0] disk ATA ST18000NM000J-2T SN01 /dev/sdw 18.0TB [5:0:0:0] disk ATA TOSHIBA MG09ACA1 0104 /dev/sdx 18.0TB [6:0:0:0] disk ATA CT2000MX500SSD1 023 /dev/sdy 2.00TB [7:0:0:0] disk ATA CT2000MX500SSD1 033 /dev/sdz 2.00TB IOMMU group 7: [8086:06c0] 00:1b.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #17 (rev f0) IOMMU group 8: [8086:06ac] 00:1b.4 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #21 (rev f0) IOMMU group 9: [8086:06b8] 00:1c.0 PCI bridge: Intel Corporation Device 06b8 (rev f0) [8086:06bc] 00:1c.4 PCI bridge: Intel Corporation Device 06bc (rev f0) IOMMU group 10: [8086:06bd] 00:1c.5 PCI bridge: Intel Corporation Comet Lake PCIe Port #6 (rev f0) IOMMU group 11: [8086:06bf] 00:1c.7 PCI bridge: Intel Corporation Device 06bf (rev f0) IOMMU group 12: [8086:06b0] 00:1d.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #9 (rev f0) [8086:06b4] 00:1d.4 PCI bridge: Intel Corporation Device 06b4 (rev f0) IOMMU group 13: [8086:0697] 00:1f.0 ISA bridge: Intel Corporation Device 0697 [8086:06c8] 00:1f.3 Audio device: Intel Corporation Comet Lake PCH cAVS [8086:06a3] 00:1f.4 SMBus: Intel Corporation Comet Lake PCH SMBus Controller [8086:06a4] 00:1f.5 Serial bus controller: Intel Corporation Comet Lake PCH SPI Controller [8086:0d4c] 00:1f.6 Ethernet controller: Intel Corporation Ethernet Connection (11) I219-LM IOMMU group 14: [144d:a808] 03:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller SM981/PM981/PM983 [N:0:4:1] disk Samsung SSD 970 EVO Plus 2TB__1 /dev/nvme0n1 2.00TB IOMMU group 15: [8086:15f2] 06:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-LM (rev 03) IOMMU group 16: [1b21:0612] 07:00.0 SATA controller: ASMedia Technology Inc. ASM1062 Serial ATA Controller (rev 02) [10:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdac 18.0TB [11:0:0:0] disk ATA ST18000NM000J-2T SN02 /dev/sdad 18.0TB
  3. Hello. I am new to diskspeed and by far i do not know everythin what this thing can do. I installed the Docker 'Diskspeed' on both of my Systems. On the 1st System it looks good. Just one small thing: I do miss an indicator which disk already was benchmarked and has a graph and with does not have a benchmark graph. With more than 20 Disks it is a hassle to keep track wwhen using this tool the first time. 😁 But that is just a luxus problem. On the 2nd System (look at my signature) I once started it, and it crashed. Then I stopped docker and tried to start again and now I always get an Server Error. I should mention, that 3 unassigned Devices are currently in the process of preclear. Is the Diskspeed Docker vulnerable when preclear is running on a disk? Edit: After precler is finished on all 3 Disks: diskspeed docker starts and works without rebooting the unraid System. It looks like diskspeed does really not like it, when some disks are in use (preclear).
  4. Marvel hat unter unraid nicht den besten Ruf, aber es gibt einige Marvel basierte Kontroller, die funktionieren. Ich mache da eher einen Bogen drum. Wenn ich das YT Video zu dem Microserver Gen10 plus richtig gesehen habe, könnte man dann imme rnoch hinten im gehäuse ein paar Öffnungen für Kabel rein Dremeln/Bohren. Kann man machen. Evtl. die Masseleitungen zusammenlaufen lassen um nicht durch zu große Potentialunterschiede Probleme zu bekommen. Natuerlich geht bei 2 Netzteilen die Effizienz etwas flöten. Nicht zwingend. Aber wenn Du es aus einem Netzteil versorgen könntest, wäre es wohl. Vielleicht kannst Du das Slotblech jaua uch etwas schmaler Flexen/Dremeln und dann direkt am Kontroller die Kabel raus führen. Es gibt ja auch schön dünne Kabel https://www.amazon.de/CableCreation-Einbausteckverbinder-abgewinkeltem-Buchsenstecker-Verriegelung-Blau/dp/B01IBA3ITK Aber da sollte mann dann wirklich drauf achten, daß die Blechkanten etwas abgedeckt sind. Je dünner die Kabel, desto weniger Isolation/Schutz ist da drum. Okay, Ich habe solche Skrupel verloren (wenn es mein Eigentum ist).
  5. Wenn aus "alle idle/spindown" einen Paritycheck startet, laufen bei mir alle Disks im Parity gesicherten Array gleichzeitg an.
  6. Ich hoffe kein SIL oder Marvel Chip(satz). Soweit ich das sehe, sind kaum andere für unraid sinnvolle SATA Chipsätze (ausser eben ASM oder JMB) auf dem Markt. SAS ist leistungsfähiger aber auch stromhungriger. Zum Gehäuse: Leider nicht wirklich hübsch, aber die sind ganz brauchbar (IcyDock fatcage Icy Dock MB153SP-B): https://www.ebay.de/itm/255538970099 oder 2 Stück hiervon nebeneinander auf dem Microserver mit Doppelklebeband. Aufgrund des geschlossenen Eckigen gehäuses finde ich, siehte s etwas weniger gebastelt aus (wenn man nur von vorne/oben drauf schaut) IPC Wechselrahmen ST-5253 3-fach Wechselrahmen für 2,5" oder 3,5" Festplatten: https://www.ebay.de/itm/224878901428 Ich habe sowas mal ne Zeit lang mit einem RaidSonic Icy Box IB-553SSK gemacht: https://geizhals.de/raidsonic-icy-box-ib-553ssk-55103-a435968.html 😁 Edit: Ich habe mir nun mal den Gen10plus angesehen: Wenn Du die Ilo Funktion nicht brauchst, kannst Du die SATA und Stromkbel vielleicht durch das zugehörende Slotblech oberhalb des Zusatz SaTA Kontrollers heraus führen. Aufgrund der Metallkanten würde ich dann aber Kantenschoner/Kederband an dem Blechausschhnitt anbringen (oder zumindest mit Isoband oder so die Kanten entschärfen). In meinem 2nd System habe ich gerade 7 Festplatten bei einem einen Paritycheck und bin bei 97W. Deine 180W sollten also reichen.
  7. Wenn Du den PCIe Slot für nichts anderes brauchst und auch bei der Stromverkabelung vor nichts zurückschreckst, könnte eine ASM 1166 basierte Portkarte mit PCIe x4 Slot (elektrisch x2) für bis zu 6 SATA Festplatten gut sein. Beispielswesie sowas (da hgehen auch die Kabel nach hinten weg, was bei Low Profile wohl passend sein dürfte): https://www.ebay.de/itm/384650299069 Du musst Dir eben nru etwaqs einfallen alssen, wie Du die bis zu 6 weiteren SATA Geraete mit Stromversorgst udn unter bringst. Wenn es nicht schön ein muß könntest Du 1 oder 2 Wechselrahmen auf den Microserver drauf Kleben und da die Festplatten rein stoeppeln. Aber wie gesagt: schau Dir auch die Stromversorgung des Servers an. Du mußt genug Leistung haben um alle Geräte gleichzeitig nutzen zu können. gerade im Moment des Anlaufens aller festplatten (Paritycheck oder so) wird die Last wohl am höchsten sein.
  8. Ich vermute anhand Deienes Screenshots: NextCloud. Klar, aber wenn es die einzige Parity war verlierst Du dann eben die Sicherheit gegen HDD Ausfall. Ich würde einfach eine 2TB NVMe für alle Cacheaufgaben+VM einsetzen und alle SATA für Festplatten. Oder nutzt Du die 3TB SSD Gesamtnutzkapazität wirklich aus? Solange Du ein Backup vorhälst, würdest Du auch nichts verlieren, wenn Du Parity weg lässt. Alternativ: Ich kenne jetzt den internen Aufbau den Microserver Gen10 nicht, aber wenn ein M.2 NVMe Anschluß mit PCIe x2 vorhanden und genug Platz dort ist, könnte man darüber bis zu 5 oder 6 SATA Anschlüsse (JMB585 oder ASM1166) nachrüsten. Ist aber etwas zusätzliche Bastelarbeit Strom und extra Platz für Festplatten da dran zu frickeln (evtl. Öffnung ins Gehäuse schneiden um Kabel raus und ext. Festplattenrahmen anzubringen. (Nicht hübsch, aber funktionell). Die internen SATA würde ich dann bevorzugt für SSD verwenden und die so nachträglich zugebauten 'externen' SATA Möglichkeiten für Festplatten, weil bei voller Ausnutzung weniger Performant.
  9. Und wenn es doch eine zwischenzeitlich gealterte Hardware ist? Spontane Neustarts treten bei problematischer Stromversorgung gerne auf. Hast Du vielleicht zu Testzwecken ein anderes Netzteil rum liegen?
  10. Ich habe keine Lösung und kann nur empfehlen die vorgeschlagenen Veränderungen durchzutesten. Die wichtigste Veränderung scheint miot in der Position der Grafikkarte zu liegen. Im obersten x16 PCIe Steckplatz sollte sie auch ausreichend Strom bekommen. die anderen Plätze könnten wirklich für die P1000 mit mutmaßlicht über 40W Bedarf etwas schwach sein.
  11. Du kannst aktuell leider nur bekommen, was es auch verfügbar gibt. Da Du sowieso schon SAS Kontroller mit mehr Verbrauch akzeptierst, wie wäre es einen SAS Kontroller mit mehr als 8 Anschlüssen zu nehmen und den auf ein erhältliches Mainboard zu stecken? Überraschenderweise aktuell Neuware (OEM) billiger als Gebrauchtware bei ebay https://geizhals.de/broadcom-sas-9201-16i-lsi00244-a800984.html?hloc=de spätere Ergänzung nur so als weitere Denkanstöße: Da es das Gigabyte W480 Vision W aktuell nicht zu kaufen gibt und Du das Vision D nicht willst, bleibt bei den gewünschten Eckdaten laut Geizhals nur das ASRock W480 Creator 90-MXBC30-A0UAYZ https://geizhals.de/asrock-w480-creator-a2301763.html?hloc=de übrig. Kurzfristig verfügbar ab ca. 650 Euro. Leider weiß ich nichts über die weitere Bestückung auf dem Board (was ist in welchen PCIe Slots drin?). Du erwähntest ja, daß Du schon eine SAS Karte drin hast und 16 HDDs. Ich vermute eine 8i SAS Karte und 8 der internen 10 SATA Ports. Ich würde allein schon wegen den Kosten aber dennoch mal über das W480 Vision D (ca. 285Euro) in Verbindung mit der erwähnetn SAS 16i Karte (ca.227 Euro) nachdenken (Summe ca. 512Euro). Gegenüber dem W480 Vision W mit einer 8i Karte wird das nicht viel Leistungsunterschied machen, Du hast in Summe mehr Ports frei und es kostet weniger als das ASUS Board mit 8 SATA Ports. Sollte es bei 16 benötigten SATA Ports bleiben, könnte man auch den SAS Kontrolelr raus nehmen und die 6 SATA Ports auf dem Vision D mit 2 SATA Kontrollern der ASM1166 PCIe x4 (elektrisch x2) Bauart bestücken. https://www.ebay.de/itm/384650299069 Damit kann man dann zum Teil kompensieren, daß das Board bei Verwendung einiger M.2 Slots wohl einzelne SATA OnBoards abschaltet. Das wäre billiger (2x 32 Euro) und da der SAS Kontroller raus ist möglicherweise sogar stromsparender als die Kombination des Mainboards mit dem SAS Kontroller. Alternativ (zusätzlich?) einen ASM1064 im PCIe x1 Slot. Laut englischsprachigem Manual soll der erste x16 Slot auch Bifurcation ermöglichen (x8x8 oder x8x4x4). Wenn Du einen Bifurcation Adapter verwendest (extra Kosten!) sind sogar noch mehr Möglichkeiten drin. https://www.ebay.de/itm/133733719047
  12. Und wenn Du es mit dem Modify Flag startest, so daß es auch die gefunden Fehler schreibend korrigieren darf?
  13. Hast Du es schon mal mit dem MC (MidnightCommander) versucht? Bei mir ist der recht robust. Wie oben schon geschrieben: Wenn Du das Filesystem checken willst, kannst Du das Array in den Maintenance Mode versetzen und dann hast Du auf jeder Disk auch die Möglichkeit das Filesystem zu checken.
  14. Also diese Werte würden mich sehr nervös machen. Wenn ich mir die Rohwerte ansehe sind 3608 mal Sektoren umgemappt worden. 13 konnten nicht korrigiert werden. 24 sind aktuell fraglich ob die noch korrekt gelesen/beschrieben werden können... Ich würde die Festplatte austauschen. Details zu SMART: https://de.wikipedia.org/wiki/Self-Monitoring,_Analysis_and_Reporting_Technology#Übliche_Parameter
  15. Da die Daten auf den jeweiligen Festplatten liegen würde ich erst einmal mit den SMART Tests der Festplatten beginnen. - Bei der betreffenden Festplatte anklicken (hier im 1. Screenshot beispielsweise Disk3) - Dann Selftest (2.Screenshot) - Dort kann man einen Kurztest (roter Pfeil) anwählen. (3.Screenshot) Oder, wenn man den Spindown delay abschaltet, kann man auch einen längeren Test starten (blauer Pfeil). (4.Screenshot) Wenn Du wirklich das Filesystem der jeweiligen Festplatte testen lassen willst, findest Du das auch bei (beispielsweise) Disk3 (siehe wieder 1. Screenshot) und dann etwas weiter unten "Check Filesystem Status". (5.Sreenshot) Dazu muß das Array aber vorher gestoppt und im Maintenance-Modus neu gestartet werden. 1.Screenshot: 2.Screenshot: 3.Screenshot: 4.Screenshot: 5.Screenshot:
  16. Scheint so. Bin gerade auch (bei einer Suche für Dich) auf ein Angebot reingefallen, bei dem dann doch Modell D angezeigt wurde. Amazon.de verweist auf Amazon US. Da habe ich auch meien 2 Vision W her. Aktuell etwas über 300 Euro (Vorauszahlung der Importgebühren eingerechnet) https://www.amazon.de/Gigabyte-Vision-Multi-GPU-Support-Motherboard/dp/B08BTVBZKX/ Bei Xeon-W wird es eng. Warum nicht das GIGABYTE W480 Vision D und in den PCIe x1 Slot eine SATA Portkarte rein (ASM1064 oder so)? https://geizhals.de/gigabyte-w480-vision-d-a2376284.html?v=k&hloc=de
  17. Das hängt davon ab wie Deine Nutzung aussieht. Wenn Du wenig genug Daten hast, daß sie alle auf eine Festplatte passen, macht es aus Stromverbrauchsgründen Sinn alles auf die eine Festplatte (mit Parität) einzustellen. Ich habe Datenmengen die zu groß sind, weshalb ich einzelne Shares über mehrere Diks aufspanne. Ob Du vielleicht aus anderen Gründen lieber trennen willst, kannst Du das natürlich machen/so wie bisher lassen. Du kannst es einfach umstellen und er wird dann entsprechend Deiner eingestellten Verteilregeln in den Shares die Disks dann alle nutzen.
  18. Hello. I created a 2nd unraid PC completely new (from old parts). I filled Disks with Data and then created Parity. After that I did install the Plugin Dynamix File Integrity. Then I checked disk1 and started Build on that disk. So disk1 is the only one I started to build the checksums and none other on this machine up until now. After Buiild for disk1 was ready I looked and was surprised: Disk1, 2 and 3 have a green sign (Build up-to-date). Since i did not build on Disk2, 3, 4 or 5 I am confused. I now started Disk2 Build and this is now running. But look at the Screenshot below: The Tool tells me the Build on Disk1,2 and 3 are mentioned to be okay. I did only create disk1 checksums and let it now bulild them on disk 2. I never build checksums on disks 3, 4 or 5. I had this problem several Month ago (january 22) on my first unraid machine also and did uninstall the plugin. Now on this (2nd) machine I have the same problem. How can I trust the File Integrity Plugin, when it looks like it does not tell me the actual truth? Where is my mistake? My previous posting concerning my 1st unraid System from January 22:
  19. Den Wert kurz und längerfristig im Auge behalten. Wenn der Wert steigt ist irgendwas im Signalweg zwischen Kontroller (Mainboard/Steckkarte) und Festplatte im Argen. Staubfussel, schlechter Kontakt, Vollmond. Nicht selten hilft (im ausgeschakteten Zustand) einfcah man vorsichtig ein paar mal ab+anstecken um oxidierte Kontakte zu mindern. Sollten dann immer noch steigende Werte auftreten, Komponenten (Kabel, Kontroller, Festplatte) testweise austauschen und dadurch herausfinden, was vermutlich die Ursache war. Dann entscheiden ob man damit lebt oder vielleicht die Ursache dauerhaft ersetzt. Sollte der Wert nicht steigen, ist es von selber verschwunden.
  20. Ich habe eine Aktualisierung durchgeführt: Im oberen PCIe Slot X16 habe ich per UEFI/BIOS Bifurication auf 8x4x4x einstellen können und dort nun eine x4x4x4x4 M.2 Karte drin. Eine NVMe Samsung 970 Evo Plus 2TB spielt darauf nun Cache und wird im Laufe der Zeit (und je nach verfügbarem Geld) um maximal 2 weitere M.2 SSD erweitert (wegen der 8x4x4x Aufteilung sind dort keine 4 SSD auf der Karte nutzbar). Zusätzlich: In dem M2 Key-E Slot war ja ein JMB582 2Port SATA Kontroller drin. Den habe ich entfernt. Dort habe ich nun einen Adapter von Key A/E auf Key-M eingebaut und dieser hat eine M.2 Key-M 6Port SATA Karte aufgenommen. Aufgrund eines Kunststoffhalters ist die Kontruktion nicht so wackelig, wie befürchtet. Da der Key-E Slot nur mit einer PCIe Lane (vermutlich 3.0) angebunden ist, macht es keinen Sinn mehr als 4 der SATA Ports für Festplatten gleichzeitig zu verwenden. Aber das sind immer noch 2 Ports mehr, als mit dem vorherigen JMB582 Adapter. Somit kann ich nun in Summe 18 SATA Geräte anschliesen. 12 SATA Ports über Kontrollersteckkarten mit je ca. 250MByte/s gleichzeitig und 6 SATA Ports onBoard, die sich mutmaßlich 2GByte/s teilen. Hier noch ein paar Bilder Dies ist der Adapter, der in einen KEY E/A Sockel passt und nach oben/senkrecht auf Key M adaptiert. Dabei links die Kunstsoffhalterung, die die 2280 M.2 Karte festhalten soll. Dies ist der Adapter in Großaufnahme, der in einen KEY E/A Sockel passt und nach oben/senkrecht auf Key M adaptiert. Links noch einmal der Key A/E auf Key M Adapter rechts die ASM1166 SATA Karte, die eigenltich PCIe3.0 x2 auf 6 SATA Ports adaptieren soll. Leider hat mein Mainboard an dem M.2 Key E Slot nur eine PCIe Lane, wodurch die Bandbreite sich besser nur auf 4 Ports aufteilt. Die rstlichen beiden SATA Ports lasse ich einfach frei. Hier der die eingebaute Kombination (mit 2 gelben und 2 grünen Kabeln zu den Wechselrahmen für Festplatten). Das Selbe aus einem leicht anderen Winkel.
  21. Mit den aktuellen Informationen kann ich es nicht eingrenzen und kann nur vorschlagen verschieden Variationen durchzutesten. Es kann sein, daß aus irgendeinem Grund der schreibende PC da parallel nach einiger Laufzeit irgendetwas macht, es kann sein, daß unraid bremst (auch wenn ich aktuell nicht wüßte, was es da sein kann, wenn es nicht die Parität ist), Je nach Netzwerkverbindung kann es auch sein, daß die so schlecht ist, daß die Fehlerzahl so sehr ansteigt, daß einfach nicht mehr durchs LAN geht und die Wiederholungssendungen soviel Bandbreite fressen... Viele Möglichkeiten, aber genau den Finger drauf zu legen ohne mehr zu wissen kann ich zumindest nicht.
  22. Nein. Dazu bin ich in der unraid Software noch zu neu. Meine langjahrige Erfahung mit Hardware läßt mich eher in der Richtung vermuten/suchen. Laut Handbuch hat da Mainboard zwar 2 Stück M.2 Plätze, aber das der zweite M.2 Steckplatz NVMe beherrscht habe ich da nirgendwo gelesen. https://geizhals.de/asrock-b450m-pro4-90-mxb8f0-a0uayz-a1858732.html 1x PCIe 3.0 x16 1x PCIe 2.0 x16 (x4) 1x PCIe 2.0 x1 1x M.2/M-Key (PCIe 3.0 x4 ... 1x M.2/M-Key (SATA ... https://www.asrock.com/mb/AMD/B450M Pro4/ "4 SATA3, 1 Ultra M.2 (PCIe Gen3 x4), 1 M.2 (SATA3)" Siehe auch Handbuch https://download.asrock.com/Manual/B450M Pro4.pdf PDF nummerierte Seite 4 (in Wirklichkeit die 10.PDF Seite): "4 x SATA3 6.0 Gb/s Connectors... * M2_2 and SATA3_3 share lanes. If either one of them is in use, the other one will be disabled. 1 x Ultra M.2 Socket (M2_1), supports M Key type 2242/2260/2280 M.2 PCI Express module up to Gen3 x4 (32Gb/s) 1 x M.2 Socket (M2_2), supports M Key type 2230/2242/2260/2280 M.2 SATA3 6.0 Gb/s module" M2_1 ist der Stecplatz näher an der CPU M2_2 Steckplatz ist der unten rechts in der Ecke, näher an den anderen SATA Anschlüssen. Siehe im PDF auch die Abbildung auf Seite 7 (in Wirklichkeit ist es schon die 13 Seite im PDF). Nein, laut den mir zugänglichen Informationen kann Dein Board in den M.2 Slots nur eine NVMe SSD betreiben und zwar im M2_1. Okay. Wenn der zweite M.2 Steckplatz (M2_2) leer ist, dann sollte er vermutlich auch nicht den SATA3_3 Steckplatz beeinflussen. (Wobei nicht sicher ist, daß die betroffene Disk3 an SATA Steckplatz3_3 steckt. Das wäre vielleicht nochmal genauer zu prüfen. Unraid nummeriert die Disks nicht logisch immer gleich nach der festgegebenen Reihenfolge der OnBoardsteckplätze.) Aber verdächtig ist es schon, wenn immer die Disk3 betroffen ist (oder ist der Fehler zwischenzeitlich gewandert?). Kannst Du rückwirkend herausfinden, ob die betroffene Disk immer am selben onboard SATA Steckplatz war? Wenn Du noch einen anderen SATA Steckplatz irgendwo frei hast, würde ich mal versuchen die betroffene Disk3 mal an einem anderen Steckplatz zu betreiben und den ursprünglichen Steckplatz dann erst einmal frei lassen. Verschwindet der Fehler ist mutmaßlich ein Hardwarefehler/Konfigurationsproblem an dem nun freigelassenen Steckplatz zu suchen. Bleibt der Fehler, kann es auch die Verkabelung zur Disk3 oder Disk3 selber sein. Wenn es eine NVME SSD ist, ist es eindeutig der M2_1, weil der zweite keine NVMe SSD bereiben kann (soweit ich die Informationen auf der Webseite des Herstellers, Handbuch und bei Geizhals korrekt verstehe). Entschuldigung, ich hole mal wieder etwas aus: Es gibt SATA Devices/Geräte in der uns von großen Festplatten bekannten Bauform 3,5Inch. Dann gibt es Devices/Geräte in der uns wohl auch bekannten Bauform 2,5Inch, welche für Notebookfestplatten und auch SSD verwendet wird. Diese werden an die üblichen SATA Anschlüsse meist per Kabel angeschlossen. Nun hat man aber, um seitlich Platz zu sparen, zwischenzeitlich auch SATA in die M.2 Bauform gepreßt. Fast zeitlich wurden die M.2 NVME/PCIe SSD entwickelt. Deshalb haben viele Mainboards nun M.2 Sockel. Einige der Sockel sind exklusiv nur für NVMe geeignet (und sind somit mit PCIe Lanes beschaltet). Diese Steckplätze sind für die flotten NVMe SSD gedacht (auch wenn es mittlerweise spezielle Adapterkarten gibt, die dies wieder in SATA Steck Anschlüsse umwandeln können). Und dann kommen wir endlich zu den M.2 Steckplätzen, die je nach Boarddesign exklusiv SATA beherrschen. Diese Steckplätze eignen sich nur für SATA und nichts anderes. Und um die M.2 SATA SSD in solchen Steckplätzen zu betreiben kann der Chipsatz ja nicht einfach irgendwoher magisch einen SATA Anschluß herbeizaubern. Also wird vom Hersteller einfach einer der onBoard SATA Steckplatze genommen und Leiterbahnen auf der Platine/Mainboard (ganz simpel ausgedrückt) auch zum M.2 Steckplatz geführt. Das wird wohl auch der Grund sein, warum bei dem ASRock B450M Pro4 der M2_2 Steckplatz unten rechts so nahe bei den anderen SATA Steckplätzen ist. Dann kann man einfach die SATA Leiterbahn(en) auch dort hin bringen und muß die nicht erst kreuz und quer über das Mainboard wo anders hin führen. Somit muß man sich immer entscheiden: Enwteder man steckt eine M.2 SATA SSD in den M.2 SATA Steckplatz (bei Dir M2_2) , dann fällt aber der zugehörende SATA Anschluß (bei Dir SATA Anschluß 3) aus oder man läßt den M.2 SATA Steckplatz frei und kann dann per Kabel eine größere Festplatte daran anschließen. Zusatzinfo 1 (nur der Vollständigkeit halber): Es gibt auch M.2 Steckplätze die beides beherrschen und somit je nach bestückung eine NVMe/PCIe SSD/Karte aufnehmen oder eine SATA SSD/Karte. So einen M.2 Sockel scheint Dein Mainboard aber nicht zu haben. Zusatzinfo 2 (ebenfalls nur der Vollständigkeit halber): Es gibt auch 3,5 Inch und 2,5 Inch Devices (Festplatten und SSD), welche mit anderen Techniken als SATA angeschloßen werden, die aber sehr bauähnlich sind (hier sei beispielsweise SAS erwähnt). Aber das eben nur zur Vollständigkeit weil ich weiter primär nur von SATA und NVMe schreibe) Die Vermutung der Stromversorgung kam meiner Erinnerung nach von Dir und ich weiter eine Möglichkeit. Sollte die P1000 Grafikkarte aber wirklich so sparsam sein (ich fand Modelle, die angeblich mit 47W auskommen), sollte ein normales Mainboard damit keine Probleme haben. Aber dennoch hängt es avon ab, wie ein Hersteller die Stromversorgung des jeweiligen PCIe Slots des Mainboards ausgelegt hat: https://de.wikipedia.org/wiki/PCI_Express#Stromversorgung "...Laut Spezifikation beträgt die gelieferte Leistung für einen gewöhnlichen Steckplatz wie bei PCI maximal 25 Watt, für Low-Profile-Karten höchstens 10 Watt und bei einem PEG-(PCIe-×16)-Steckplatz maximal 75 Watt..." Deshalb besteht die Möglichkeit, daß die Grafikkarte dennoch etwas zuviel Strom zieht, die Versorgung in Spitzenzeiten einbricht und die Fehler verursacht werden. Um das zu testen schlug ich den Tausch der PCIe Karten in den beiden Steckplätzen vor. Eigentlich behauptet der Hersteller des Mainboards zwar, daß Grafikkarten per Crossfire in beiden Steckplätzen funktionieren sollten, aber vielleicht gehen die davon aus, daß da eben die Stromversorgung nicht aus dem PCIe Slot gesaugt wird, sondern eine direkte Netzteilversorgung vorhanden ist, weil Crossfire in der Regel mit sehr leistungsfähigen aber auh sehr stromhungrigen Grafikkarten veranstaltet wurde/wird. Deshalb noch einmal zu WIkipedia (Link siehe oben): "...Diese maximal 75 Watt sind aufgeteilt in 5,5 Ampere über 12 Volt (66 Watt) und 3 A über 3,3 V (9,9 W). Da das für manche Einsatzzwecke wie Grafikkarten oder USB 3.0-Karten jedoch häufig zu wenig ist, sieht die Spezifikation unterschiedliche Zusatzstecker zur Stromversorgung vor, sogenannte PCI Express (Graphics) Power Supply Connector (auch PEG-Connector oder PCIe-Kabel), die +12 Volt liefern..." Die Idee, mit dem verdächtig immer an Disk3 auftretenden Problem, deutet aber an, daß auch irgendetwas an dem Anschluß/Kabel/Festplatte Ursache sein könnte. Du kannst in beide Richtungen weiter suchen und durch den Tausch der Komponenten hoffen, daß der Fehler dann verschwindet. (In einem Step: PCIe Karten tauschen in einem anderen Step: die Festplatte 3 mal an einem andeern SATA Anschluß betreiben und den fraglichen SATA Snchluß am Mainbioard frei lassen) Je nachdem nach welchem Step der Fehler verschwunden ist (oder eben nicht) kann man dann weiter suchen oder Rueckschlüsse ziehen.
  23. Also ich kopiere gerade von einem Win10 System mit TotalCommander per 10GBLan auf eine SMB Freigabe, in der aktuell eine 2TB NVMe SSD puffert und erreiche seit nun ca. 10 Minuten durchgehende Schreibgeschwindigkeietn bis zu 440MByte/s. Sobald ich direkt auf das Array mit 2 Paritätsfestplatten schreibe (ohne die SSD/Cachepool) erreiche ich eine Scheibgeschwindigkeit von erwartbaren rund 60MByte/s. (Hardware siehe Signatur 2nd System) Unter den Umständen erscheint mir das schon recht langsam. Direkt auf den SSD-Cache geschrieben hätte ich schon durchgehend die volle Geschwindigkeit erwartet. Ich schätze, da liegt wirklich irgendetwas im argen, aber wenn die Hardware wirklich so aufgebaut/genutzt wird, wie ich es Deinem Beitrag entnehme, verstehe ich auch nicht, warum es so massiv schwankt. Ich hatte vermutet, daß Du mit viel RAM ins Array mit Parity und ohne SSD Cache/Pool schreibst. Da ist das Verhalten üblich. Erst geht es sehr schnell (solange alles im RAM passiert). Und sobald dann wirklich ins Array geschrieben wird, bricht dei Geschwindigkeit wegen der Drehplatter ein. Naja, das weiss ich ja erst seit jetzt. Mein FestplattenArray ohne Parität schreibt in Spitze bis zu rund 260MByte/s weg. Mit Parität geht es auf 60-70MByte/s runter (was ja logisch ist). (Hardware siehe Signatur 1st System)
  24. Was/Wie mißt Du denn? Theoretische Übertragung im LAN von RAM des sendenden PC zum RAM des aufnehmenden (unraid)PC oder beispielsweise lesen/schreiben auf eine SMB Freigabe des UnraidPC? Hast Du schon ein Array zusammengestellt und läuft das mit oder ohne Paritätsfestplatte? Hast Du eine SSD (SATA oder NVMe) als Cache eingerichtet? Wie groß ist Dein RAM (der ja auch zu ca. 20% Füllstand Zwischenpuffert)? Ein paar mehr Informationen zu Deiner Hardware könnten bei der Problemsuche/-erklärung helfen. Reine datenübertragungsgeschwindigkeit: ja Wenn Du aber auf das unraidArray mit Parität direkt schreibst, bricht nach kurzer Zeit die Schreibgeschwindigkeit ein, weil anfangs die Daten erst im RAm Cache (und evtl. dann im SSD Cachepool) und erst dann auf der festplatte landen. Wenn der RAM (und SSD) Cache voll sind, bremst dann das Array mit Parität eben runter. Sollte es sich bei Deiner Messung wirklich um Schreibvorgänge in das Array mit Paritätsfestplatte handeln so ist eine Schreibgeschwindigkeitg unter 80MByte/s normal und nur durch einen ausreichend bis sehr üppigen SSD-Cachepool zu kompensieren.
  25. ... Dann würde ichd as jetzt noch einige Tage unter Betrieb beobechten und dann kannst Du Dich nun entscheiden wieviele Festplatten Du auf die nächsten paar Jahre verwenden willst und ob bis dahin nicht vielleicht ein einfacher SATA Kontroller ausreicht. Sind immerhin mindestens 5W Idle unterschied. Auf ein paar Jahre gesehen sind das schon einige Euro Stromkosten.
×
×
  • Create New...