Jump to content

DataCollector

Members
  • Posts

    3,431
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by DataCollector

  1. Ja, das habe ich auch mit Freude (wo anders) gelesen. Doch dann erinnerte ich mich an AVX 512, welches auch anfangs hoch gejubelt und dann doch wieder gestrichen wurde. https://newsbeezer.com/austria/alder-lake-prozessoren-intel-streicht-den-avx-512-endgultig-aus/ Hoffen wir, dass Linux/unraid schnell mit 12th Gen vollkommen umgehen kann, 12th Gend wirklich ECC dauerhalft bekommt und behält, es dann wirklich sehr effizient ist, die Preise fallen... achja und Weltfrieden wäre schön. Aber wenn ich es richtig verstanden habe sind iGPU ab 11th Gen wohl weiterhin nicht so flexibel nutzbar wie Intek bis 10th gen.
  2. Hallo @Ford Prefect Soweit ich @mgutt verstanden hatte, wird Syslog nie so groß.
  3. Hallo @Michael Meiszl Da detaillierte Infos fehlen, mal ein Schuß ins Blaue: Sind das Verzeichnisse, die im Hauptverzeichnis liegen und deren darin liegende Dateien, welche alle nicht mit unraid Shares sondern durch PC/VM per Fernzugriff/Netzwerk eingerichtet/angelegt wurden? Die Schreib-/Leseberechtigungen von Shares werden bei unraid über den Shares Tab eingestellt. Wenn man aber beispielsweise von einem PC/VM aus einfach auf der obersten Ebene selber Verzeichnisse anlegt, kann unraid nicht wissen, welche Berechtigung die Verzeichnisse haben sollen und somit sind die einfach für alle frei erreichbar.
  4. Dann habe ich das Doc/Manual auch falsch verstanden: Das Durchschreiben bei vollem Cache sollte eigentlich bei "Yes" und "Prefer" gehen. Erst "Only" schreibt nicht durch zum Array und "No" nutzt direkt das Array. https://wiki.unraid.net/Manual/Shares#Use_Cache_.28and_Mover_Behavior_with_User_Shares.29 Zitat gekürzt und in reihenfolge geändert: # Yes: Write new files to the cache as long as the free space on the cache is above the Minimum free space value. If the free space is below that then by-pass the cache and write the files directly to the main array. # Prefer: Write new files to the cache if the free space on the cache is above the Minimum free space setting for the share, and if the free space falls below that value then write the files to the main array instead. # Only: Write new files directly to the cache. If the free space on the cache is below the Minimum free space setting for the cache then the write will fail with an out-of-space error.
  5. Wenn Du wirklich 5TB im Cache (SSD) laufen lassen willst (einstelleung Prefer), musst Du eben mindestens 5TB Cache/SSD Kapazität bereitstellen. Zum Glück ist das bei unraid möglich, da man ja mehrere Datenträger in einem Pool verbinden kann. Wenn Du also 3 Stück 2TB SSD per Raid0 zu einem Datenträger verschmilzt, hast Du Deine 5TB und kannst diese per Prefer auch überwiegend performant im SSD behalten. Wenn Du hingegen eben einen kleineren Cache benutzt und der Rest auf Festplatten im Array liegt verlierst Du einmal die hohe Performance, wenn Daten der Festplatte im laufenden Betrieb benötigt werden und die Festplatten erst Spinup/hochfahren müssen und andererseits passiert di rgenau das, was Du erlebt hast: der Mover versucht immer Deinem Wunsch von "Prefer" nachzukommen und bei jedem Anlaufen so viele Daten wie möglich vom Array zu lesen und in den Cache zu schreiben. Und der ist dann natürlich voll bis zu dem eingestellten Maximum. Zusätzlich wird der Cache durch jedes (fast) komplette Vollschreiben wieder ein bisschen mehr verschlissen. Du musst Dich also entscheiden: - alles im Cache = entsprechend grosser Pool/Cache/SSD-Kapazität (mindestens so groß wie die VM und Systemdaten, die darauf laufen sollen) - miese Performance, voll laufende und schneller verschleissende SSD = aktueller Stand (zu kleiner Pool, zu große VM, Rest auf Festplatten im Array) - gute Performance, geschinte SSD = eine entsprechend kleine VM, die in den Pool passt und die Nutzdaten über Netzwerk von außen (Array oder Fremsystem) holen und auch dort wieder ablegen. Bei Raid0 oder JBOD-Verbund sind aber regelmäßige Backups von wichtigen Daten sehr anzuraten.
  6. Wie ich schon schrieb würde ich die einmal testen. Ob Du es mit Preclear oder einem anderen dazu geeigneten Tool machst, mußt Du wissen.
  7. EIne VM mit 5TB und Cache = Prefer bedeutet, daß das System 5TB Daten versucht in Deinen 2TB Cache zu pressen. Da das nicht geht, presst er alles da rein, was geht und dann ist die 2TB SSD voll. Warum eine so grosse VM? Selbst ein hungriges Windows kommt mit 50-70GB problemlos aus. Wie die anderen schon schrieben: der Rest sollte/muß ausserhalb der VM liegen.
  8. Jeder Schreibvorgang verschleisst eine SSD ein bisschen. Ich teste dennoch jeden Datenträger vor dem Einsatz um DOA Fällen vorzubeugen und auch wissen, wqs ich von dem Datenträger zu halten habe. Unter Windows nehme ich seit Jahren HDTunePro und speichere Screenshits der Tests für spätere Referenz/kontroller ab. Unter unraid nutze ich das Preclear Plugin. Wenn Du schon weisst, daß die SSD in Ordnung ist, ist ein vorheriger Test nicht erforderlich. Preclear ist nicht zwingend erforderlich. Willst Du die SSDs im Array oder als Cache/Pool verwenden?
  9. Nicht missverstehen. Meine Aussage zu den M.2 Kuehlkörpern ist meine persönliche Ansicht und ich verbaue lieber einen solchen Kühlkörper. Das bedeutet aber nicht, daß er zwingend erforderlich ist. Da Du aber die SSD in Verdacht hast etwas zu warm zu werden und wenn Platz für einen Kühlkörper drin ist, schadet er bei korrekter Montage höchstens Deinem Geldbeutel. Aber natürlich hat @mgutt vollkommen recht: Eine heutige SSD wurde so designt, dass sie eigentlich durch die selbst erzeugte Wärme keinen Schaden nehmen kann/darf und drosselt sich eigentlich selber. Genau wie es bei heutigen CPUs der Fall ist. Mit einem Kühlkörper hat man bei gleicher Luftbewegung nur ein bisschen mehr Wärmeabfuhr und damit ein bisschen mehr Spielraum/'Reserve'. Ich würde schauen ob da überhaupt ein Kühler auf dei M.2 drauf passt. Wenn ja, würde ich den montieren und einfcah die Temperatur unter Vollast beobachten, bevor ich Garantieverlierend da herumbohre.
  10. TDP ist ein Richtwert wo die Leistung bei dauerhaften Maximun sein kann. Wenn die CPU sich langweilt, verbraucht sie selbstverständlich weniger (wenn man sie läßt). Bis auf die aktuellsten paar CPU Generationen konnte man TDP sogar (fast) als maximale Verlustleistung ansehen und dahingehend die Kühlung auslegen. Leider ist man dazu über gegangen kurzzeitig in Turbostufen diese Wete zu sprengen, solange die CPU eben noch nicht zu warm/heiß ist. Somit sind elektrisch in Spitzenzeiten auch mal mehr drin. Aber genauso schalten heutige CPUs eingebaute Komponeten im Die ab um Strom zu sparen, wenn die jeweiligen Teile nicht gebraucht werden. Man sollte also die Kühlung etwas überdimensionieren, kann aber in idle Zeiten davon ausgehen, dass diese auch kaum etwas zu kühlen hat. CPU nicht oder nur sehr kurzzeitig belasten. Das hängt zu einem Grossteil davon ab, was die CPU machen soll, auf welches Board sie passen soll, welche Features erforderlich sind und ob da auch eine iGPU drin sein soll.
  11. Das wird sich zeigen. Es geht um mein Problemboard (Gigabte W480 Vision W) und soweit ich es sehe (aber eben noch gezielt ausprobieren muß, wenn ich das Ding endlich mal verstehe und in den Griff bekomme) scheine ich wirklich den primären x16 Slot entsprechend einstellen zu können. Meinem Verständnis nach sind die anderen Slots fest verdrahtet und nicht dadurch beeinflußt. Aber das werde ich in der Praxis dann irgendwann feststellen. Und selbst, wenn ich es falsch verstanden habe: Das Board ist mit seine Grundausstattung schon genau passend für (fast) alle meine aktuellen Ansprüche (wenn ich es eben wirklich mal irgendwann so zum laufen bekomme, wie ich will. Störrisches kleines Ding! Die Bifurcation Sache wäre nur das Tüpfelchen auf dem i.
  12. Den Link kannte ich noch nicht. Danke. Ich schaue aus Interesse, weil ich überlege einen x16 in 2x8 zu splitten (Mainboard ist einstellbar x8x4x4 oder x8x8). Aber ich will da dennoch eine FullProfil Karte einsetzen (Adaptect SAS Kontroller mit 24 Ports). Deshalb werde ich in die Höhe gehen müssen. Aber dnan den zweiten x8 irgendwie zu einer LowProfil-Karte abzweigen. Elektrisch mit einem flex Riserkabel kein Problem, aber die die Befestigung im 4HE Gehäuse ohne andere PCIe Slots daneben zu opfern, da rätsel ich noch.
  13. Hier weise ich auf mögliche Wärmeabfuhr durch Kühlkörper hin Und da bei einigen Külkörpern eine Befestigung mit Gummiringen (oder Silikonringen) vorgesehen ist und ich schon nach Monaten eine Zersetzung einiger Ringe erlebt habe, ein Hinweis auf Befestigungen mit Klammern. Wnen viel Platz ist, kann man höhere Kühlkörper nehmen https://www.amazon.de/gp/product/B07LCQLC8Y Wenn weniger Platz ist, evtl etwas niedriger bauende https://www.amazon.de/gp/product/B089RBKH31 Natürlich helfen die bei zu warm werdenden M.2 Datenträgern wenn sie Luftbewegung mitbekommen. In jedem Fall ist zu enpfehlen von den Dir wichtigen Daten ein Backup anzufertigen. Im Array darfst Du maximal 28 Datenplatten/SSD einbauen und maximal 2 Parity. Die Datenplatten dürfen nicht mehr Speicherkapazität haben als jeder einzelne Paritätsdatenträger. Wenn Du also eine Parität größer oder gleich der größten Datenplatte hast, kannst Du gerne auch eine kleinere SSD zusätzlich einbauen und nutzen, sofern Du eben nicht die maximale Anzahl überschreitest (28 Datendisks).
  14. Da hab eich doch gerade etwas interessantes für Nachahmer (PCIe Bifurcation Riser Card - x8x4x4) bei ebay gefunden https://www.ebay.de/itm/133733719047
  15. Ich vermute mal_ Vermutlich, weil er keinen 2,5GBit fähigen Switch kaufen will und es zwischen der FB und den weiteren kabelgebundenen Geräten einen Räumlichen Abstand gibt, der mit nur einem Netzwerkkabel überbrückt wurde.
  16. Kannst Du nehmen. Ist aber Verschwendung von je 2 Lanes pro Slot. @mgutt empfiehlt solche ASM1166 Kontroller gerne. Soweit ich es verstanden habe, hat er damit gute Erfahrungen gemacht. Ich bin für meine Konstellationen auf so viele PCIe Lanes wie möglich aus. Deshalb bin ich kein Freund davon bei mir elektrische PCIe x2 Karten in X4 elektrisch angebundene Slots einzusetzen. Ich habe selber eine ASM1064 basierte PCIe 3.0 x1 Karte eingesetzt. Sie hat aber probleme damit gehabt, als cih nur 3 Platten angeschlossen hatte und am vierten port ein offenes Kabel hatte. Das moche sie nicht udn hat einen der anderen Ports beeinflusst. Sowas ist bei SATA aber auch nicht spezifiziert/vorgesehen. Als ich sie hingegen mit 4 Festplatten verbunden hatte, lief sie in der kurzen Zeit, bis ich ja jetzt den Mainboardwechsel vorgeommen hatte problemlos und so performant, wie es bei 1GByte/s : 4Disks zu erwarten war (bei gleichzeitiger Nutzung aller 4 Devices knapp unter 240MByte/s pro Device).
  17. Schrieb ich ja. Doch ärgerlicherweise sträubt sich das Mainboard mir das unraid-Bootauswahlmenü zu zeigen. Es bootet solange mit schwrazem Bildschirm den unraidstick durch, bis irgendwann die späteren Textmeldungen auftauchen und dann läuft auch schon unraid. Das ist aber auch der unraidstick, welcher für das vorherig eingesetzte fujitsu D3644 mit seiner CPU IGPU Intel grafik vorbereitet war. Ich werde in ein paar Stunden mal mit einem neu erstellten unraid Stick ausprobieren, ob ich damit das Bootmenü zu sehen bekomme und den dort integrierten memtest starten kann. Den Memtest86+ mit seiner eigenen ISO (frisch von der Webseite geladen und auf USB Stick mit dem Tool übertragen) bekomme ich auf dem Mainboard nicht gestartet. Per Default ist das Mainboard auf UEFi eingestellt, aber da läuft der Stick es nach Boot-Datenträgerauswahl in einen Reset und startet nach 3 Sekunden neu. Wenn ich CSM im Mainboard einschaltet bootet der memtest86+ Stick gar nicht mehr und der Screen bleibt schwarz. Ich habe selten ein so störrisches Mainboard erlebt. Aber ich sollte dazu sagen, ich habe meist eher mit älterer Hardware zu tun und da bevorzug ich doch eher BIOS/CSM und Legacy. UEFI und Secureboot habe ich noch nie so ganz verstanden.
  18. Ich wollte nur mal einen neuen Zwischenstand geben. Problem war ja neu geliefertes Gigabyte W480 Vision W + neuer Xeon W1290p + neue 2 Stück Kingstrom 32GB ECC Ram KSM29ED8/32ME = instabil. Nach nun einigen Tests und Flüchen habe ich nun seit heute Mittag es gesachafft das nackte Board +CPU soweit stabil in betrieb zu bekommen, dass ich nun Tests laufen lasse. Aktueller Stand: Es könnte an einem der RAM Module zu liegen. Im Nachhinein habe ich nachgesehen: Ich habe ja 2 Module und auch mal mit nur einem Modul getestet, aber anscheinend war dabei immer das eine mutmaßlich problematische Modul beteiligt. Ich habe das mutmaßlich problematische Modul nun gekennzeichnet und entfernt. Damit konnte ich erst einmal keine neue Instabilitäten mehr beobachtet. Dafür treibt mich nun das Board in den Wahsinn, was das simple Booten von Testsoftware angeht. Testweise Win11 Installation von USBStick auf eine NVMe im PCIex16 Slot mit BIOS Optimal Settings: kein problem. Testweise booten eines Ventoy sticks mit diversere Testsoftware (memtext86, memtest86+, etc...) : erfolglos. Umstellen des BIOS/UEFI auf CSM und neuer Bootversuch mit dem ventoy Stick: erfolglos. Testweise booten mit dem oben erwähnetn USB Win11 Installationssticks um in den Memtest zu kommen: erfolglos. Testweise Booten eines Win10 USB Installationssticks um in Win10 Memtest zu kommen: problemlos. Der läuft nun im extended Modus (mit mx 15 Durchläufen) seit ca. 13 Uhr. bisher hat er kein Problem gemeldet. Wenn der ein paar mal ohne Fehlermeldung durch ist, werde ich mal versuchen den unraid Stick zu nehmen. Da ist beim Bootmenü ja auch eine memtest Auswahl bei. Ich bleibe dran! Ich sehe zumindest schon einmal Licht und werde wohl nach weiteren Versuchen wegen dem RAM Riegel einen Geährleistungsfall aufzumachen. P.S.: Ich hatte eigentlich vermutet, daß ein problematischer ECC Speicherriegel in einem ECC fähigen Board mit einem ECC fähigen Prozessor entsprechende Fehlermeldungen schon beim booten ausgibt. Aber dadurch, dass ich meist schwarzen Bildschirm hatte und auch die Debug LED(s) an unterschiedlichen Stellen hängen blieb, hat mich das doch sehr verwundert/abgelenkt.
  19. 22:11 Uhr: Das Angebot finde ich schon nicht mehr bei den MindStar Deals.
  20. Nein. DIeses Attribut wird durch das entfernen des Auswertehakens eben nicht mehr ausgewertet. Wenn Du das überprüfen willst musst Du von nun an bei dieser Festplatte ab und zu manuell in die SMART Werte rein schauen. Vielleicht kannst Du es mit einem Script automatisieren (Werte auslesen und filtern. Wnen dann etwas anderes als 1 drin steht, irgendein Flag setzen oder so). Es werden bei der Festplatte nur noch die anderen SMART-Fehler angezeigt.
  21. Nicht auf den Daumen, sondern wenn Du in Main (im Array) links auf Disk1 (für die erste Disk) oder Disk 2 oder so klickst. Dort siehst Du dann die individuellen Einstellungen für die jeweilige Disk. Dann kannst Du etwas runter scrollen und einstellen, dass beispielsweise das Attribut 199 für diese Disk nicht mehr ausgewertet wird.
  22. Da hast Du recht. So sind sie designt. Ist aber meiner persönlichen (und nicht maßgeblichen!) Meinung nach Verschwendung. NVMe SSD fühlen sich auch in PCIe Slot sehr wohl. Da wären obere Slots (wieder meiner persönlichen und nicht mßgeblichen Meinung nach) sinnvoll genutzt (wenn die M.2 Slots belegt sind). Zumindest shee ich das so, wenn man nicht schon mehr Festplatten einbauen will. Ich darf ja nicht verschweigen,d aß ich mit Absicht selber auch einen SAS Kontroller einsetze, aber der ist für 24 Festplatten zuständig. Da ist mit normalem SATA Kontroller nicht viel zu machen. Sollte in einiger Zukunft mehr als 4 zusätzliche festplatten gewüscht sein, wäre imem rnoch möglich einen weiteren SATA Kontroller zu nehmen. Ich will Dir den SAS Kontroller nicht ausreden. Ich wollte nur aufzeigen, daß er vielleicht nicht zwingend notwendig ist.
  23. genau die 10er Kontroller: ich nicht. Ich habe vor Jahren (2016) den DELOCK 89384 10Port SATA3 (PCIe 2.0 x2) unter Windows ausprobiert. Alle Ports waren transparent erkenn und benutzbar. Aber die Performance wurde sehr schlecht, wenn man mehr als 2-3 Festplatten gleichzeitig angesprochen hatte. Ich sehe auf der PCIe Seite keinen relevanten Unterschied zwischen der PCIe 2.0 x2 Anbindung des Delock und der PCIe 3.0 x1 Anbundung dieser bei Amazon angebotenen Kontroller. Beide haben so knapp unter 1GByte/s Bandbreite.
  24. Hallo @Michael Meiszl Ist die Frage gestattet, welches Mainboard Du hast, bzw. welche Steckplätze und wieviele davon unverplant zur Verfügung stehen? Mit 2 Stück PCIe 3.0 x1 wären 2 Stück ASM 1064 mit je bis zu 4 SATA Anschlüssen für Festplatten möglich. Dazu vielleicht noch ein Kontroller in einem ungenutzen M.2 Key-A/E PCIe und schon sind 10 SATA Platten kein Problem. Wenn da sogar nach hinten offene PCIe Slots vorhanden sind, kann man auch größere Kontroller einsetzen, die dann eben nur elektriisch mit wenigen Lanes angesprochen werden. ...solange Du ohne Parität arbeitest, ist die gleichzeitige Performance in unraid weniger interessant. Zuerst: Man kann solche Links bedenkenlos kürzen. Alles hinter der Referenz ist nicht notwendig. https://www.amazon.de/MZHOU-Erweiterungskarte-Controllerkarte-Unterstützung-Windows10-10SATA-1x/dp/B09DYVX5VJ Ja, der ASM1166 ist die Standardtype (der grosse Bruder des 1064), die in der Regel in unraid keine Probleme bereitet. Die JMB5xx sind vermutlich SATA-Multiplier. Ich kann Dir nicht sagen ob SATA Multiplier generell Probleme in unraid verursachen oder ob sie nur wegen der erwartbaren miserablen gleichzeitigen Performance verschrieen sind. Aber empfohlen wird der Einsatz von SATA Multiplieren in unraid eher nicht, weil die Performance eines SATA Anschlusses hier für bis zu 5 Endgeräte benutzt wird (immer Eines nach dem Anderen in sehr schneller Abfolge). Für unraid werden die Multiplier unsichtbar sein. Die dahinter stehenden Ports sollten aber als normale Ports sichtbar sein. In jedem Fall: Wenn Du kaufst, probiere es schnell aus, damit Du ggf. Widerruf nutzen kannst.
  25. Ich muß zugeben, abgesehen davon, dass sich da ein Problem versteckt, kann ich aus dem Ausschnitt nicht erkennen, wo man überhaupt suchen sollte. Ich muß noch VIEL zu unraid und Linux lernen! 😅 In jedem Fall: Viel Erfolg bei der Behebung des Problem!
×
×
  • Create New...