Marino

Members
  • Posts

    135
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Marino's Achievements

Apprentice

Apprentice (3/14)

3

Reputation

  1. Ich stelle mir nur die Frage, ob das an den Onboard-LAN liegt und ob man mit einer Erweiterungskarte besser fahren könnte. Glaube ich kaum, aber die Frage stellte ich mir. Immerhin hindern Erweiterungskarten ja auch meist das Erreichen eines besseren C-States.
  2. Ist bei mir ähnlich 20W Alt > Neu gespart und ein NUC weniger. Dabei habe ich wenig Zeit zum optimieren gehabt. Verstehe ich das richtig, dass die PCI-to-PCI-Bridge genutzt wird, wenn LAN aktiviert ist allgemein oder ist das Portabhängig? Sorry für die dumme Frage. Mein Supermicro X13SAE-F mit i7-14700K (iGPI genutzt), 2x 32GB ECC-RAM, 2x M.2 SSD (PCIe 4.0), 1x M.2 SSD (PCIe 3.0) und 6 SATA-Disks verbraucht mit 1Gbit LAN + IPMI LAN knapp 40W im Idle (nicht weiter optimiert bisher) und ohne Erweiterungskarte (PCIe) oder Grafikkarte.
  3. I am a little bit confused right now. Now and then I read here and there that die CPU usage goes up while scanning. How did I even know if it is scanning or not? When I activate it (default settings with a few folders included) the CPU is going up every few seconds but not that much that I'd think that there is something cached right now. It doesn't matter if the disks are all spun down or not it behaves the same, even when the disks are spun down for 12 hours. Deactivating the plugin is stopping this behavior. Normally I've an Idle power consumption from about 43W. When the folder caching plugin is activated, I've about 78W with going up to 125-150W every 4-5 seconds (even with spun down disks and plugin activation half a day ago). Only way to stop this is by stopping the plugin. I'd expect some readings on the disks or spinning up disks ore something like that. But with more than double the power consumption in idle it could spin up a disk from time to time and will produce wear, but less costs than with the plugin. I have a dynamic electricity rate (today 0,31€-0,40€/kWh). So it does matter a little bit. Before I tried to used the plugin I could browse through folders with Dynamix File Manager terminal window (Unraid), SSH-Connection and Krusader and the disks remains spun down. Only browsing via MacOS (SMB) spun up the drives (I don't know why because DS_Store or other hiding files were not created). Something is wrong here. How could I see if the plugin is running or how can I force It to run properly to get the CPU load down afterwards?
  4. Per Jumper kannst Du auch noch VGA deaktivieren und man könnte wohl auch IPMI deaktivieren (nicht mit Jumper). Flashen der ASM1166 mit Silverstone Firmware, um bessere C-States zu erreichen hast du gemacht, bzw. überlegt? Auf der letzten Seite hattest Du nur 2 M.2. Hast Du nun bereits >8 SATA-Drives dran? Viele Grüße Nils
  5. Moin, da ich gerade das X13SAE-F in Betrieb genommen habe, mit 14th Gen Intel und Du vom 14500 sprachst, wirst Du wohl auch ein Update vom BIOS machen müssen. Ich habe die CPU installiert und hatte kein Bild. BIOS war 2.0a, von März 2023, also wohl nicht kompatibel: Was habe ich also gemacht? Denn immerhin hatte ich ja kein Bild: - IPMIViewer 2.2.1 von der Supermicroseite besorgt - BIOS 3.1 von der Updateseite besorgt, auf einen Stick im root gepackt (FAT32) - LAN-Kabel an den IPMI-Port und im Router die IP geholt - IPMIViewer installiert und als admin geöffnet (Name: ADMIN, Passwort steht auf dem Aufkleber mittig auf dem Mainboard) - Konsole geöffnet und daran darin das Shell (Kannst Du auch, wenn du mit DEL das BIOS öffnest und dann bei "Save & Exit" unter "Boot Override" entsprechend "UEFI: Built-in EFI Shell" wählst und darin booten lässt. - Dann auf den Stick wechseln (bei mir "fs0:" ohne "") - Dort habe ich dann den flash gestartet mit "flash .nsh BIOS....bin" (Datei musste ich den Namen der BIOS-Datei angeben). Dann habe ich abgewartet, bis er fertig war (5-10 min.) und er hat auch neu gestartet. Anschließend konnte hatte ich ein Bild und brauchte mir keine CPU der 12th oder 13th Gen. besorgen oder es einschicken, wovon ich öfter las. Vielleicht kannst Du oder jemand anders das ja mal gebrauchen oder vielleicht ich selber später nochmal . Alle Angaben natürlich ohne Gewähr und Haftung übernehme ich auch nicht, aber so habe ich es gestern gemacht. Viele Grüße Nils
  6. @worli Ich habe auch das X13SAE-F und C3 ist Maximum. Scheint bei dem Board aber wohl normal zu sein, siehe https://www.hardwareluxx.de/community/threads/vergleich-leistungsaufnahme-ecc-fähiger-lga-1700-mainboards.1339804/ Viele Grüße Nils
  7. Ich wollte mich mal wieder melden und nachmal für die Hilfe bedanken. Ich war in letzter Zeit krank geschrieben und hatte viel Zeit zum recherchieren und nachdenken. Zuerst lies mich das Thema ECC und ZFS nicht los. Dann habe ich es aber hinter mir gelassen und habe Boards gesucht. Dabei ist mir noch ein Usecase eingefallen, weshalb ich eine dritte M.2 SSD haben wollte zusätzlich zu den beiden im Cache und mit Ausbau auf bis zu 12 SATA. Bei Boards mit 4 SATA also 2x ASM1166 mit 6 Anschlüssen und zudem die Option eine Grafikkarte nutzen zu können. Bei den B760er Mainboards habe ich mich auf Asus und Gigabyte beschränkt. Andere sollten es mit der Stromaufnahme nicht so eng sehen und eher mehr verbrauchen. Zudem hatte ich mit Gigabyte bisher immer gute Erfahrungen. Das sind dann aber z.B. "2x PCIe 3.0 x1" verbaut oder ...x PCIe 3.0 x16 (x1) und 3 M.2 auch nicht unbedingt, also doch Z790. RAM wollte ich, da inzwischen noch eine immer laufende VM dazu kommen sollte und Plex im RAM transkodieren soll, 2x32GB haben. DDR4 vs. DDR5 machte preislich nicht so den Unterschied, aber DDR5 soll eigentlich effizienter laufen, also DDR5. Netzteil: BeQuet! Pure Power 12 M, da die allseits beliebten und älteren Modell nicht mehr verfügbar waren. 550W. Später aber zu 750W getauscht, da sehr wenig Aufpreis und bessere Effizienz, als das 550W. Dazu dann ein Gigabyte Z790 Gaming X, was den Ansprüchen genügte und 4 M.2 SSD's aufnehmen konnte. Ich nutze seit 20 Jahren ausschließlich Gigabyte. Ein bisschen Ärger mit Versand, der sich verschoben hat und dann doch nicht... Ergebnis: Erstmal Ärger mit BIOS-Flash, was ohne CPU funktionieren sollte und mit dem 5ten Stick dann funktionierte. Ernüchterung beim CPU installieren, denn 4 Pins sind umgebogen, inmitten der anderen. Was für ein Scheiß. Wer macht da Qualitätskontrolle? Den Ärger hätte ich mir sparen können und viel Arbeit auch. Während der Wartezeit habe ich das alte Mainboard umgebaut in ins alte Case. Als alles lauffähig war, habe ich den Lizenzstick nicht mehr gefunden. Also neuen Stick bestellt. Zudem neue Hardware. Auf Gigabyte hatte ich keine Lust mehr, also kam Asus an die Reihe. Ein Asus Prime Z790-P. Ein M.2 weniger und etwas anders ausgestattet, aber egal. Alles zusammen gebaut, gefreut, Bild war da. Ist bei Intel 14th Gen. ja nicht selbstverständlich. Also BIOS-Update gemacht, ein paar Einstellungen und Unraid gestartet... tada... alles funktioniert. Bis ich ihn ausgemacht habe Danach habe ich am nächsten Tag 15 Minuten gebraucht, bis er sich mal bequemt hat zu starten und Bild via HDMI hatte ich auch nicht mehr. Das ganze hatte ich am Folgetag dann nochmal. Einen Server, der nicht ausgeschaltet werden darf, da man ihn sonst nicht wieder anbekommt, wollte ich irgendwie nicht so recht. Hier war der Punkt, wo mir die Alternativen ausgingen. Da rückte dann das Thema W680 und ECC-RAM wieder in den Vordergrund, da ich auch kein richtig passendes H770 gefunden habe, was ja eher eine Nische ist. Andere Hersteller wollte ich eigentlich nicht, von Gigabyte und Asus hatte ich die beiden Modelle hier, die für mich in Frage kamen. Nachteil ist, es ist ja quasi ein Z690 mit Möglichkeit für ECC-RAM, hat also 8 weniger PCIe 4.0 Lanes. Aber sollte ausreichen. Haben ist besser als brauchen, aber von 16 Lanes brauche ich 8, da eine M.2 nur PCIe 3.0 hat, also geht das schon. Asus hatte bei mir irgendwie einen faden Beigeschmack hinterlassen, womit das Pro WS W680-ACE (das teuerste Board) fast raus war. Gigabyte hatte noch einen schlechteren Nachgeschmack hinterlassen und über das MW34-SP0 las man nun auch nicht so super tolles. Kontron Kontron K3851-R... nur 2 M.2, 0 Service seitens Hersteller... irgendwie wurde ich mit dem Board und den zusätzlichen Hindernissen nicht warm. Bleibt noch das letzt mögliche Board, das Supermicro X13SAE-F. Nach viel Recherche wurde das bestellt. Heute zusammengebaut. Kein Bild. War ja klar. Hatte schon gelesen, dass einige eine 12th CPU gekauft haben, um neuer CPUs zu nutzen. Ich habe den IPMI-Port genutzt und mittels Software in Windows konnte ich das BIOS Update. 2.0a war drauf, damit ging die CPU natürlich nicht. 3.1 ist es nun und danach hatte ich sofort ein Bild. Also Hardware getauscht und auch im BIOS fühle ich mich schon wohler, als diese bunten bei den Z790er Boards, wo ich schon fast eine Maus nutzen musste. Nun teste ich also das Supermicro X13SAE-F, was mir bisher schon deutlich besser gefällt, als alle anderen. Ich werde berichten... Viele Grüße Nils
  8. Ich hatte schon gesehen, dass wohl auch mal SlimSAS zum Einsatz kommt, um 4 weitere SATA zur Verfügung zu stellen. Aber 8 zu verbauen, von welchen nur die Hälfte angesteuert werden kann, ist schon mächtig komisch. Das ist noch ein Schritt krasser, als das PICe-Ports abgeschaltet werden, wenn man M.2 nutzt, da die sich Lanes teilen und viele da sicher vorher nicht drauf achten. 1-2W hört sich echt nicht viel an für eine weitere Karte. Ich finde schade, dass so etwas immer nur alles von Usern ermittelt wird und nicht angegeben wird, auch CPU-Idle anstatt nur TDP. HDD's: Diese sind aus einem alten System übrig geblieben und kämen nur für ein Backup zum Einsatz mit der weiteren, vorhandenen Unraid-Lizenz. Auch nicht alle, sondern vielleicht 3 bis max 5, ggf. mit doppelter Parity, da Platten vorhanden und nicht neu. Zuvor waren die in einem Server, der bei Bedarf eingeschaltet wurde. Planung jetzt: Einschalten > Backup > ausschalten. Da ist das nicht so gravierend. Die liegen halt trocken im Schrank, da ich auf große Platten gesetzt habe. Sind knapp 30TB, warum wegschmeißen. Eine 18TB kostet ja auch um die 250€. Würde ich die ersetzen, müsste ich wieder viel Geld ausgeben und dann mag ich die immer noch nicht einfach wegschmeißen. So lange sie einem Backup dienen und nicht immer laufen, ist das ja nicht so entscheidend. In diesen Server werden die 3x12TB und 3x18TB übernommen. Mit den 12TB hatte ich bei dem Server angefangen und die 18TB kamen nach und nach dazu und eine davon wurde natürlich dann Parity. Sind immer noch 6 Platten. Ich könnte 2x18TB für 500€ kaufen und die 3x12TB ersetzten, dann die 12er in den alten Server. Dann landen die 3-4TB wieder im Schrank, ich habe nicht mehr Speicherplatz im eigentlichen Server, aber eine Platte weniger und bin 500€ ärmer. Das ist der Grund, weshalb ich nicht einfach durchgerauscht habe. Vielleicht ist das falsch rüber gekommen. Vielleicht komme ich heute endlich mal zum weiter schauen. Gestern hatte meine Tochter Kindergeburtstag und hier gab es keine ruhige Minute. Viele Grüße Nils
  9. Danke für Deine Vorschläge. Das Z-Boards mehr Strom brauchen könnten, ist logisch, wenn man Specs vergleicht. Allerdings müsste man bei der Betrachtung auch bemerken, dass Z790 8x SATA beherrscht und es Boards dafür gibt, was ggf. eine der Zusatzkarten (AMS1166) einsparen könnte. Bei einem Chipsatzvergleich (Computerbase) stand bei beiden TPD 6W. Übertakten wollte ich jedenfalls nicht, also wäre das Z790 ja nicht deshalb notwendig. Bisher tendiere ich wirklich nur ATX-Größe, um für Eventualitäten besser gerüstet zu sein. Dem Gehäuse macht es ja nichts aus. Festplatten habe ich in 3x3TB WD-Red, 3x4TB WD-Red und 2x3TB WD Green. Damit könnte ich mit der jetzigen Hardware und Lizenz ja noch ein zusätzliches Backup machen, was deutlich größer, als benötigt wäre, wenn ich wiedereinlbsbare Median nicht ins Backup mit einbeziehe. Zudem habe ich auch noch externe Backups, aber ein zweiter Unraid-Server ist da schon charmant ECC ist wahrscheinlich eher so ein Hirngespinst, dass ich mir einbilde, es wäre besser, obwohl ich keinen Vorteil habe und weil ich nur jetzt die Möglichkeit dazu habe. Warum das bei mir mal vorkam, dass Dateien nicht mehr funktionierten, weiß ich ja auch nicht. Wenn das auf den Festplatten passiert ist, hätte ECC keinerlei Vorteil gebracht und würde es in Zukunft auch nicht und der Aufpreis ist echt nicht ohne in Hinsicht auf den Gesamtpreis. Es bringt halt nur einen kleinen Teil mehr Sicherheit und man sollte sich nicht einbilden, das man dann sicher wäre vor Ausfällen o.ä. Viele Grüße Nils
  10. HDD's: Bisher sind es 6 SATA HDD's, sollte aber erweiterbar sein. Also mit 10 würde ich schon rechnen. Cache: Sind bisher 2 SATA SSD's. Ob die am Anfang getauscht werden oder später, weiß ich noch nicht. Manchmal ist es Sinnvoll, für andere Hardware dies weiter aufzuschieben. Später also 2x M.2 PCIe (Bisher 2x 1TB, TLC), aber da meine momentan verwendeten EVO 860 eh nur 550 MB/s können, wohl nicht extrem entscheidend. Steckkarten: Bisher ist keine Grafikkarte geplant, denn es ist im Abstellraum im 19" Schrank eingebaut. SATA-Erweiterung (wohl ASM1166). Da überlege ich fast, ob man sich eine mehr als gebraucht zulegt, und ggf. geflasht zur Seite legt, damit man nicht später das Problem hat, keinen Rechner zum flashen zu haben (wenn überhaupt notwendig). Sonst fällt mir keine weitere Karte ein. LAN: 2,5 GBit/s Onboard könnte nett sein, auch wenn bisher keine Hardware dafür vorhanden ist. Wie das aber in 6-10 Jahren aussieht, weiß man ja nicht. Ist also eher nice-to-have, da erstmal nicht genutzt. RAM: >= 32GB definitiv. Wenn ich Plex auf den RAM transcodieren lassen könnte, dann eher 64GB, mit so wenig Modulen, wie möglich. Netzteil: Ich habe nur noch eines übrig von ca. 2008 (irgendein 600W Enermex). Ich weiß nicht einmal, ob das funktionieren würde, aber stromsparend wäre das sicher nicht. Müsste wohl auch neu. Gehäuse: Ich habe ein Fractial 5 und ein XL R2. 19" Gehäuse für Rack wäre cool (brauche auch ein Hot Swap Bay, lieber großer Lüfter davor), aber das muss nicht zu Beginn passieren. Und nun der Punkt ECC. Ich bin ehrlich. Ich bin hin- und hergerissen. Ich hatte öfter schonmal das Problem, dass Daten irgendwann nicht mehr gelesen werden konnten und durfte auch schon die Festplatten mit Unraid auf neue Rekonstruieren lassen, mit Hilfe der Parität. Es traf keine extrem wichtigen Daten und die im Backup waren ebenso nicht lesbar. Ich habe nie herausgefunden, warum das so war. Bisher habe ich hier nur zum "File Integrity Control"-Tool gegriffen. Für wichtige Dinge habe ich ein Backup, aber große Datenmengen haben keins (aufgrund der Datengröße). Diese wären hauptsächlich ärgerlich, da sie mir erneut eine Menge Arbeit bescheren würden beim digitalisieren. Muss ja auch nicht unnötig sein. Daher bin ich bei dem Punkt echt uneins, ob ich damit ruhiger schlafen würden. Allerdings sind das halt auch ein paar hundert € Unterschied, als wenn ich das nicht nehmen würde. Man sieht, dass ich das entscheiden Puzzle bisher nicht gelöst habe. Zudem sind natürlich große ATX-Boards nicht so stromparend (kann sich ja auf Jahre bemerkbar machen), aber sie bieten halt mehr Anschlüsse, falls in den nächsten Jahren wirklich mal etwas angeschlossen werden soll, was jetzt nicht auf dem Schirm steht. Meine bisherigen Unraid-Server sind aus alter PC-Hardware entstanden, die umfunktioniert wurde. Habe ich zu Beginn auch nicht gewusst und war froh, an einigen Stellen "Glück" gehabt zu haben, dass alles funktionierte. Man kann ja nicht alles vorhersehen, aber keine weiteren Optionen übrig zu haben, wenn alles angeschlossen wurde, ist genauso doof. Viele Grüße Nils
  11. Das ist definitiv für "vorher" geplant, damit es nachher keine Bösen Überraschungen gibt
  12. @alturismo Stimmt schon, ohne transcoding ist besser. Meine Tochter z.B. hat aber ein Tablet, wo transcodiert werden muss, wenn sie was schaut und ich möchte keinen TV in ihr Zimmer stellen. Vielleicht in 5-7 Jahren. Von daher lässt sich das auch @home nicht unbedingt vermeiden. @DataCollector Danke für die Klarstellung. Das man von den 4 Lanes mit einem Adapter auf SATA ggf. 2 brach liegen lässt, war mir so gar nicht bewusst. Am Anfang beim Cache hattest Du natürlich auch recht, es sollten 2 SATA SSD im Cache sein... Deine Vermutung hört sich in meinen Augen auch logisch an. Wenn ich mein altes Mainboard anschaut (ca. 2004), waren dort 8-10 Ports drauf, aber es wurden auch nur 3TB HDD's angeschlossen. Nun habe ich 18TB HDD's und zudem SSD. Ich kann mir schon vorstellen, dass sich da Kunden beschweren könnten. @Zonediver Meine SATA-SSD's für Cache habe ich auch nur, da mein Board momentan keine andere Möglichkeit bot und ich nur schnell Cache hauptsächlich für VM wollte, da diese nicht im Array liegen sollten. Das würde ich in Zukunft wohl ändern. Danke Euch für die ganzen Tipps. Ich recherchiere noch. Teils ist das neu für mich, teils liest man davon, dass sich M.2 und PCIe-Anschlüsse die gleichen Lanes teilen... Da lese ich mich dann mal tiefer im Handbuch und im Forum ein, wenn es um konkrete Mainboards handelt. Ich habe das Gefühl, man könnte noch wochenlang weiter Informationen sammeln und lernt immer noch dazu Viele Grüße Nils
  13. Das macht in der Tat ein wenig mehr Sinn, da HDD's im Array ja eh bei weitem nicht so schnell sind, wie SSD's. SATA OnBoard nicht zu nutzen macht in meinen Augen nur Sinn, wenn es Probleme mit dem OnBoard-Controller gibt (daher habe ich eine Zusatzkarte drin, da ich den zweiten Controller deaktivieren musste). Viele Grüße Nils
  14. @DataCollector Du meintest in einem anderen Thread zur Frage der SATA-Erweiterung folgendes: Kannst Du das näher ausführen? Warum sollte man dann nur noch über Zusatz-Controller anschließen? Die Frage stellt sich mir, da ich ja bereits 6 SATA (Array) habe + 2 SATA Cache. Cache könnte man ggf. gegen M.2 tauschen. 6 SATA OnBoard ist schon knapp und AMS1166-Erweiterungen (PCIe oder M.2) sind ja auch maximal 6 pro Erweiterung. Wenn eh keine Onboard-SATA genutzt werden sollten, und ich verstehe noch nicht warum, bräuchte ich zu Beginn schon eine Erweiterung. (Falls ich die noch flashen müsste, bietet es sich hauptsächlich zu Beginn an, da ich keinen anderen Windows-PC habe, wo ich das machen könnte). Würde das gerne verstehen. Achja, wenn Zusatz mit ASM1166, dann ist PCIe der M.2 vorzuziehen, da besser gekühlt, wenn sie preislich gleich sind oder? Viele Grüße Nils
  15. Geht denn Tonemapping überhaupt? Vorhin habe ich es mit einem Stream erst zum Laufen bekommen, als ich das ausgeschaltet habe.