Jump to content

Marino

Members
  • Posts

    135
  • Joined

  • Last visited

Everything posted by Marino

  1. Ich stelle mir nur die Frage, ob das an den Onboard-LAN liegt und ob man mit einer Erweiterungskarte besser fahren könnte. Glaube ich kaum, aber die Frage stellte ich mir. Immerhin hindern Erweiterungskarten ja auch meist das Erreichen eines besseren C-States.
  2. Ist bei mir ähnlich 20W Alt > Neu gespart und ein NUC weniger. Dabei habe ich wenig Zeit zum optimieren gehabt. Verstehe ich das richtig, dass die PCI-to-PCI-Bridge genutzt wird, wenn LAN aktiviert ist allgemein oder ist das Portabhängig? Sorry für die dumme Frage. Mein Supermicro X13SAE-F mit i7-14700K (iGPI genutzt), 2x 32GB ECC-RAM, 2x M.2 SSD (PCIe 4.0), 1x M.2 SSD (PCIe 3.0) und 6 SATA-Disks verbraucht mit 1Gbit LAN + IPMI LAN knapp 40W im Idle (nicht weiter optimiert bisher) und ohne Erweiterungskarte (PCIe) oder Grafikkarte.
  3. I am a little bit confused right now. Now and then I read here and there that die CPU usage goes up while scanning. How did I even know if it is scanning or not? When I activate it (default settings with a few folders included) the CPU is going up every few seconds but not that much that I'd think that there is something cached right now. It doesn't matter if the disks are all spun down or not it behaves the same, even when the disks are spun down for 12 hours. Deactivating the plugin is stopping this behavior. Normally I've an Idle power consumption from about 43W. When the folder caching plugin is activated, I've about 78W with going up to 125-150W every 4-5 seconds (even with spun down disks and plugin activation half a day ago). Only way to stop this is by stopping the plugin. I'd expect some readings on the disks or spinning up disks ore something like that. But with more than double the power consumption in idle it could spin up a disk from time to time and will produce wear, but less costs than with the plugin. I have a dynamic electricity rate (today 0,31€-0,40€/kWh). So it does matter a little bit. Before I tried to used the plugin I could browse through folders with Dynamix File Manager terminal window (Unraid), SSH-Connection and Krusader and the disks remains spun down. Only browsing via MacOS (SMB) spun up the drives (I don't know why because DS_Store or other hiding files were not created). Something is wrong here. How could I see if the plugin is running or how can I force It to run properly to get the CPU load down afterwards?
  4. Per Jumper kannst Du auch noch VGA deaktivieren und man könnte wohl auch IPMI deaktivieren (nicht mit Jumper). Flashen der ASM1166 mit Silverstone Firmware, um bessere C-States zu erreichen hast du gemacht, bzw. überlegt? Auf der letzten Seite hattest Du nur 2 M.2. Hast Du nun bereits >8 SATA-Drives dran? Viele Grüße Nils
  5. Moin, da ich gerade das X13SAE-F in Betrieb genommen habe, mit 14th Gen Intel und Du vom 14500 sprachst, wirst Du wohl auch ein Update vom BIOS machen müssen. Ich habe die CPU installiert und hatte kein Bild. BIOS war 2.0a, von März 2023, also wohl nicht kompatibel: Was habe ich also gemacht? Denn immerhin hatte ich ja kein Bild: - IPMIViewer 2.2.1 von der Supermicroseite besorgt - BIOS 3.1 von der Updateseite besorgt, auf einen Stick im root gepackt (FAT32) - LAN-Kabel an den IPMI-Port und im Router die IP geholt - IPMIViewer installiert und als admin geöffnet (Name: ADMIN, Passwort steht auf dem Aufkleber mittig auf dem Mainboard) - Konsole geöffnet und daran darin das Shell (Kannst Du auch, wenn du mit DEL das BIOS öffnest und dann bei "Save & Exit" unter "Boot Override" entsprechend "UEFI: Built-in EFI Shell" wählst und darin booten lässt. - Dann auf den Stick wechseln (bei mir "fs0:" ohne "") - Dort habe ich dann den flash gestartet mit "flash .nsh BIOS....bin" (Datei musste ich den Namen der BIOS-Datei angeben). Dann habe ich abgewartet, bis er fertig war (5-10 min.) und er hat auch neu gestartet. Anschließend konnte hatte ich ein Bild und brauchte mir keine CPU der 12th oder 13th Gen. besorgen oder es einschicken, wovon ich öfter las. Vielleicht kannst Du oder jemand anders das ja mal gebrauchen oder vielleicht ich selber später nochmal . Alle Angaben natürlich ohne Gewähr und Haftung übernehme ich auch nicht, aber so habe ich es gestern gemacht. Viele Grüße Nils
  6. @worli Ich habe auch das X13SAE-F und C3 ist Maximum. Scheint bei dem Board aber wohl normal zu sein, siehe https://www.hardwareluxx.de/community/threads/vergleich-leistungsaufnahme-ecc-fähiger-lga-1700-mainboards.1339804/ Viele Grüße Nils
  7. Ich wollte mich mal wieder melden und nachmal für die Hilfe bedanken. Ich war in letzter Zeit krank geschrieben und hatte viel Zeit zum recherchieren und nachdenken. Zuerst lies mich das Thema ECC und ZFS nicht los. Dann habe ich es aber hinter mir gelassen und habe Boards gesucht. Dabei ist mir noch ein Usecase eingefallen, weshalb ich eine dritte M.2 SSD haben wollte zusätzlich zu den beiden im Cache und mit Ausbau auf bis zu 12 SATA. Bei Boards mit 4 SATA also 2x ASM1166 mit 6 Anschlüssen und zudem die Option eine Grafikkarte nutzen zu können. Bei den B760er Mainboards habe ich mich auf Asus und Gigabyte beschränkt. Andere sollten es mit der Stromaufnahme nicht so eng sehen und eher mehr verbrauchen. Zudem hatte ich mit Gigabyte bisher immer gute Erfahrungen. Das sind dann aber z.B. "2x PCIe 3.0 x1" verbaut oder ...x PCIe 3.0 x16 (x1) und 3 M.2 auch nicht unbedingt, also doch Z790. RAM wollte ich, da inzwischen noch eine immer laufende VM dazu kommen sollte und Plex im RAM transkodieren soll, 2x32GB haben. DDR4 vs. DDR5 machte preislich nicht so den Unterschied, aber DDR5 soll eigentlich effizienter laufen, also DDR5. Netzteil: BeQuet! Pure Power 12 M, da die allseits beliebten und älteren Modell nicht mehr verfügbar waren. 550W. Später aber zu 750W getauscht, da sehr wenig Aufpreis und bessere Effizienz, als das 550W. Dazu dann ein Gigabyte Z790 Gaming X, was den Ansprüchen genügte und 4 M.2 SSD's aufnehmen konnte. Ich nutze seit 20 Jahren ausschließlich Gigabyte. Ein bisschen Ärger mit Versand, der sich verschoben hat und dann doch nicht... Ergebnis: Erstmal Ärger mit BIOS-Flash, was ohne CPU funktionieren sollte und mit dem 5ten Stick dann funktionierte. Ernüchterung beim CPU installieren, denn 4 Pins sind umgebogen, inmitten der anderen. Was für ein Scheiß. Wer macht da Qualitätskontrolle? Den Ärger hätte ich mir sparen können und viel Arbeit auch. Während der Wartezeit habe ich das alte Mainboard umgebaut in ins alte Case. Als alles lauffähig war, habe ich den Lizenzstick nicht mehr gefunden. Also neuen Stick bestellt. Zudem neue Hardware. Auf Gigabyte hatte ich keine Lust mehr, also kam Asus an die Reihe. Ein Asus Prime Z790-P. Ein M.2 weniger und etwas anders ausgestattet, aber egal. Alles zusammen gebaut, gefreut, Bild war da. Ist bei Intel 14th Gen. ja nicht selbstverständlich. Also BIOS-Update gemacht, ein paar Einstellungen und Unraid gestartet... tada... alles funktioniert. Bis ich ihn ausgemacht habe Danach habe ich am nächsten Tag 15 Minuten gebraucht, bis er sich mal bequemt hat zu starten und Bild via HDMI hatte ich auch nicht mehr. Das ganze hatte ich am Folgetag dann nochmal. Einen Server, der nicht ausgeschaltet werden darf, da man ihn sonst nicht wieder anbekommt, wollte ich irgendwie nicht so recht. Hier war der Punkt, wo mir die Alternativen ausgingen. Da rückte dann das Thema W680 und ECC-RAM wieder in den Vordergrund, da ich auch kein richtig passendes H770 gefunden habe, was ja eher eine Nische ist. Andere Hersteller wollte ich eigentlich nicht, von Gigabyte und Asus hatte ich die beiden Modelle hier, die für mich in Frage kamen. Nachteil ist, es ist ja quasi ein Z690 mit Möglichkeit für ECC-RAM, hat also 8 weniger PCIe 4.0 Lanes. Aber sollte ausreichen. Haben ist besser als brauchen, aber von 16 Lanes brauche ich 8, da eine M.2 nur PCIe 3.0 hat, also geht das schon. Asus hatte bei mir irgendwie einen faden Beigeschmack hinterlassen, womit das Pro WS W680-ACE (das teuerste Board) fast raus war. Gigabyte hatte noch einen schlechteren Nachgeschmack hinterlassen und über das MW34-SP0 las man nun auch nicht so super tolles. Kontron Kontron K3851-R... nur 2 M.2, 0 Service seitens Hersteller... irgendwie wurde ich mit dem Board und den zusätzlichen Hindernissen nicht warm. Bleibt noch das letzt mögliche Board, das Supermicro X13SAE-F. Nach viel Recherche wurde das bestellt. Heute zusammengebaut. Kein Bild. War ja klar. Hatte schon gelesen, dass einige eine 12th CPU gekauft haben, um neuer CPUs zu nutzen. Ich habe den IPMI-Port genutzt und mittels Software in Windows konnte ich das BIOS Update. 2.0a war drauf, damit ging die CPU natürlich nicht. 3.1 ist es nun und danach hatte ich sofort ein Bild. Also Hardware getauscht und auch im BIOS fühle ich mich schon wohler, als diese bunten bei den Z790er Boards, wo ich schon fast eine Maus nutzen musste. Nun teste ich also das Supermicro X13SAE-F, was mir bisher schon deutlich besser gefällt, als alle anderen. Ich werde berichten... Viele Grüße Nils
  8. Ich hatte schon gesehen, dass wohl auch mal SlimSAS zum Einsatz kommt, um 4 weitere SATA zur Verfügung zu stellen. Aber 8 zu verbauen, von welchen nur die Hälfte angesteuert werden kann, ist schon mächtig komisch. Das ist noch ein Schritt krasser, als das PICe-Ports abgeschaltet werden, wenn man M.2 nutzt, da die sich Lanes teilen und viele da sicher vorher nicht drauf achten. 1-2W hört sich echt nicht viel an für eine weitere Karte. Ich finde schade, dass so etwas immer nur alles von Usern ermittelt wird und nicht angegeben wird, auch CPU-Idle anstatt nur TDP. HDD's: Diese sind aus einem alten System übrig geblieben und kämen nur für ein Backup zum Einsatz mit der weiteren, vorhandenen Unraid-Lizenz. Auch nicht alle, sondern vielleicht 3 bis max 5, ggf. mit doppelter Parity, da Platten vorhanden und nicht neu. Zuvor waren die in einem Server, der bei Bedarf eingeschaltet wurde. Planung jetzt: Einschalten > Backup > ausschalten. Da ist das nicht so gravierend. Die liegen halt trocken im Schrank, da ich auf große Platten gesetzt habe. Sind knapp 30TB, warum wegschmeißen. Eine 18TB kostet ja auch um die 250€. Würde ich die ersetzen, müsste ich wieder viel Geld ausgeben und dann mag ich die immer noch nicht einfach wegschmeißen. So lange sie einem Backup dienen und nicht immer laufen, ist das ja nicht so entscheidend. In diesen Server werden die 3x12TB und 3x18TB übernommen. Mit den 12TB hatte ich bei dem Server angefangen und die 18TB kamen nach und nach dazu und eine davon wurde natürlich dann Parity. Sind immer noch 6 Platten. Ich könnte 2x18TB für 500€ kaufen und die 3x12TB ersetzten, dann die 12er in den alten Server. Dann landen die 3-4TB wieder im Schrank, ich habe nicht mehr Speicherplatz im eigentlichen Server, aber eine Platte weniger und bin 500€ ärmer. Das ist der Grund, weshalb ich nicht einfach durchgerauscht habe. Vielleicht ist das falsch rüber gekommen. Vielleicht komme ich heute endlich mal zum weiter schauen. Gestern hatte meine Tochter Kindergeburtstag und hier gab es keine ruhige Minute. Viele Grüße Nils
  9. Danke für Deine Vorschläge. Das Z-Boards mehr Strom brauchen könnten, ist logisch, wenn man Specs vergleicht. Allerdings müsste man bei der Betrachtung auch bemerken, dass Z790 8x SATA beherrscht und es Boards dafür gibt, was ggf. eine der Zusatzkarten (AMS1166) einsparen könnte. Bei einem Chipsatzvergleich (Computerbase) stand bei beiden TPD 6W. Übertakten wollte ich jedenfalls nicht, also wäre das Z790 ja nicht deshalb notwendig. Bisher tendiere ich wirklich nur ATX-Größe, um für Eventualitäten besser gerüstet zu sein. Dem Gehäuse macht es ja nichts aus. Festplatten habe ich in 3x3TB WD-Red, 3x4TB WD-Red und 2x3TB WD Green. Damit könnte ich mit der jetzigen Hardware und Lizenz ja noch ein zusätzliches Backup machen, was deutlich größer, als benötigt wäre, wenn ich wiedereinlbsbare Median nicht ins Backup mit einbeziehe. Zudem habe ich auch noch externe Backups, aber ein zweiter Unraid-Server ist da schon charmant ECC ist wahrscheinlich eher so ein Hirngespinst, dass ich mir einbilde, es wäre besser, obwohl ich keinen Vorteil habe und weil ich nur jetzt die Möglichkeit dazu habe. Warum das bei mir mal vorkam, dass Dateien nicht mehr funktionierten, weiß ich ja auch nicht. Wenn das auf den Festplatten passiert ist, hätte ECC keinerlei Vorteil gebracht und würde es in Zukunft auch nicht und der Aufpreis ist echt nicht ohne in Hinsicht auf den Gesamtpreis. Es bringt halt nur einen kleinen Teil mehr Sicherheit und man sollte sich nicht einbilden, das man dann sicher wäre vor Ausfällen o.ä. Viele Grüße Nils
  10. HDD's: Bisher sind es 6 SATA HDD's, sollte aber erweiterbar sein. Also mit 10 würde ich schon rechnen. Cache: Sind bisher 2 SATA SSD's. Ob die am Anfang getauscht werden oder später, weiß ich noch nicht. Manchmal ist es Sinnvoll, für andere Hardware dies weiter aufzuschieben. Später also 2x M.2 PCIe (Bisher 2x 1TB, TLC), aber da meine momentan verwendeten EVO 860 eh nur 550 MB/s können, wohl nicht extrem entscheidend. Steckkarten: Bisher ist keine Grafikkarte geplant, denn es ist im Abstellraum im 19" Schrank eingebaut. SATA-Erweiterung (wohl ASM1166). Da überlege ich fast, ob man sich eine mehr als gebraucht zulegt, und ggf. geflasht zur Seite legt, damit man nicht später das Problem hat, keinen Rechner zum flashen zu haben (wenn überhaupt notwendig). Sonst fällt mir keine weitere Karte ein. LAN: 2,5 GBit/s Onboard könnte nett sein, auch wenn bisher keine Hardware dafür vorhanden ist. Wie das aber in 6-10 Jahren aussieht, weiß man ja nicht. Ist also eher nice-to-have, da erstmal nicht genutzt. RAM: >= 32GB definitiv. Wenn ich Plex auf den RAM transcodieren lassen könnte, dann eher 64GB, mit so wenig Modulen, wie möglich. Netzteil: Ich habe nur noch eines übrig von ca. 2008 (irgendein 600W Enermex). Ich weiß nicht einmal, ob das funktionieren würde, aber stromsparend wäre das sicher nicht. Müsste wohl auch neu. Gehäuse: Ich habe ein Fractial 5 und ein XL R2. 19" Gehäuse für Rack wäre cool (brauche auch ein Hot Swap Bay, lieber großer Lüfter davor), aber das muss nicht zu Beginn passieren. Und nun der Punkt ECC. Ich bin ehrlich. Ich bin hin- und hergerissen. Ich hatte öfter schonmal das Problem, dass Daten irgendwann nicht mehr gelesen werden konnten und durfte auch schon die Festplatten mit Unraid auf neue Rekonstruieren lassen, mit Hilfe der Parität. Es traf keine extrem wichtigen Daten und die im Backup waren ebenso nicht lesbar. Ich habe nie herausgefunden, warum das so war. Bisher habe ich hier nur zum "File Integrity Control"-Tool gegriffen. Für wichtige Dinge habe ich ein Backup, aber große Datenmengen haben keins (aufgrund der Datengröße). Diese wären hauptsächlich ärgerlich, da sie mir erneut eine Menge Arbeit bescheren würden beim digitalisieren. Muss ja auch nicht unnötig sein. Daher bin ich bei dem Punkt echt uneins, ob ich damit ruhiger schlafen würden. Allerdings sind das halt auch ein paar hundert € Unterschied, als wenn ich das nicht nehmen würde. Man sieht, dass ich das entscheiden Puzzle bisher nicht gelöst habe. Zudem sind natürlich große ATX-Boards nicht so stromparend (kann sich ja auf Jahre bemerkbar machen), aber sie bieten halt mehr Anschlüsse, falls in den nächsten Jahren wirklich mal etwas angeschlossen werden soll, was jetzt nicht auf dem Schirm steht. Meine bisherigen Unraid-Server sind aus alter PC-Hardware entstanden, die umfunktioniert wurde. Habe ich zu Beginn auch nicht gewusst und war froh, an einigen Stellen "Glück" gehabt zu haben, dass alles funktionierte. Man kann ja nicht alles vorhersehen, aber keine weiteren Optionen übrig zu haben, wenn alles angeschlossen wurde, ist genauso doof. Viele Grüße Nils
  11. Das ist definitiv für "vorher" geplant, damit es nachher keine Bösen Überraschungen gibt
  12. @alturismo Stimmt schon, ohne transcoding ist besser. Meine Tochter z.B. hat aber ein Tablet, wo transcodiert werden muss, wenn sie was schaut und ich möchte keinen TV in ihr Zimmer stellen. Vielleicht in 5-7 Jahren. Von daher lässt sich das auch @home nicht unbedingt vermeiden. @DataCollector Danke für die Klarstellung. Das man von den 4 Lanes mit einem Adapter auf SATA ggf. 2 brach liegen lässt, war mir so gar nicht bewusst. Am Anfang beim Cache hattest Du natürlich auch recht, es sollten 2 SATA SSD im Cache sein... Deine Vermutung hört sich in meinen Augen auch logisch an. Wenn ich mein altes Mainboard anschaut (ca. 2004), waren dort 8-10 Ports drauf, aber es wurden auch nur 3TB HDD's angeschlossen. Nun habe ich 18TB HDD's und zudem SSD. Ich kann mir schon vorstellen, dass sich da Kunden beschweren könnten. @Zonediver Meine SATA-SSD's für Cache habe ich auch nur, da mein Board momentan keine andere Möglichkeit bot und ich nur schnell Cache hauptsächlich für VM wollte, da diese nicht im Array liegen sollten. Das würde ich in Zukunft wohl ändern. Danke Euch für die ganzen Tipps. Ich recherchiere noch. Teils ist das neu für mich, teils liest man davon, dass sich M.2 und PCIe-Anschlüsse die gleichen Lanes teilen... Da lese ich mich dann mal tiefer im Handbuch und im Forum ein, wenn es um konkrete Mainboards handelt. Ich habe das Gefühl, man könnte noch wochenlang weiter Informationen sammeln und lernt immer noch dazu Viele Grüße Nils
  13. Das macht in der Tat ein wenig mehr Sinn, da HDD's im Array ja eh bei weitem nicht so schnell sind, wie SSD's. SATA OnBoard nicht zu nutzen macht in meinen Augen nur Sinn, wenn es Probleme mit dem OnBoard-Controller gibt (daher habe ich eine Zusatzkarte drin, da ich den zweiten Controller deaktivieren musste). Viele Grüße Nils
  14. @DataCollector Du meintest in einem anderen Thread zur Frage der SATA-Erweiterung folgendes: Kannst Du das näher ausführen? Warum sollte man dann nur noch über Zusatz-Controller anschließen? Die Frage stellt sich mir, da ich ja bereits 6 SATA (Array) habe + 2 SATA Cache. Cache könnte man ggf. gegen M.2 tauschen. 6 SATA OnBoard ist schon knapp und AMS1166-Erweiterungen (PCIe oder M.2) sind ja auch maximal 6 pro Erweiterung. Wenn eh keine Onboard-SATA genutzt werden sollten, und ich verstehe noch nicht warum, bräuchte ich zu Beginn schon eine Erweiterung. (Falls ich die noch flashen müsste, bietet es sich hauptsächlich zu Beginn an, da ich keinen anderen Windows-PC habe, wo ich das machen könnte). Würde das gerne verstehen. Achja, wenn Zusatz mit ASM1166, dann ist PCIe der M.2 vorzuziehen, da besser gekühlt, wenn sie preislich gleich sind oder? Viele Grüße Nils
  15. Geht denn Tonemapping überhaupt? Vorhin habe ich es mit einem Stream erst zum Laufen bekommen, als ich das ausgeschaltet habe.
  16. Den habe ich. Danke für den Hinweis!
  17. @Zonediver ECC wäre auch nicht für Plex, sondern für das restliche System. Plex ist ja nur ein Teilaspekt des Systems. So, wie ich es aber momentan sehe, wird es kein ECC. Danke für Deine Einschätzung zur CPU. Mehrere Streams verarbeitet von der iGPU hört sich gut an. Mein 4790 kommt ins schwitzen und schafft es dann doch nicht. Mit iGPU hört es sich an, wie es soll und zwar nebenbei und ohne das System auszulasten. Viele Grüße Nils
  18. Moin DataCollector, Danke für Deine Hilfe, das bringt mich schon einmal etwas weiter. Natürlich wäre es teurer, als 300€ (Shield+HDD). Bei der hätte ich aber auch keine anderen Vorteile. Wenn ich ein neues System baue, bleibt das alte als Backup, was das Backup vereinfacht, es verbraucht sicher weniger, als mein jetziges, hat mehr Leistung und Reserven. Da darf es dann ja auch mehr kosten. Ist halt nur die Frage, was sinnvoll ist. Beim RAM sehe ich das ähnlich und denke, dass die Geschwindigkeit sich bei mir nicht bemerkbar machen würde. Das mit dem Z-Board und ASMedia hatte ich von @mgutt gelesen: Er empfahl kein Board mit ASMedia Controller für USB oder SATA zu nehmen und diese sind zumindest bei Asus beim B660 und B760 verbaut und beim Z nicht. Daher hatte ich bisher das Gigabyte mit Z ins Auge gefasst. Warum das mit ASMedia so ist und warum der ASM1166 hingegen immer wieder als gute Alternative erwähnt wird, weiß ich leider nicht. Viele Grüße Nils EDIT: Entscheidungen soll mir auch keiner abnehmen. Nur Tipps geben wäre nett und mich vor Fehlern bewahren (falsche Hardware z.B.) wäre nett Ich habe das Gefühl, dass ich alle ca. 10 Jahre mal ein wenig auf dem Laufenden bin, da meine Systeme immer lange liefen.
  19. Moin, ich gehe gerade mit dem Gedanken schwanger, ob ich meinen Server Upgrade unterziehen soll, ihn ersetze o.ä. Jetzt habe ich schon einiges gelesen, aber bin mir halt immer noch unsicher und dachte, ich frage mal Euch. Was ich habe: Ich hatte bis vor kurzem 2 Unraid Server. Beim älteren von beiden hatte ich einen Hardwaredefekt. Somit habe ich eine Plus- und eine Pro-Lizenz von Unraid und nutze nur eine. Mein jetziger Unraid-Server (nicht extra für Unraid damals gekauft): - CPU: i7-4790 - Mainboard: Gigabyte Z87X-UD5H-CF - RAM: 32GB DDR3-1600 - Array: SATA vom Board nutze ich nicht für das Array (gab Probleme). Array hängt an einer HBA HP H220 LSI 2308 6G PCIe x8 im IT Mode (6 x SATA mit 12-18TB inkl. Party). - Cache: 2x Samsung EVO 860 mit je 500GB. Stehen tut das ganze im Elektroraum in einem 19". Allerdings nicht im 19" Gehäuse. Monitor angeschlossen ist also nicht. Was nutze ich: - Datenspeicher (Filme, Dokumente, Musik, Backups von Geräten, Bildder...) - 2 VM's (Windows 7 und 10). Diese muss ich aber nicht gleichzeitig nutzen. Vielleicht auch Win11 später, aber meine momentane Hardware wird nicht unterstützt. Windows wird genutzt zum Programmieren des Hauses (KNX/ETS) und allem, was dazu gehört. Nichts grafisch anforderndes (eingestellt ist Graphics Card: Virtual). Könnte ein wenig schneller sein, geht zur Not aber auch, da ETS eh langsam ist. 2 VM's sollten möglich sein, gerne auch mal gleichzeitig (zeitweise). Gesteuert wird (bisher) mit Remote Desktop. Da ich aber sonst ein MacBook benutze, muss die VM alles abdecken, was nur in Windows geht. - Docker: Bitwarden, Phiole, Dokuwiki, HKKNX, NodeRed, HomeAssistant, Homebridge... usw. Ich teste auch gerne. So, nun das Aber: Ich möchte gerne Plex schauen und habe im Haushalt 2 Geräte, die auch mal gleichzeitig einen Stream schauen (HVEC), der transcodiert werden muss. Da kommt aber wohl noch ein dritter (Eltern) über Internet hinzu. Der i7-4790 kann nicht mal einen HVEC-Stream transcodieren, da er keine Hardwarebeschleunigung für HVEC hat. Kann die iGPU dafür genutzt werden und müsste man dann die Ausgabe von Unraid ausschalten und Unraid ist dann lediglich per Webinterface erreichbar? Momentan macht das ein Intel NUC (i5-8259U, 8GB RAM), bisher mit maximal 2 Streams. Aber so richtig laufen tut das nicht. Filme sind auf dem Unraid-Server und werden via NFS zur Verfügung gestellt. Manchmal ist der Server nicht erreichbar, obwohl Plex (Docker) läuft und das Webinterface erreichbar ist. Manchmal kann man keinen Film öffnen (Festplatten nicht im Ruhemodus) und muss dann später nochmal probieren und dann geht es. Letzte Woche musste ich den NUC neu aufsetzen, da MacVLAN (Docker) schlagartig nicht mehr funktionierte und es einfach nicht wieder zurechtzubiegen war. Der NUC ist inzwischen ausschließlich für Plex genutzt und ist auch mehrfach (im Idle) wegen angeblicher Überhitzung ausgefallen, ist aber sauber, kalt und Lüfter funktionieren. Irgendwas stimmt da nicht. Jetzt Frage ich mich halt, ob es Sinn macht, den jetzigen Unraid-Server als Backup-Server zu nutzen (4TB Platten habe ich noch), den NUC aus dem System zu nehmen und mal etwas neues anzuschaffen. Wenn er durch läuft und auch viel im Idle ist, sollte er sparsam sein können. Nicht das letzte Quäntchen, aber unnötig viel muss es auch nicht sein. Immerhin muss ich in Deutschland Strom zahlen. Hierzu ergaben sich einige Fragen, die ich nicht so geklärt bekommen habe: CPU: Bisher hatte ich an einen i5-13400 oder i5-13500 gedacht. Bin da aber irgendwie verwirrt. Mein jetziger hat 4 Kerne und HT, ein i3-13100 hat 8 Threads bei 4 Kernen. Müsste ich den damit vergleichen? Verbraucht die 13th Generation im Idle alle ungefähr gleich und nur bei Last unterschiedlich und kann man einen Nicht-K-Prozessor im Bios limitieren? Ich las da was von, da er dann sehr effizient arbeitet. 13th Generation, da die 14th wohl keine Vorteile bietet und 11/12 wohl deutlich mehr verbrauchen und ich auch nicht zu alte Hardware haben möchte, wenn ich neu kaufe. Alles angelesenes Wissen... RAM: Natürlich wäre ECC-Ram nett, aber soweit ich verstanden habe, müsste man dafür ein W680-Board nehmen, was deutlich teurer ist und sich frage mich immer, ob das mehr nice-to-have ist oder sinnvoll? Ansonsten DDR4 vs DDR5. Ich denke, langsamerer RAM wäre okay, und DDR4 verbraucht sicher weniger. DDR5 hat build in ECC. Sollte man daher lieber zu DDR4 Speicher greifen? Immerhin ist das ECC im DDR5 kein richtiges ECC und wohl eher notwendig, als nützlich (zusätzliche Gefahr?). 32-64GB hätte ich hier anvisiert und überlegt, ob Plex in den RAM transcodieren könnte, um SSD zu schonen. Gehe ich recht in der Annahme, dass 1x32GB ggü. 2x16GB etwas langsamer ist (kein Dual Channel), aber stromsparender? Mainboard: MSI ist wohl nicht stromsparend, also ggf. Gigabyte mit Z690/Z690. ASMedia Controller sollte für USB oder SATA wohl ausgeschlossen werden. Für 2,5/10GBit LAN habe ich keinen Switch. Sollte man min. 2,5 GBit/s nehmen und deaktivieren, falls man es braucht oder weg lassen? 2x M.2 für Cache zu haben, wäre sicher ganz nett, dann würde man sich auch 2 SATA sparen. Ansonsten wohl nur auf die Features setzen, die man wirklich braucht. Oder ist das alles Schwachsinn, da man keinen richtigen Mehrwert hat und sollte eine NvidiaShield + extra Speicher für Plex nehmen? Vielleicht habe Ihr ja ein paar Tipps für mich, würde mich freuen. Ich bin da immer nicht so auf dem laufenden, da meine Systeme meistens =>10 Jahre laufen Da gibt man dann aber auch schnell 300€ aus und nutzt es ausschließlich dafür und der jetzige Unraid-Server muss trotzdem weiterhin laufen. Irgendwann rechnet sich das auch nicht mehr, da es keinerlei anderen Vorteil bringt. Viele Grüße Nils
  20. Du meinst, wenn ich eine Meldung bekomme über "unclean shutdown", aber beim nächsten Start oder nach Neustart (wenn das System einfach nicht runter gefahren ist) kein parity check gestartet wird, dann muss es mit dem Parity Tuning plugin zusammenhängen? Würde ohne das plugin ausnahmslos immer ein parity check starten, wenn ein unclean shutdown entdeckt worden ist? Viele Grüße Nils PS: 2 weitere Male runter gefahren ohne "unclean shutdown" seit timeout Erhöhung.
  21. @mgutt Wenn es nochmal kommt, poste ich die Logs. Bisher hatte ich aber mit knapp 6x runterfahren das Problem nicht mehr, nachdem ich die Zeit vom Timeout verlängert habe, obwohl es in letzter Zeit eigentlich immer kam. @ich777 Warum hilft eine höhere Zeit nicht? Bisher hilft es oder es ist einfach nur der typische Fall, dass der Fehler weg ist, weil man loggt Zu 1: Ja, Plugins sind alle aktuell Zu 2: Ja, Parity Tuning ist installiert Zu 3: Teils teils. Manchmal wird er getriggert und läuft und manchmal kommt nur die Meldung vom unclean shutdown und er checkt nicht, behauptet aber dann auch nicht, dass er das nun tun würde. @Sacred Bei mir scheint es bisher ja auch zu helfen, 300s mögen zu lang sein, aber eigentlich ist es ja auch egal, selbst wenn ich 10min. nehmen würde, wenn das hilft. Meine Platten laufen oft zumindest teilweise nicht, wenn ich runter fahre und werden erst angefahren. Meistens wurde schon >=2h nichts mehr gemacht und daher durften die Platten schlafen. Ich lasse das erst einmal bei 300s. Viele Grüße Nils
  22. Hoppla. Ich war wohl im falschen Bereich unterwegs. Ich hatte hier rein geschaut und dachte, im englischen Bereich mehr Leser zu bekommen, war aber wohl im falschen Bereich. @DataCollector Danke, das habe ich nun einmal aktiviert und lege auch eine Kopie auf dem Stick ab, Möglichst temporär, bis der Fehler gefunden ist. @Sacred Ich stelle das mal höher (Settings > Disc Settings > Shutdown Timeout). War auf 90s und ich stelle es mal auf 180s. Mal schauen, ob das was ändert. Viele Grüße Nils
  23. Hi, I am currently on 6.12.4, but I have problems for about 1,5-2 month now, so it was the same with older versions. At least this is the time where I noticed problems, because often the Server is running all time. When I press on "Shutdown" in the UI I get an push message which tells me that there was a detection of an unclean shutdown. Not every time, but most of the times. Sometimes I get this message and the server is not turned off. I don't know if this is because of an reset oder reboot. Is far as I know the logs are deleted when the server gets a reboot or shutdown. What can I do about this? Often it starts parity check automatically because of this. Any suggestions what to do? kind regards Nils
  24. Thank you very much. I'll test this later on. Can not understand why Zappiti only wants to have this for special NAS companies instead of releasing it as a docker without special limits. I tried it and get into two problems. 1. When I am trying to import, Zappiti wants to update the server. Is this possible? How could I make sure to be on the newest server version with this docker? I am not using beta. 2. When I connect to the docker-server and try to import from cloud (my every day used collection) I get a message which tells me that my collections seems to be damaged. But I am using it every day. Is it maybe not possible to import from cloud? kind regards Nils
  25. I just wanted to give a feedback and thank you for helping. Everything is working again and I have a SSD which is waiting for being the Cache drive. So thank you for you help and the tipps.
×
×
  • Create New...