DataCollector

Members
  • Posts

    3184
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by DataCollector

  1. Ich las im Ursprung: 2x HDD je ~8TB 1x SSD 1TB Wieso sollte die ASM1166 bei nur 2 Festplatten und einer SSD erforderlich sein? ASRock N100M (90-MXBK80-A0UAYZ) 1x PCIe 3.0 x16 (x2) 1x PCIe 3.0 x1 1x M.2/M-Key (PCIe 3.0 x2, 2280/2260/2242) <<<<<<<<<< hier kommt die NVMe SSD rein 1x M.2/E-Key (PCIe/Intel CNVi, 2230) 2x SATA 6Gb/s (SoC) <<<<<<<<< Hier kommen die beiden Festplatten dran ASRock N100DC-ITX (90-MXBLM0-A0UAYZ) 1x PCIe 3.0 x4 (x2) 1x M.2/M-Key (PCIe 3.0 x2, 2280) <<<<<<<<<< hier kommt die NVMe SSD rein 1x M.2/E-Key (PCIe/Intel CNVi, 2230) 2x SATA 6Gb/s (SoC) <<<<<<<<< Hier kommen die beiden Festplatten dran Bei Bedarf sind bei beiden Boards per PCIe Adapter sogar noch weitere NVMe SSD in den PCIe Slots möglich.
  2. Hier bin verweise ich einfach mal hier hin: https://forums.unraid.net/topic/152936-hilfe-bei-entscheidungsfindung-erster-build/?do=findComment&comment=1367540 Wobei, wenn es nur um Transcoding, 12 Docker (weiß nicht wieviel last die haben), 1 HA VM (HA solle s auch als Docker geben) und 2 Festplatten +1 SSD geht, könnte auch ein N100 vielleicht reichen. Hier wird es schwierig. Intel CPUs, die schon die ganz neuen Codecs beherrschen sind noch nicht auf dem Markt. Die sollen erst mit Meteor Lake (einem neuen Sockel in Zukunft) kommen (wenn ich mich recht erinnere). I3 oder N100 sollten beide funktionieren.
  3. Oder vielleicht auch mal bei AliExpress schauen und sich die Jonsbo ansehen und ggf. dort (wenn es günstiger ist) holen.
  4. Die 6.Gen Intel ist für heutige Codecs nur begrenzt nutzbar, wenn man hier beim transcoding Unterstützung der iGPU nutzen will. Also die CPU ist zumindest für HEVC besser geeignet. (Siehe Screenshot unten) Ich kenne die Idle Verbräuche der CPU nicht, aber die 12-14.gen soll da in punkto Energieffizienz einen Schritt nach vorne gemacht haben. Wenn Du Dein System hast, würde ich es einfach mal in Minimalkonfig zusammenbauen und einfach mal testen, was es so verbraucht und ob es für Dich akzeptabel wäre. Das könnte (bei eben vorhandener hardware) die billigste un schnellste Lösung sein. Wenn Du doch neu kaufen würdest würde ich eben eher zu Intel 12-14.Gen raten. Aber ich plexe nicht und habe dazu somit keine praktische Erfahrung. Du kannst den Ram verwenden, aber die 8.Gen CPU hätte schon gerne etwas flotteres, als es für die 6.Gen angegeben war. Dann läuft die CPU eben mit einem etwas langsameren Speichertakt. technisch sollte das gehen, vo allem, da Du jetzt bei dem 8,Gen sowieso auch schon zu langsamen Speicher (2400) einsetzt. https://ark.intel.com/content/www/de/de/ark/products/88193/intel-core-i5-6200u-processor-3m-cache-up-to-2-80-ghz.html Intel Core i5-6200U Max. Speichergröße (abhängig vom Speichertyp) 32 GB Speichertypen DDR4-2133, LPDDR3-1866, DDR3L-1600 https://www.intel.de/content/www/de/de/products/sku/126685/intel-core-i58600k-processor-9m-cache-up-to-4-30-ghz/specifications.html Intel Core i5-8600K Max. Speichergröße (abhängig vom Speichertyp) 128 GB Speichertypen DDR4-2666 Technisch nutzbar und zumindest HEVC sollte sie gut unterstützen knnen. Es kommt jetzt natürlich darauf an, von welchen Codecs in welche Du transcodieren willst und mit welchen Auflösungen und Besonderheiten (Tone Mapping, Subtiteln...) da umgegangen werden soll. Bei AV1 in 4k zeigen beide CPUs wohl die "weiße Fahne". Aber der I5 8.Gen wird mit seinen 6 Cores bestimmt schon mal auch auf der COPU selber mehr machen können, als die I5 6.Gen mit nur 2 Cores.
  5. Leider kann man in unraid nicht erkennen wo die "Differenzen" waren, die hier als Fehler gelistet wurden. unraid teilt im Syslog nur mit auf welchen Sektoren die falschen Daten gefunden wurden. Aber ob sich nun auf einer Datendisk im Array oder der Paritydisk etwas getan hat (oder gar beiden/mehreren) ist dadurch nicht feststellbar. Solange Du nicht eine Maßnahme wie Checksummen oder zu hast, bleibt Dir nur den Inhalt der Datendisk gegen Dein Backup zu vergleichen um zu sehen, ob Deine Daten im Array beschädigt sind oder nicht. Nebenbei im Syslog von 1927 Uhr lese ich auch: Mar 9 04:40:10 Ragnarok root: Fix Common Problems: Error: Macvlan and Bridging found Ist das so gewollt?
  6. Sofern es keine NVMe/PCIe SSD sind: ja. 😁 M.2 ist nur eien Schnittstelle und da gibt es sogar noch mehr wie USB und CNVi. Aber bei den 2280er Slots, die man für SSDs gerne sieht sind M-Ke mit NVMe/PCIe flotter und zu bevorzugen. SATA in einem M.2 macht (in meinen Augen) nur Sinn, wenn das Board nichts anderes dort kann, man eine solche SSD kostenlos noch rumfliegen hat/einsetzen will oder es PCIe-Lane-Probleme auf dem Mainboard gibt. Wenn es unbedingt SATA sein soll, bevorzuge ich die an einem SATA Standardanschluß zu betreuben und einen M.2 der auch PCIe beherrscht eben für 'höherwertige Aufgaben' zu nutzen. Korrekt. maximum ca. 6GBit/s = ca. 600MByte/s PCIe 4.0 ist doppelt so flott bei meist erheblich höherem Strombedarf/Wärmeentwicklung. Ich sehe keinen wirklich relevanten Unterschied (außer ggf. aufwändigere Kühlung einer energieintensiveren PCIe 4.0 SSD die auch mit PCIe 4.0 betrieben wird). Aber man kann bei vielen Mainboards auch dei PCIe Einstellungen ändern, so daß eine PCIe 4.0 SSD auch auf PCIe 3.0 gedrosselt laufen kann (Unter Dauerlast schreiben SSDs sowieso eher nicht an den Spitzenwerten, die gerne in den Datenblättern angegeben werden. Ja. Damit wären immer noch rund 2GByte/s möglich und das ist immer noch sehr flott (mehr als 3mal so schnell wie eine SATA SSD sein kann). Aber man sollte nicht verschweigen. auch NVMe/PCIe SSD können nicht zaubern. Es gibt auf dem Markt viele günstige Modelle, die aber unter Dauerlast dann auch auf Werte einer SATA SSD einbrechen. Wenn man also (so wie ich) oft viel und schnell am Stück auf die SSD schreiben will, ist eine NVMe SSD, die dann auf 80MBYte/s einbricht sogar enttäuschnder als viele Festplatten. NVME/PCIe ist also keine magische Formel, die dafür sorgt, daß alle SSD mit dieser technik wirklich in allen belangen einer guten SATA SSD oder gar einer Festplatte überlegen sind. Und ganz zum Schluß: ich verwend eeinige PCIe4.0 fähige SSDs, aber die im PCIe 3.0 Betrieb, weil ich festgestellt habe, daß die Exemplare, die ich getestet habe, ziemlich gut für meinen Wunsch eine hoher Schreubfestigkeit zu haben (also wenig Einbrüche bei dem oben beschriebenen schnellen Schreiben großer Mengen). In meinen Tests bin ich aber auch auf einige PCIe3.0 und auch 4.0 SSDs gestoßen, die eben (wie erwähnt) massiv bei meiner Nutzung eingebrochen sind. In so fern spreche ich mich nicht gegen PCIe 4.0 SSD generell aus, nur betreibe ich sie eben auch nur mit PCIe 3.0, weil das bei mir vollkommen ausreicht.
  7. Über das Netzwerk kommt man aber an SMB oder NFS Zugriff nicht vorbei. Selbst meine Zugriffe von der VM auf mein Datengrab/Array/Pool erfolgt bei mir über SMB. Aber ja, wenn man bei vielen Daten/Dateien schenll einen Zugriff haben will ohne jedesmal extra Wartezeiten für die Übertragung zu merken ist eine Sofwtare, dei das vorbereitet ratsam. Deshalb stehen ja im Videobereich so viele Leute auf Software wie Plex oder Jellyfin, nicht nur weil die Zusatzfeatures wie transcoding bietet, sondern es ist auch eine vorbereitete und indizierte Datenbank da, welche dann die einzenen Zugriffe auf die wirklichen Dateien auf ein Minimum beschränkt. Wenn man mal sehen will welche Schauspieler da mitspielen oder in welchem Jahr das rausgekommen ist oder welcher Regisseur das fabriziert hat oder gar alle nach einem dieser Kriterien (oder noch mehr) zu durchsuchen ist eine gute Datenbank beser als jedesmal die einzelnen Wartezeiten der individuellen Dateizugriffe zu erleben. Wenn man solche Direktzugriffe nackt von außen per SMB macht und bei jedem Suchbegriff erst einmal alle daten durchsucht würde das bei eben extrem vielen Dateien (egal ob nun Bilder oder VBideos) eeeewig dauern. Da macht es eben Sinn eine Software zu nutzen, die sich vorab Nachts mit den Daten beschäftigt und in Datenbanken oder so vorbereitet. Am besten auch Vorschaubilder oder so zwischenlagert, auf die der Zugriff in einer großen Datenbank schneller erfolgt, als in einem Verzeichnis mit zehntausenden Dateien. Welche Software Du für sowas nehmen kannst, kann ich Dir nicht sagen. Wie gesagt, wenn ich manuell große Mengen an Bildern betrachten und sortieren will, handhabe ich das, indem ich diese Bilderflut in Häppchen von einigen Tausend bis einige Zehntausend per SMB in eine VM (mit Windows) kopiere/verschiebe (also in die virtuelle Disk dafür verlagere) und mich dann mit den Häppchen beschäftige. Dieses "vorbereitende" kopieren/verschieben braucht so einige Minuten und während der Kopier-/Verschiebevorgang läuft fange ich einfach schon an. Aber aus eigener Erfahrung kann ich sagen, selbst das schnelle Betrachten & Sortieren von rund 20000-40000 Bilddateien, nach manuellen Kriterien, dauert dann schon bei mir einige Stunden. Ich würde für Dich sagen: probier es doch erst einmal aus. Wenn Dir reiner SMB Zugriff zu langsam ist, dann kannst nach was anderem suchen. Mir ist es für Bildersortierung groooßer Mengen per SMB Zugriff eben leider wirklich zu langsam.
  8. Zu dem Wunsch mehr Effizienz und auch mehr Leistung: bei Unraid gibt es nur das eine oder das andere, wenn man nur mit Festplatten im Array arbeitet. Du kannst ja gerne eien Festplatte als pool vorschalten, wenne s keien SSD sein soll. Zu dem Raid Kontroller: Mir ist klar (ich erwähnte ja auch: "auch wenn es da Möglichkeiten gibt unraid ein echtes Raid unter zu schieben") daß man unraid Raid uunterschieben kann, aber das macht eben bei dem primären Wunsch nach Energiesparen absolut keinen Sinn. Und bei einer so kleinen Anzahl von festplatten (5 Stück) macht auch ein SAS Kontroller under dem primären Wunsch des Energiesparens nur in gaaaaaanz seltenen fällen vielleicht Sinn.
  9. Es ist möglich das Tool "new config" ausführen und dann (vor dem Start des Array) im Main Tab unten "Parity is valid" anzuklicken. Dann geht unraid davon aus, daß die Daten der Paritydisk in Ordnung sind.
  10. Dies ist normal im Array mit Parity. Deshalb will man ja in der Regel das Array auch per SSD kompemsieren. Die Schreibgeschwindigkeit liegt zwischn 33-5ß% dessen, was die Parityfestplatte selber an der gerade betreffenden Stelle kann, weil im normalen stromsparenden Betrieb die Paroty erst die Stelle einlesen, dann die CPU die neu berechnen muß, dann muß die Parity warten, bis die selbe Stelle wieder unter dem Lese-/Schreibkopf durchflitzt und diese schreiben. Dafür dürfen dann alle anderen (unbeteiligten) Festplatten im Betrieb schlafen und das spart eben Strom. Im Reconstruct Modus schreibt es sich schneller, aber dafür laufen dann alle Festplatten, wenn auf nur einer etwas geschrieben werden soll. ... und anscheinend das Stromsparprinzip von unraid noch nicht so ganz mitbekommen. 😁 Boah Ey! Hassu den aus der Zukunft liefern lassen? 😄 Da unter unraid RAIDKontroller im RAID Modus sowieso nicht unterstützt werden (auch wenn es da Möglichkeiten gibt unraid ein echtes Raid unter zu schieben) macht es Sinn den Kontroller nicht zu nutzen (oder in einen HBA/IT Modus umzustellen). Alle Schreiboperationen auf ein mit Parity gesicherten Arrays im normalen Betriebsmodus werden durch die Parity gebremst. Das ist das Konzept. Wnen man da snicht will, kann man entweder den Reconstruct Mode verwenden, bei dem alle festplatten laufen oder die Parity entfernen, damit hat man aber dann keien Ausfallsicherheit der Datenfestplatten in dem Array. Was ja nur die direkte Lesegeschwindigkiet der Festplatten und die direkte Schreibgeschwindigkeit der Parity anzeigt, wenn diese Parity eben NICHT vorher den selben Block einlesen muß. Deshalb empfehle ich ja auch, daß die Parityfestplatte nach Möglichkeit immer die schnellste sein sollte. Alle anderen dürfen dann gerne nur halb so flott sein, aber die Parity ist im normalen betrieb ausschlaggebend. Ich hatte auch mal versucht bei einem Array mit 8TB Festplatten eine 8TB SSD als Parity zu verwenden, aber sie was dann leider doch einige Blöcke zu klein.
  11. Diese (billigen) "USB Hubs" mit Monitorausgängen bieten eigentlich nur ein Bild, wenn der USB Anschluß am PC das per Displayport ausgibt, sonst bleibt dort alles Dunkel. DP am USB Port eines Desktops ist doch eher nicht die Regel. Sowas findet sich eher an Notebooks der letzten paar Jahre (wurde so ab Intel 8.Gen in der business Klasse weit verbreitet). Aber es gibt USB-"Grafikkarten" die mit der technik Displaylink (und eigenen Treibern auf der OS Seite) den Grafikkartenchip in dem Adapter ansteuern und dieser ein Bildsignal per VGA/DVI-D/HDMI oder Displayport ausgibt.
  12. Ram mischen: Wenn es DDR4 Ram ist, hätte die CPU gerne 3200 Speichermodule. Sie kann aber auch 8etwas langsamer) mit 2133 umgehen. Solange Du nur ein NAS daraus machst mit wenig anspruchsvollen Anwendungen ist das alles okay und könnte funktionieren. Wenn man neu kauft würde ich bei der CPU nicht unter die DDR4 3200 Angabe gehen und dort dann je nach preis auswählen. Pico PSU: ich hab ein Inter-tech Modell genommen, weil ich es gerade da hatte (aus früheren Bastelideen). Das sollte 4-6 Festplatten problemlos versorgen können (man muß aber de Stromnversorgung per Y-Kabel oder so aufsplitten). Man kann ganz grob sagen, je angepaßter die PSU an das System ist, desto weniger Energie verschwendet sie. Wenn es 3 oder 4 Festplatten werden sollen, würde ich aber schon zu einer 160W Version raten. Ansonsten kann an auch ein normales ATX netzteil ins Auge fassen: be quiet! Pure Power 12 M 550W ATX 3.0 (BN341) Crucial P3: wenn Du die noch irgendwo rumfliegen hast: okay. Wenn Du die neu kaufen willst für einen flotten Pool uner unraid - wäre das nicht meine Wahl. https://forums.unraid.net/topic/103012-wo-gibt-es-günstige-hdd-ssd/?do=findComment&comment=1331112 Stromverbrauch: also einen Rapsi zu schlagen ist schon schwierig. Rechne mal lieber mit etwas mehr. Irgendwo um 20-40 W würde ich vermuten. Zu einer passenden dGPU kann ich nichts sagen. Wenn Du aber kaum Ansprüche hast sollte es nicht unbedingt eine heftge Gamerkarte sein.
  13. Thema AV1 in iGPU: AV1 CPU kommen erst noch. ich weiß nicht ob die aver für S1700 erscheinen werden. https://videocardz.com/newz/intel-confirms-meteor-lake-has-av1-video-encoding-and-decoding-support Wenn ich diese Webseite als Grundlage nehme, wird das erst mit meteor Lake mit dem neuen Sockel-1851 etwas werden. In so fern ist es egal, wenn Du jejt upgraden willst, kann weder N100 oder ein S1700 AV1 in der iGPU untertützen. 250GB SATA für Appdata: Solange Du nicht viele VM anlegst reicht die, da Du den Array Cache ja auf einem anderen pool handhabst. 500GB SATA Für Array Pool(Cache) Wenn Du weiterhin nicht viel im Array machst reicht das. Ich hätet aber lieber zu etwas größerem gegriffen, udn wenn sowieso die Harwdareplattform geändert wird (oder man per PCIe -Adpaterkarte einen Slot nutzen kann) direkt NVME SSD. gute NVMe SSD sind erheblich flotter als SATA SSD. Ein EInsatz einer NVMe eignet sich dort, wo man eben viele Zugriffe schnell evrarbeiten will. Wnen bisher eien SATA SD reicht, reicht die auch in naher Zukunft. Aber wenn man heutzutage eine SSD (<= 4TB) neu kauft und die möglicheit hat es einzusetzen, würde ich zu NVMe schauen. Wenn es uATX sein dürfte (passendes gehäuse vorausgesetzt/doch beschafft) sind auch 2 oder sogar 3x M:2 PCIe möglich oder eben auch im PCIe per Adapterkarte. Wechsel LSi zu ASM1166 jetzt schon: wenn es technich machbar ist: ja. Dein Stromverrbauch wird etwas sinken.
  14. Ich arbeite mit mc im Terminalfenster per Firefox per Web von einem (verschiedenen) Win PC eingeloggt über WebGui.
  15. Wenn es nicht Mini ITX sein sollte würd eich bei schon vorhandener I3-12100 mal folgendes in den raum werfen: https://forums.unraid.net/topic/152936-hilfe-bei-entscheidungsfindung-erster-build/?do=findComment&comment=1367540 Aber auch sowas gibt es: https://geizhals.de/?cat=mbp4_1700&xf=317_B760~4400_Mini-ITX
  16. Ich lasse das terminalfenster offen und sehe dort, was da passiert (leider seit unraid 6.12 keien Fortschrittsbalken mehr)
  17. Nutze ich auch. Du möchtest, daß von draußen jede Person Deine Daten erreichen und manipulieren kann? Bist Du Dir ganz sicher? Ich hätte es schon gerne beschränkt und nutze deshalb VPN in der FB, in das ich mich von außen einwählen kann.
  18. Wenn Du direkt auf das Array schreibst: gar nicht. Erst wird der RAM rasend schnell gefüllt und dann leert der sich ins Array. Während dessen pausiert die SMB übertragung. Deshalb puffere ich mit einer ausreichen großen SSD zwischen.
  19. In Deinem Screenshot synchronisiert die Parity aber. Das solltest Du pausieren/abbrechen, wenn Du zum jetzigen Zeitpunk nicht willst daß die Deinen Kopiervorgang bremst. Wenn meine Parity maximal arbeitet (hatte die Tage erst das Problem, daß ich die Parity neu habe aufbauen lassen) schreibt mein Array teilweise auch nur noch im Schneckentempo. Ich habe das System dann denn ca. 1 Tag in Ruhe gelassen und als die Parity wieder fertig war, fluppte es wieder wie gewohnt.
  20. Davon war ich ausgegangen, deshalb auch der Hinweis: wegen den 4-6W jetzt zusätzlich Geld in die Hardware zu stecken ist eher sinnlos. Naja, irgendwann geht "haben" in den Bereich "extra" Energieaufwand. Aber der I5 ist ja schonmal nicht falsch. In meinen Augen ist es eher so: zfs bringt im Array (annähernd) nichts. Erst, wenn man aktiv mit Snapshots arbeiten will, mag es etwas bringen, ansonsten habe ich noch keinen Nutzen im Array festgestellt. Wenn Du die gebündelte Kapazität nicht brauchst und die Kapazität von einer reicht: zum stromsparen. Zumindest dachte ich gelesen zu haben "gerne würde ich auch alle Möglichkeiten nutzen um Strom zu sparen." Also "prüfe, der die SSD ewig bindet" ... ob er das wirklich braucht. 😁 Da ich die "T-Force" eigentlich nur von Teamgropup als DRam und SATA SSD kenne: kannst Du die Modelle genauer ausführen? Welche sind es genau? Also eigentlich sollte ein Lüfter für die Festplatten und SSDs und ein Lüfter für die CPU vollkommen zeichen. Wenn Du wirklich 5 Stück für das bisschen hardware brauchst (und jeder Lüfter doch gerne mit 2 oder mehr Watt veranschlagt werden kann) hast Du da einerseits ein Problem bei der Luftführung und andererseits etwas weiteres Sparpotential. Vielleich mal schauene ob man einen der Lüfter einfach direkt vor die HDDs/SSDs platzieren (ggf. eine Halterung basteln) kann und den CPU Kühler lasen (natürlich hat das Netzteil auch einen Lüfter). Den Rest würde ich mal aus machen und schauen ob das nicht reicht. Und ich weiß um die Wärmeentwicklung vieler Festplatten und selbst 5 Stück unter Vollast bekomme ich mit einem 12cm PWM Lüfter permanent problemlos unter 40Grad C. Nur wenn nötig ist? Sind die also solange aus, bis die Festplatten über 40 Grad hoch gehen oder drehen die dennoch langsam mit? Tja, hier sage ich. Bei PCIe/NVMe SSDs liegt es primär an der Firmware. Bei SATA SSDs liegt es primär an der Firmware und dem SATA Kontroller. (weitgehend am SATA Kontroller). Hier kann man im BIOS/UEFI mal schauen ob für die Anschlüsse auch wirklich alles rausgeholt wurde, was geht. Solange die bestehende Hardware weiter verwendet werden soll, Umbauten und Reduzierungen ausgeschlossen sjnd sehe ich es so: keine Lösung. Reduzierung und Optimierung der Hardware wäre schon ein kleiner Schritt.
  21. Warum zfs im Array? (Aber gut, das tut beim Stromsparen nichts zur Sache. Bin nur Neugierig) Wenn Du ggf. eine große SSD nimmst sparst Du bei aktiver Nutzung Strom. Der Verbrauch ist eigentlich ganz okay, wenn Du nicht extrem stromsparende Hardware verwendest. Wenn es nicht niedriger als C2 geht, kann das mit einer Hardwarekomponente oder sogar einer Softwarekomponente/Nutzung zusammen hängen. Leider ist die Suche sehr umfangreich.. Also beeinflussen die SSDs schon mal. Tja NVMe SSD sind durch den direkten Zugang zum PCIe Bus sehr stark mit ihrer Firmware verantworlich für die erreichbaren C-States. Austauschen und weiter probieren. Abschalten soll helfen. Ehrlich: Betrieb schluckt Strom. Wenn Du nun ein Minisystem zusammenstellst (N100 oder vielleicht die nebenann diskutierten Mini Fujitsus oder so, läßt sich da was machen, aber 15W ist in meinen Augen ziemlich gut, für normale PC Hardware. Theoretisch könnte es sein, daß ein 32GB Modul weniger schluckt als 2 x16GB. Und wenn man Module verwendet, die micht per XMP etwas höher gehen können und vielleicht auch eines ohne Blechdeckel könnte man bei den sparsamen Modulen auch noch minimal was arausholen. Aber ob das in Summe 1 W ausmacht müßte man messen. Ich kenne es nicht selber. Aber vielleicht kannst Du mal testweise ein Pico mit 12V Netzteil ausprobieren? 1x16TB würde in Benutzung auch etwas einsparen. Idle/Spindown nur der halbe verbrauch, und im laufenden Betrieb sollten sich auch so 40-50% weniger energetische Leistung eisntellen. Okay, hier würde ich sehr stark annehmen, daß Dich beispielsweise Samsung 970 Evo Pro oder so etwas näher an höhere C-States ran bringen. Vielleicht sollte man mal genau schauen, welche Lüfter wirklich für die eher sparsame Hardware notwendig sind. 1-2 Festplatten, 1-2 NVMe SSDs, eine CPU, etwas Ram und ein Mainboard: Warum dafür in Summe ganze 5 Lüfter? Fazit: wenn Du etwas Geld in die Hand nimmst (mehr als Du energetisch in 1 Jahr einsparst) kannst Du die Hardware verringern und optimieren und dadurch noch einiges sparen. Wenn Du übrigens wirklich kaum Rechenleistung brauchst ist auch die Plattform mit de I5 massiv überdimensioniert. Aber ob dir die vielleicht 4-6W Einsparung eien aktuelle Investition von >200 Euro wert ist mußt Du wissen. In meinen Augen hast Du schon eine ziemlich sparsame Plattform mit PC Standardteilen zusammengestellt und die paar Euro Energiekosten, die Du mit Hardwareaustausch auf besser geeignete/sparsamere Komponenten erreichst, würdest Du mit weitaus mehr Euro an Hardwarekosten erkaufen. Rein per Software sehe ich nicht, daß sich da noch etwas machen läßt. Solltest Du wirklich bereit sein wegen einer Energieersparnis 200 oder mehr Euro zu investieren: laß das System laufen und kauf Dir ein Balkonkraftwerk. Das bringt auf 10 Jahre vermutlich eine bessere Ersparnis.
  22. nein nicht so, wie Du es hier anscheinend vermutest. Du kannst aber die Dateien/Verzeichnisse manuell verschieben: ich nutze gerne den mc (mignight commander) in einem Terminalfenster, ansonsten auch gerne den krusader (Docker von ich777) oder das Plugin unbalance oder eben standard Linuxbefehle.
  23. aber es gibt sie: Wenn Du meinst, das Problem hängt mit dem Realtek Chip zusammen, läßt sich dieser Chip umgehen: https://geizhals.de/trendnet-tuc-et5g-a2067103.html?hloc=at&hloc=de TRENDnet LAN-Adapter, RJ-45, USB-C 3.0 [Stecker] (TUC-ET5G) Marvell/Aquantia AQtion AQC111U (LAN-Adapter, RJ-45) https://geizhals.de/manhattan-lan-adapter-153461-a2347377.html?hloc=at&hloc=de Manhattan LAN-Adapter, RJ-45, USB-C 3.0 [Stecker] (153461) Marvell/Aquantia AQtion AQC111U (LAN-Adapter, RJ-45) Und wenn man es gebrauchen kann. Damit ist auch 5GBLan N-Base-T möglich (5GBLan ist aber etwas energieintensiver).
  24. Any chance to use this Plugin for multiple tasmota devices?
  25. Das kann man machen, Wenn Du keine Ausfallsicherheit (per Parity) brauchst, ist das gut nutzbar. Ob Deine Syno (Backupdiskstation) aber komplett eine Sicherung des unraidsystem schafft (weil ich auch nicht weiß, wie Du sicherst) kann ich nicht sagen. Ich habe vor kurzem eine Verzeichnis von unraid (in dem Docker etc... drin sind) versucht per Windows auf ein Zyxel NAS zu kopieren und festgestellt. daß entweder mein Windows oder das Zyxel NAS mit einigen Verzeichnissen nicht klar kommt. Ich schätze der Übeltäter ist das Windows dazwischen. da es keien Verzeichnisse beginnend mit einem "." (Punkt) mag.