Jump to content

DataCollector

Members
  • Posts

    3,435
  • Joined

  • Last visited

  • Days Won

    11

Everything posted by DataCollector

  1. Ich würde einen 9300-8i oder besser nehmen, wenn ich diese Voraussetzungen hätte und den Strombedarf akzeptieren würde. Bei meinem eigenen großen System (siehe Signatur 1st System Tessa) verwende ich sowas nur deshalb nicht, weil ich ohne Expander auskommen wollte.
  2. Das dürfte aber die 8x 1GByte/s PCIe Schnittstelle sein. Die Fähikeiten des SAS Expanders in der Backplate herauszufinden sehe ich da nicht drin. Einen Anhaltspunkt kann der Anschluß geben. Beispielsweise deutet SFF8087 an der Stelle doch überwiegend auf 6GB SAS hin. SFF-8643 hingegen wurde dann doch mit 12GB SAS eingeführt (auch, wenn es dennoch einige SAS produkte gibt, die rein aus Marketinggründen auch SFF-8643 einsetzen aber dann doch nur 6GB SAS verwenden. Musste eben nach "mehr" Aussehen).
  3. Bei 12GB hat jede Line 12GB. Ein Kabel mit 4 Lines hat also 4x12GB, was in Summe 48GB sind. Mit 2 Kabeln zu je 4 Lines mit 12GB sind dann 96GB möglich. Bei 6GB hat jede einzelne Line 6GB. Ein Kabel mit 4 Lines hat also 4x6GB, was in Summe 24GB sind. Mit 2 Kabeln zu je 4 Lines mit 6GB sind dann 48GB möglich. Zum Stromverbrauch verweise ich erneut auf: https://forums.unraid.net/topic/156160-gigabyte-b760m-ds3h-ddr4-verschiedene-messungen-werte/?do=findComment&comment=1388195 wo ich in Messung 4 genau so einen 9300-8i vermessen habe.
  4. Wenn Du die SAS Backplane mit Expander behalten willst und das unter unraid betreiben möchtest, macht es Sinn einen HBA oder IT Mode SAS Kontroller zu beschaffen. Der Megararid ein PCIE 3.0 x8 12GB SAS Kontroller. Wenn Deine Backplane aber nur 6GB SAS ist, reicht ein einfacherer Kontroller. Wenn ich der Beschreibung glauben darf, wäre das etwas passendes: LSI SAS 9217-8i SATA/SAS 6Gb/s PCI-E 3.0 IT Mode + 2*SFF-8087 Cables SATA https://www.ebay.de/itm/235442644303 Du wirst dann aber neue Kabel brauchen, weil der Megaraid die neueren SFF-8643 Anschlüsse hat. Wenn Du die Kabel beibehalten willst oder wenn Deine Backplane 12GB SAS ist könnte sowas passen: LSI Broadcom SAS 9300-8i 12G SAS/SATA HBA IT-Mode (oder bauähnlich) https://www.ebay.de/itm/176271744807 https://www.ebay.de/itm/166643341248 https://www.ebay.de/itm/134460734355
  5. Ich habe mehrere der Megaraid 9361 in Betrieb. Die haben keinen echten HBA oder IT Mode. Der JBOD ist leider nicht transparent wie ein echter HBA oder IT Mode. Sorry. Ich weiß, Du willst es nicht hören: Der Megaraid ist dafür nicht zu empfehlen. Siehe Screenshot.
  6. Zeige mal die Einstellungen des Share. Ich befürchte Du hast nur auf Primary umgestellt, aber nicht den Cache als Quelle.
  7. 1. Raidkontroller im Raid Modus unter unraid sind weiterhin nicht empfehlenswert. Bitte behalte im Hinterkopf, daß da (D)ein Grund für das zfs Versagen mit drin begründet sein könnte. 2. die Syslogs in urnaid können auf dem USb Stick gespeichert werden. Dann überleben sie auch eine Datenträgerabsturz (sofern es nicht der Bootstick ist) oder auch Neustart. Ich kann zu zfs Master nichts sagen. Ich nutze nur die unraid GUI Funktionen und hatte das Problem bisher noch nie. Ich glaube hier irgendwo mal geleen zu haben, daß man bestehnde Zfs Strukturen über einen Terminalbefehl einlesen kann. ich weiß aber nicht welcher das war. 'mount -zfs' oder irgendwas in der Richtung. Klang in dem Moment ganz simpel, als ich das hier im Forum las.
  8. Ohne Fleiß kein Preis! Viel Spaß!
  9. xfs selber beherrscht unter unraid in der GUI kein Verbinden von Laufwerken (oder ich habe es da noch nicht gefunden). Soweit ich las soll xfs zwar das Verbinden von Speichergeräten unterstützen, aber ich habe das in der GUI noch nie so gesehen. Ich schätze, vielleicht kann man das mit Terminalbefehlen machen...?
  10. Da ist dann etwas schief gelaufen. Das ist nicht die Regel Bei mir nicht. Hast Du den Raidkontroller noch drin uns nutzt Du diese Datenträger daran?
  11. Falls Du die 24Bay in Front meinst: alturismo meint (vermutlich) etwas anderes. Das Gehäuse hat auch eine Möglichkeit nach hinten raus einen freien Platz zu nutzen, in dem man einen 1x 3,5 Träger einbauen kann oder einen Doppelträger, der 2x2,5 faßt. Falls Du in einen der 3,5inch Bays vorne 2x2,5 unter bringen willst, gibt es einen netten (aber nicht billigen) "Trick 17" oder besser gesagt: QNAP QDA-A2AR. https://geizhals.de/1906112725 Damit kann man 2x 2,5inch SSD (müssen aber schmale/dünne Modelle rein) als ein Raid/BigDisk dem Anschluß unterschieben. Un das lustige, das Ding hat die außenmaße einer 3,5ich festplatte und auch die SATA Verbinder sitzen an der richtigen Stelle. Aber erstens benutzt dieses kleine Tool den JMS562, welcher die SATA Geschwindigkeit etwas einbremst und andererseits wäre das dann wieder "unraid" ein "Raid" unter zu schieben.
  12. Ja. "Reconstruct Write" ist für vergleichbare Fälle dieser Art. Da das aber den ganzen Stromspar mechanismen entgegen wirkt, sollte man das nur einsetzen, wenn man es wirklich zu brauchen glaubt.
  13. Es gibt im Cache selber auch eine solche Größeneinstellung. Wie sieht die denn bei Dir aus?
  14. Leider kann ich im Bezug auf zfs dazu noch nichts sagen, weil ich bisher noch nicht versucht habe 2 unterschiedlich große Datenträger zu koppeln. Die Anleitung bezieht sich ja auch auf BTRFS (was ich dennoch meiden würde). Also habe ich es mit meinem B760M Testboard einfach gerade mal ausprobiert. Man nehme eine 2TB Samsung 970 Evo Plus und eine 4 TB Patriot Vioer V4300Lite. Wenn es klappt sollten fast 6 TB Speicherkapazität ohne Redundanz bereitstehen. (Ich nenne sowas gerne BigDisk, weil der Begriff JBOD leider mehrfach belegt ist.) Und es klappt! Schritt 1: die Datenträger einbauen, unraid starten & einen neuen Pool erstellen Schritt 2: Die unterschiedlichen Datenträger dem Pool zuordnen Schritt 3: Durch Anklicken des ersten der Datenträger im Pool die Einstellungen festlegen. Hier zfs Schritt 4: dann in dem neu aufklappenden Menu den raid0 Modus wählen: Schritt 5: wenn der Pool erzeugt wurde, sind die Datenträger natürlich noch nicht formatiert, aber wenn man das System per "START" dann startet wird einem im Main Tab unten die Formatierung angeboten (rechts das Kästchen anklicken) und den Button "Format" drücken. Schritt 6: Und wenn die Formatierung durch ist, sieht man dann hier fast 6TB Nutzkapazität. Ich hoffe damit ist Deine Frage beantwortet?
  15. Was spricht gegen normale 3,5inch Trays (die Du ja vermutlich hast) und passende 2,5 in 3,5 Adapter? https://www.ebay.de/itm/404806909666 https://www.ebay.de/itm/404806909894 https://www.ebay.de/itm/176205704984
  16. Sicher empfangen bedeutet für mich, daß die Daten ohne Beschädigung im Server ankommen: Dafür ist in meinen Augen die Netzwerkkarte (mit) verantwortlich. Sicher lagern: tja, wenn Du damit die Ausfallsicherheit des aufnehmenden Cache/Pools meinst bleibt eigentlich nur Raid1 oder höher. Was Du in den Pool rein packst (SATA SSD, NVMe SSD oder vielleicht doch Festplatten) ist Deine Sache. Ich bin an einigen Stellen bei mir von der Redundanz im Pool abgegangen. Da ich in der Regel von den Daten, die mir am Herzen liegen auch Backups habe, ist der als Cache benutze Pool zwar ein "Single Point of Failure", aber das kann ich verschmerzen. Was da drin ladet ist auch noch wo anders oder schnell wiederbeschaffbar. Nur dort wo wirklich Daten in meinen Abläufen temporär einmalig vorliegen und ggf. auch etwas länger liegen, dort verwende ich Redundanz in den Pools. Solltest Du mit "schnell" 1GBLan oder 2,5GBLan meinen sind auch gute SATA SSD geeignet. Ich setze die in meinen Pools aber eher aus Preisgründen ein, da ich mir 3x8TB zfs in 'NVMe' preislich nicht erlauben kann/will. Die Samsung 8TB QVO waren vor einiger Zeit noch überraschend günstig zu haben. Wenn es flotter oder eben direkt NVMe sein soll kann ich mich bei NVMe nur wiederholen: Samsung 970 Evo Plus, ADAata Legend 960 (max) , Paritiot Viper 4300l und Lexar NM970 gefallen mir sehr gut (auch wenn die Lexar unter Last gerne recht warm wird). Garantiert gibt es auch andere gute SSD (Samsung hat ja einen guten Ruf, wobei sich WD den bei diversen Flashspeichern und derem Umgang mit der Herstellergarantie gerade eher kaputt macht), aber ich habe eben nur einen begrenzten Pool an NVMe für mich getestet. Je nachdem welche man nimmt sind bei 2,5inch SAS 10k oder gar 15kRPM zu haben. Aber das wird ggf. laut. Wenn man das will: kann man die nehmen, ist aber eben dann doch auf einen SAS Kontroller angewiesen. Alles zusammen wird dann eben einiges an elektrischer Leistung benötigen. Da sind SSD (egal ob nun SATA oder NVMe) in meinen Augen bei Neuanschaffung zu bevorzugen. Du möchtest also das Risiko eines Datenträgerausfalles (weil es den ggf. nur einmal gibt) damit abfangen, daß Du auf einen SAS Kontroller setzt, den es in Deinem System auch nur einmal gibt? Bist Du bereit um an die Daten auf den vielleicht überlebenden SAS Disk dann mal eben 150 Euro gebraucht oder einige hundert Euro für einen neuen SAS Kontroller auszugeben (wenn Du bei dem Megaraid Raidsystem bleibst)? Wenn Du bei einem SATA-SSD Cache ebenfalls auf Raid1 Redundanz setzt und die Datenträger sogar über unterschiedliche SATA Kontroller verteilt im System anbindest wird eine Datenrettung im Schadensfalle von SSD oder Kontroller einfacher. Ich sehe oder verstehe nicht, was Dich an einem zfs Pool mit Raid1 ähnlichem Verhalten mit SSDs stört. Da stehe ich momentan auf dem Schlauch. Sorry! korrekt, aber btrfs würde ich heutzutage meiden. meinst Du damit BTRFS oder den Verbund im allgemeinen? Und wenn Du einen Verbund vermeiden willst, warum dann " zwei 1,2 TB 2,5" SAS Platten im Stripe"? Was ist daran besser? Wie gesagt, ich habe anscheinend irgendwo den Faden verloren und verstehe nicht so ganz wo das Problem mit dem Cache/Pool ist.
  17. Es ist möglich mehrere Pools in unraid anzulegen, aber in einem Share kann man immer nur einen "Primary Storage" (früher Cache genannt und das war dann meist ein Pool) vor einen "secondary Storage" (was dann meist das Array war) schalten. Ich weiß nicht, was die Zukunft bringt, aber aktuell (6.12.8 stable) kannst Du eben nur 1 "Primary storage (for new files and folders):" vor eben 1 anderen "Secondary storage" schalten. Ich habe es gerade mal ausprobiert: Als "primary" kann ich einen meiner 2 Pools oder das Array auswählen. Als "secondary" ist maximal das Array einstellbar. Wenn also als "primary" ein Pool gewählt wird, bleibt für "secondary" nur noch das Array auszuwählen. Kein weitere Pool. Wenn als "primary" das Array gewählt wird, ist bei "secondary" gar nichts mehr auswählbar. Somit es es in unraid aktuell nicht vorgesehen 2 Pools in einem Share hintereinander zu schalten. Dann stell es auf zfs um, bevor Du den Vorgang ausführen läßt. BTRFS sehe ich sowieso als wenig empfehlenswert an. Das, was Du willst, ist als getrennte Pools aktuell nicht in unraid implementiert und somit nicht mit Bordmitteln machnbar. Deshalb verwende ich ausreichend große Pools. 3x 8TB SATA SSD zusammen in einem zfs Pool einige einzelne 4TB SSD in jeweils einem eigenen xfs Pool bis vor kurzem 3x 2TB NVME SSD in einem zfs Pool 2x 18TB Festplatten in einem zfs Pool
  18. Gute SATA SSD reichen in einem NAS vollkommen aus. Gute NVMe sind zwar flotter, aber ob der Unterschied zu SATA SSD für einen wichtig ist, hängt von den Anwendungen ab und wie man die SSD benutzt. Beachte, daß ich von "gute" schreibe, da es bei beiden Kategorien SSDs gibt, die auch eher auf billig getrimmt sind und verschweigen, daß sie vielleicht beim Dauerbeschreiben sehr früh und tief in der Schreibrate (teils unter das Niveau einer guten CMR Festplatte) einbrechen. Negativ für meine Zwecke aufgefallen sind da beispielsweise die Crucial P3, Kingston NV2. Sind beides sehr gute NVMe SSD für den normalen Desktopnutzer oder wenn man eben eher wenig in sein NAS schreibt. Aber da ich gerne auch großee Dateien und Datenmengen an einem Stück in meinen Cache schreibe sind die erreichten Schreibwerte bei sequentiellem Beschreiben dann doch zu sehr eingeknickt. Die von Dir dargestellte Karte scheint beide M.2 Slots ohne einen PCIe Switch bereitzustellen. Das ist energetisch sparsam, da die Karte keinen eigenen Strom verbraucht (wenn man von den stabilisierenden Spulen und so absieht), aber sie kann dann die beiden M.2 Slots nut in einem PCIe Slot zugänglichmachen, welcher Bifurcation unterstützt. Bitte prüfe bei dem Mainboard, welches Du einsetzen willst, ob es in verbindung mit der verwendeten CPU Bifuraction unterstützt. Sonst wirst Du Dich wundern, warum nur einer der M.2 Slots funktioniert. Das Thema Bifurcation Adapter wurde auch mal hier mit angesprochen: https://forums.unraid.net/topic/150588-nvme-dual-adapter/?do=findComment&comment=1348641 Hier hatte ich das sogar selbst mal verbaut: https://forums.unraid.net/topic/124338-datacollectors-zweiter-unraid-server-tower/?do=findComment&comment=1142920 aber vor ca. 1-2 Wochen die 3x2 TB NVMe SSD (zfs im raid0 modus) entfernt und eine Adata Legend 960 max 4TB (xfs) eingebaut. Die Adapterkarte habe ich aber drion gelassen und könnte somit in der Konstellation noch 2 weitere M.2 PCIe x4 Devices montieren (ASM1166 oder NVME SSD zum Beispiel).
  19. Wie üblich: mit den Samsung 970 Evo Plus macht man eigentlich nichts falsch. Da mir die mit maximal 2TB aber zu klein sind, habe ich zuletzt zu Adata Legend 960 (Max) gegriffen. Auch gut finde ich Patriot Viper VP4300 Lite und Lexar NM790 gut, weil es sie auch in 4TB gibt und sie für meine Zwecke ziemlich Dauerschreibfest sind und eher wenig einbrechen, wenn viele Daten auf die SSDs einprasseln. Es gab mal die Aussage, daß die Lexar Probleme unter Linux haben, aber da ich sie problemlos testen konnte dürfte das in der Vergangenheit angehören: https://forums.unraid.net/topic/156160-gigabyte-b760m-ds3h-ddr4-verschiedene-messungen-werte/ Je mehr Geräte, desto höher der Stromverbrauch (auch wenn SSDs im allgemeinen recht sparsam sind, bedarf es bei der Zusammenschaltung von SATA SSDs mehrere Ports, die man vielleicht besser für Festplatten verwenden möchte)
  20. Ist die zu kopierende Datei vielleicht größer diese ca. 37GB? Diese "Frei"angabe funktioniert nur dann so, wie Du es Dir vorstellst, wenn die Dateien kleiner als diese Minimalgrenze sind. Deshalb sollte man diese Grenze immer etwas größer (2mal so groß) wie die jemals darauf zu kopierende Datei wählen. Auch einer der Gründe, warum ich (persönlich) einen 250 oder gar 500GB großen Cache als etwas klein ansehe und zu mindestens 1 oder mehr TB rate. Aber ich kopiere auch ab und zu mal ein paar hundert großes Image durch die Gegend und will dabei nicht direkt auf ein langsames Array auflaufen.
  21. Die 7GB sind der Platzbedarf für die Filetable und so. Im Gegensatz zu Windows, welches solche Datenmengen verschweigt, zeigt unraid an, daß eben auch die Verwaltungsdaten des Dateisystemes eben etwas Platz beanspruchen. alturismo hat recht. Du kannst nun tauschen. Der Datenträger enthält nichts mehr, was wichtig ist. Solltest Du Deine Share Einstellungen beibehalten wollen macht es Sinn dem neuen Cache Pool den selben Namen zu geben, den der alte Cache Pool hatte, dann braucht man nicht alle Shares (die den Pool benutzten) anzupassen.
  22. @mgutt Hattest Du nicht mal irgendwo angedeutet, daß Du das auch gegen Geld machst?
  23. Ergänzung. Ich habe es gerade mal wegen dieser Frage doch durchgemessen. Ich hoffe das hilft Dir: https://forums.unraid.net/topic/156160-gigabyte-b760m-ds3h-ddr4-verschiedene-messungen-werte/?do=findComment&comment=1388513
  24. Ein neuer Tag... eine neue nagende Frage... Im Zusammenhang zu diesem Mainboard wurde die Frage an mich heran getragen, wie die Verbrauchswerte mit angeschlossenen Festplatten aussehen. Und da mich sowas nicht los läßt, also bitte. Wieder einmal: - Gigabyte B760M DS3H DDR4 (BIOS/UEFI: 2023-11-09 F16b) - Intel I3-12100 boxed (incl. CPU Kühler) - 2x 16GB DDR4-3200 Mushkin Essentials - keine NVMe SSD - kein SATA - interne Netzwerkkarte (Realtek RTL8125BG) mit 1GBLan Link - PCIe 4.0 x16 leer - 1. PCIe 3.0 x1 leer - 2. PCIe 3.0 x1 leer - Leicke ULL 156W Netzteil 12V 13A 5,5 * 2,5mm - Inter-Tech Mini-ITX PSU 160W, Wandlerplatine (88882188) 12V Input - USB Bootstick: Transcend Jetflash 600 32GB; unraid 6.12.4 stable (weil es mit Realtek LAN sparsamer ist); "powertop --auto-tune" im go file. - USB 2.0 Kabelpeitsche: diesmal leer, weil ich als Array nun 4 echte Festplatten nutze - Monitoranschluß und USB Kastatur/Mouse (per IPKVM, da das System im Keller steht) Als Festplatten nutze ich 4 alte Seagate Archive v2 8TB ST8000AS0002-1NA17Z und habe 3 als Datenfestplatten und 1 als Parityfestplatte in ein neu erstelltes Array geworfen. Achtung: diese Festplatten sind nicht wirklich 'optimal' in einem ernsthaft genutzten Array! Dies ist nur als Test für die Messungen gedacht. Nach anfänglichen Erfahungen vor Jahren rate ich heute von SMR als Parity ab. Auch sind Arrays, welche auf Schreibgeschwindigkeit setzen wollen, mit Festplatten <7200Rpm langsamer als welche mit eben 7200Rpm. Die Parity(s) sollte(n), in meinen Augen, immer die flotteste der Festplatten sein (wenn es von der Kapazität her paßt), weil die Parity maßgeblich die Schreibperformance beeinflußt. Technische Daten der Festplatten: ST8000AS0002-1NA17Z (laut www.gh.de) Formfaktor 3.5" Drehzahl 5900rpm Cache 128MB Leistungsaufnahme 7.5W (Betrieb), 5W (Leerlauf) Aufnahmeverfahren Shingled Magnetic Recording (SMR), Drive Managed SMR Ergänzung: als diese Festplatten damals in den Markt entlassen wurden, hatte man sie eben als Langzeitarchiv mit wenig Schreibbedarf entworfen und auch mit mehreren innovativen Stromsparstati beworben. Somit sind die elektrischen Werte (oben die Angaben und unten die Messungen) dieser Festplattentype nur als Anhaltspunkt zu sehen. Andere Festplattentypen können etwas andere Werte haben/erreichen. Ich warte, bis der Bildschirmschoner anspringt und er Bildschirm somit schwarz geschaltet wird, verlasse das WebGUI, weil auch ein offenes WebGUI einen kleinen Einfluß hat. Die Docker und VM Dienste sind gestartet, aber es ist kein Dockercontainer oder eine VM installiert. Gemessen wie üblich mit der selben DECT200 Steckdose und ausgelesen über eine Fritzbox. Ich nenne den Mindestwert einer ca. 10 Minuten Zeitperiode in der Anzeige. Alle Powertop Tuneables werden wieder als "Good" gemeldet. Messung 1: Parity building Alle Festplatten drehen, weil ich gerade die Parity erstellen lasse. Also 3 Datenfestplatten lesen und schreiben ihre Daten auf die Parityfestplatte. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 55,00 W. (Siehe Screenshot 1 links) Powertop meldet folgendes: (Siehe Screenshot 1 rechts) Keine Überraschung. Wenn die CPU was zu tun hat, warum sollte sie stromsparend auf der C10 Sonnenliege dösen? Also sehen die C-Angaben mies aus. Messung 2: idle Spin up Alle Festplatten drehen (spin up; Kreise sind grün ausgefüllt), aber langweilen sich. Ich habe einfach das Parity Building abgebrochen. Angezeigte Schreib-/Lesegeschwindigkeit 0MByte/s. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 30,61 W. (Siehe Screenshot 2 links) Powertop meldet folgendes: (Siehe Screenshot 2 rechts) Zu beachten, da ich nicht neu gebootet habe sind die Prozentzahlen nicht so hoch, weil ja vorher in fast gleicher Zeit das Paritybuilding lief. Aber C10 wird dennoch gut erreicht. Messung 3: idle Spin down Alle Festplatten schlafen tief und fest (spin down, Kreise sind grau). Ich habe sie manuell schlafen gelegt per Button "Spin down" Angezeigte Schreib-/Lesegeschwindigkeit 0MByte/s. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 9,58 W. (Siehe Screenshot 3 links) Powertop meldet folgendes: auch hier wieder C10 großteils erreicht (Siehe Screenshot 3 rechts) Messung 4: Preclear auf allen 4 Festplatten Da ich sowieso die Datenreste von den Festplatten wieder entfernen muß habe ich im dn UD (Unassigned Devices) alle Festplatten gleichzeitig in Preclear geschickt (ohne PreRead). nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 64,80 W. (Siehe Screenshot 4 links) Da nun alle 4 Festplatten gleichzeitig schreiben verbrauchen alle gleichzeitig ihr Maximum. Lesend sind sie etwas sparsamer. Powertop meldet folgendes: Auch hier hat die CPU was zu tun, weshalb die C-States wieder grottenschlecht aussehen. (Siehe Screenshot 4 rechts) Screenshot 5 zeigt das Array, wie es in Messung 1-3 zusammengestellt war. Screenshot 6 zeigt die einzelnen Disks in UD als preclear gestartet wurde für Messung 4. Fazit: genau wie erwartet. Wenn die CPU etwas zu tun hat, sind die Energiesparmaßnahmen (C-States) kaum wirksam. Idle sinkt der Verbrauch und die CPU kann die C10 Sonnenliege aupacken. die drehenden Festplatten (Spin up) fressen aber zusammen rund 21 Watt (= ca. 4x 5,25 W). Und wenn dem ganzen System langweilig ist erreicht es sogar fast die Werte, die das nackte System ohne Festplatten erreicht. Die 4 Festplatten im Spin down schlagen alle zusammen also mit vielleicht 0,5 bis 1 W zu Buche. Screenshot 1: Array erstellt; 4 Festplatten; Parity building Screenshot 2: Array erstellt; 4 Festplatten; idle, Spin up Screenshot 3: Array erstellt; 4 Festplatten; idle, Spin down Screenshot 4: Array aufgelöst; 4 Festplatten alle UD preclear gleichzeitig Screenshot 5: Array erstellt für Messungen 1-3 Screenshot 6: Array aufgelöst, UD Preclear für alle gerade gestartet
  25. Serverhardware ist eben nicht dafür bekannt wirklich den Fokus auf energieeffizienz zu legen. Da geht es eher darum, daß es stabil ist und dafür werden eben auch mal ein paar Watt extra gegönnt. Wäre doch blöd (oder teuer), wenn eine Bank auf einmal Rechenfehler hat oder ihre Transaktionen nur noch verspätet abliefern könnte, nur weil wegen zu strammen Energieeinstellungen, da ein paar Systeme im Cluster aus dem Konzept kommen oder sich gegenseitig verzögern. Doch, mag er. Er wirft bei Dir (und auch mir) nur ein paar Zusatzmeldungen aus, die man ignorieren kann. Boote unraid mal ohne Powertop --auto-tune udn schaue dann in Powertop mal die "Tuneables" an. Da werden viele Devices auf "Bad" stehen = nicht optimiert. Dann führe mal powertop --auto-tune aus und scahue danach mit einem weiteren Aufruf von powertop die Tuneables nochmal an. In der Regel sollten weitaus mehr (oder bei mir alle) auf "Good" stehen. Wenn sich da also was getan hat, hat der Parameter etwas getan.
×
×
  • Create New...