h0schi

Members
  • Posts

    111
  • Joined

  • Last visited

Everything posted by h0schi

  1. Alles eingebaut. Die Intel X710-DA2 für den Server kam heute auch. ASPM ist komplett aktiv: Den C-State C7 erreicht der Server mittlweile zum Glück auch - mal sehen welche VM ich noch irgendwie auslagern kann. Die Tage werde ich nochmal die Kabel etwas schöner verlegen. Die nachträglich eingeklebten Gummi-Matten schlucken die Vibrationen wie gewollt - lautstärke-technisch bin ich aktuell zufrieden.
  2. Frohes neues Jahr Heut ging es der Firewall an den Kragen. IST: • Intel Gold G6405T • Gigabyte B560M H • 8GB DDR4 RAM • Samsung 950 Pro 256GB • Mellanox Connect-X 3 (CX312A) • Huawei E8372 LTE-Stick • Xilence I404T • Arctic 80mm Lüfter • Chenbro PC722 • BeQuiet BQT TFX-300W TFX -> Verbrauch: ~38-40w SOLL: • Intel Gold G6405T • ASRock H510M-ITX/ac • 8GB DDR4 RAM • Samsung 950 Pro 256GB • Intel X710-DA2 • Huawei E8372 LTE-Stick • Xilence I404T • Xilence 92mm Lüfter • Streacom F7C Alpha • Pico PSU 160w mit Leicke 120w ULL -> Verbrauch: ~28-30w Die WLAN-Karte wurde direkt auf dem Board entfernt. Die Sophos XG kann mit ASPM nicht so gut umgehen und verliert nach einer gewissen Zeit die Verbindung, daher konnte ich ASPM über das BIOS nicht aktiviert lassen. 1-2 Watt krieg ich vllt. noch über ein paar BIOS-Einstellungen raus
  3. Is doche mal ein guter Wert. Welche Cache-Lauferke nutzt du ? So was ich von @mgutt gelesen habe ist durch die Intel X710 nur ein C-State von max. C7 möglich, deshalb werd ich da wahrscheinlich weit über den 20w im idle liegen.
  4. Gestern Abend noch ein Streifen bei den PCI-Steckplätzen eingeklebt. Welche Hardware ist bei dir im Einsatz und was verbraucht dein System im Idle ? Die Komponenten stell ich zum großteil um, um einen höheren C-State zu erreichen und das ganze System noch etwas sparsamer zu bekommen.
  5. Die Cache-Drives kamen auch an. Im neuen Jahr kommt ggf. noch eine zweite WD Red SN700 1TB. Bei der Montage wurden dickere und hochwertigere Wärmeleitpads von Arctic verwendet. Die dickeren Pads erzeugen einen besseren Anpressdruck und sollten deshalb etwas besser funktionieren.
  6. Das Fractal R5 kam heute an. Ich bin gespannt wie gut die Dämmung des Gehäuses ist. Die Laufwerksschächte beklebe ich aktuell mit Gummi-Matten um die Schächte schwerer und stabiler zu kriegen. Der Standard-Lüfter aus dem Lieferumfang wandert in die Front und ein Noiseblocker eLoop B12-PS findet mit einem 15mm starken Fan-Shroud seinen Platz auf der Rückseite. Der Fan-Shroud wurde nachträglich noch mit einem Neopren-Dichtband abgedichtet.
  7. Da müssen dazu noch die neuen SSDs rein. Die X710 ist erst der Anfang. Wenn alles eiwngebaut ist, schreib ich kurz was dazu.
  8. Hallo Zusammen, hier ein kleiner Worklog zu meiner aktuellen Homelab-Baustelle 😀 Der 12HE Server-Schrank im Büro wird nach und nach weichen und das Unraid-System wandert von einem 4HE Chenbro-Gehäuse in ein Fractal R5 und wird im Wohnzimmer seinen Platz finden. Hinzu kommt, dass einige Hardware-Komponenten ausgetauscht werden um allgemein etwas sparsamer das System 24/7 laufen zu lassen. IST-Zustand: • Intel Core i3-9100 • Gigabyte C246M-WU4 • 4x16GB Kingston DDR4-2666 ECC • Mellanox ConnectX-3 (CX312A) • Chenbro RM42300 • Lüfter: 5x 80mm • Seasonic FOCUS GX-550 • VM & Docker: Intel P4501 500GB U.2 (mit China M.2 Adapter PCIe-Karte) • Cache: 2x Samsung PM963 960GB U.2 • Parity: 2x Seagate Exos X16 14TB • Data: 2x Seagate IronWolf Pro 12TB SOLL-Zustand: • Intel Core i3-9100 • Gigabyte C246M-WU4 • 4x16GB Kingston DDR4-2666 ECC • Intel X710-DA2 • Fractal Define R5 (Laufwerkskäfige zusätzlich gedämmt / verstärkt) • Lüfter: 2x 140mm / 1x 120mm • Seasonic FOCUS GX-550 • VM & Docker: WD Red SN700 500GB (mit Icy Box IB-PCI208-HS) • Cache: 2x WD Red SN700 1TB (mit EZDIY-FAB M.2 Kühler) • Parity: 2x Seagate Exos X16 14TB • Data: 2x Seagate IronWolf Pro 12TB Heute hat die Firewall die erste Hardware-Änderung erhalten. Da die Mellanox Connect-X 3 Karten kein ASPM beherrschen und somit andere Komponenten nicht "schlafen" lassen, wurde die in der Firewall verbaute Karte gegen eine Intel X710-DA2 Karte getauscht. Vor Einbau wurde die Wärmeleitpaste erneuert und die Firmware aktualisiert.
  9. Die erste X710 kam an und hat wegen der Low-Profile Blende erstmal Platz in der Sophos XG Firewall gefunden. Die Zweite für den Unraid-Server kommt erst im neuen Jahr. Hier schon mal ein Auszug des lspci auf der Sophos XG: Mellanox Connect-X 3 (CX312A) LnkCap: Port #8, Speed unknown, Width x8, ASPM L0s, Latency L0 unlimited, L1 unlimited ClockPM- Surprise- LLActRep- BwNot- LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- Retrain- CommClk+ ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt- Intel X710-DA2 LnkCap: Port #0, Speed unknown, Width x8, ASPM unknown, Latency L0 <2us, L1 <16us ClockPM- Surprise- LLActRep- BwNot- LnkCtl: ASPM L1 Enabled; RCB 64 bytes Disabled- Retrain- CommClk+ ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
  10. Von welcher Intel-Karte sprichst du genau, @MartinG ? Die Intel X520-DA2 (PCIe 2.0 - 8x) ist gebraucht relativ günstig zu haben. Die neuere Intel X710 (PCIe 3.0 - 8x) ist leider doppel so teuer. Ich habe genau das gleiche Problem - Server mit Mellanox Connect-X 3 lässt die CPU nicht tiefer als C3. Kann aber auch den Datacenter U.2 SSDs liegen, welche ggf. die CPU auch nicht "tiefer" schlafen lassen. Mich würde es mal interessieren ob das mit einer Intel-Karte klappt. EDIT: Hab mich jetzt entschlossen umzubauen. Die Intel- & Samsung Datacenter U.2 SSDs und die Mellanox 10G-Karte fliegt raus. Die SSDs werden gegen WD Red SN700 getauscht und eine Intel X710-DA2 wird verbaut - laut Datasheets sollten die Komponenten alle L0 und L1-ASPM unterstützen.
  11. Du kannst mal den Slice-Size des "Lancache" Docker-Container (die Variable muss wahrscheinlich erst angelegt werden) erhöhen und versuchen ob es dadurch besser wird. Vorsicht -> Dabei werden alle bereits gecachten Dateien unbrauchbar ! Ansonsten würd ich mal den Lösungsvorschlag von @mgutt oberhalb in dem Thread testen:
  12. Ist bei mir auch der Fall. Hatte kurzzeitig eine USV der BX-Serie, die mir die Leistung anzeigen konnte.
  13. Go-Go-Gadget-O Final Thanks for the updates !
  14. Kein Thema Von Stromausfällen in unserer Region sind wir eigentlich soweit auch verschont und wenn puffert es die USV gut weg. Hatte bis jetzt einmal das Szenario, dass ich bei der Erst-Einrichtung einmal den Server hart neu starten musste und sich das Datei-System auf meinen damaligen Cache-SSDs (RAID-1) komplett zerpflückt hat - ob es jetzt mein eigener Fehler oder ggf. ein Software-Fehler handelte, kann ich schlecht sagen. Setz seit dem nur SSDs mit Power-Loss Protection als Cache-Drives ein und schlaf einfach besser mit dem Gedanken etwas mehr "Sicherheit" zu haben 😄
  15. Ich spreche nicht von einem regulären Stromausfall, welche eine USV wegpuffern kann, sondern von einem Netzteil-Defekt oder hartem Systemausfall auf Software-Ebene.
  16. Interessanter Post - dank dir für die ganzen Details @mgutt 👍 Mich würds mal interessieren wie sich das ganze Array aus Consumer-SSDs im Ernstfall wie einem "harter" Systemabsturz (Stromausfall, Netzteil-Defekt, usw.) verhält. Selbst eine USV, kann mir in so einen Fall das evtl. entstehende Problem nicht wegpuffern. Denke gerade in so einem Fall würden sich halt gerade Enterprise-/Consumer SSDs mit Power-Loss Protection besser eignen.
  17. h0schi

    10G in Unraid

    Wäre auch ne Möglichkeit. Danach den Reboot nicht vergessen
  18. h0schi

    10G in Unraid

    Also wenn ich es richtig verstanden habe, möchtest nur noch per 10G auf den Server zugreifen richtig ? Leichterster Weg - deaktiviere die Onboard Netzwerkkarte über das BIOS. Oftmals haben DAC-Verbindungen Probleme mit Auto Neogation - da kannste auch mal versuchen den 10G Switch manuell auf 10G-Geschwindigkeit zu setzen.
  19. Nö, es geht nicht um 50 Euro. Es geht darum erstmal die Hardware zu nutzen die ich bereits hier liegen habe und aus meinen beiden Hardware-Varianten die Beste zu wählen.
  20. Hi Comm', ich würde gerne meine VM's aus meinem aktuellen Cache-Pool auslagern, einen separaten VM-Pool anlegen und brauche kurz eine Entscheidungshilfe. Variante 1) 2x Samsung Evo 960 250GB - beide jeweils nur über PCIe 1x angebunden IOPS 4K lesen/schreiben: ca. 330k/300k Keine Power Loss Protection - Consumer NVME -> Trotz PCIe 1x sollten noch genug IOPS verfügbar sein oder Variante 2) 1x Intel P4501 500GB - angebunden über PCIe 4x IOPS 4K lesen/schreiben: ca. 146k/16.2k Power Loss Protection - Enterprise NVME -> Durch niedrige Schreibrate der Intel P4501 bin ich etwas stutzig, ob die Leistung für die aktuellen VMs und ggf. kommende VMs ausreicht. Bei den VMs handelt es sich um: - 3CX - Home Assistant - PRTG - 1-2 Windows Server 2022 Core - Ubuntu Die VMs werden täglich gesichert. Zu welcher Variante würdet ihr tendieren ?
  21. Mal sehen, vielleicht sucht aktuell dennoch jemand 6TB Platten Dank dir für die Aufschlüsselung
  22. Du bekommst ca. 15% im WD-Shop über die Coporate Benefits. Die Preise sollten bei den handelsüblichen Webshops dennoch günstiger sein, da die Preise im WD-Shop extrem hoch sind.