Jump to content

Smolo

Members
  • Posts

    299
  • Joined

  • Last visited

Everything posted by Smolo

  1. Ehr falls ich noch Transcoding nutzen mag etc. die Datenmengen sollten sich da theoretisch in Grenzen halten und die USB Ports liegen ja sowieso nur rum. Die Frage ist halt ob man so eine USB GPU in Unraid und co. Dann überhaupt zum integriert bekommt? Ich habe gestern aber noch eine GT710 mit einem PCIE x1 Port gesehen das längst dann ja auch. Ich muss schon sagen die Lernkurve zu den aktuellen Komponenten ist durch die beiden Threads hier extrem hoch. Wegen dem Nachwuchs war ich da ein paar Jahre relativ weit weg aber die Möglichkeiten sind abartig. Wenn die m2 GPU kommt macht so eine x16 Bifurcation Karte noch viel mehr Sinn.
  2. Das ist im Thread glaube ich untergegangen aber ich brauche min. 2 NVME für das Cache RAID 1 zwecks Ausfallsicherheit. Ich möchte mit dann aber noch min. 1 eigentlich ehr 2 nvme vorhalten um davon eine Standalone laufen lassen zu können bzw. 1 dann für Daten im Alltagsgebrauch im Array zu verwenden. (Die Preise der 2TB Crucial NVME haben nach meinem Posts hier wieder von 150 > 200€ angezogen) Am Ende sind 4x NVME einfach Zukunftstsuglicher für mein Szenario. Danke das war eine wichtige Info die ich noch nicht gefunden habe. Man muss hier aber aufpassen das man auch entsprechend große Mechanische Anschlüsse hat die meistens Boards haben lediglich 2x größer x4 oder Schalten wegen SATA / NVME / x16 dann wieder die Ports komplett ab. So wie das im Thread gelesen hab kann man theoretisch an die x1er Ports die Riserkarten auf x16 ranflantschen und dann würde es wieder funktionieren. Auf soviel Bastelarbeiten habe ich dann aber keine "Lust"
  3. Fällt mir grad ein PCIE x16 > 4x die Adapterkarte = 20 SATA Ports Auf meinem Board würde ich damit auf 32 Ports kommen 😱 Achja hat mal jemand USB GPU probiert, wenn die Lanes aktuell so Mangelware sind und keine UltraPower benötigt wird dann könnte man doch eine USB GPU verwenden?
  4. Naja das funktioniert nur bedingt gut, es hat schon einen Grund warum man dann ApplicationServer Cluster verwendet. Klar wenn die WebServer nur blöd die Daten persistieren ist das einfach aber sobald da etwas Logik mit ins Spiel kommst bist du da normalerweise raus aus so einer Nummer. Wir haben früher über das Prinzip Access Applicationen im Multiuser Betrieb gefahren, dass hat auch gut funktioniert aber machen würde ich das heute nicht mehr wollen. (Frontend Access + Backend AccessDB oder SQL bei 20-50 Usern relativ Problemlos und einfach) Kann man mal fragen was der Einsatzzweck ist Verein, Schule oder Firma?
  5. Also der Support von ASRock ist wirklich auf zack. Ich habe heute ein Preview Bios bekommen und das IMPI / Sensoren funktionieren wieder korrekt. Wenn jemand grad BIOS von ASRock benötigt ich hab da den FTP Zugang da liegt alles rum was auf der Homepage fehlt. 😱 Ich hab grad noch mal deine Varianten geprüft aber das scheint nicht zu funktionieren: 2xNVME Adapter = x8 5xSATA Adapter = x4 10G LAN = x8 dGPU = x8 Bei den Lan Karten habe ich bis auf zwei spezielle Varianten nichts mit x4 gefunden die waren alle 8x? Die NVME Adapter brauch auch alle samt 8x wenn da zwei NVMEs drauf sollen. Das B550 AORUS MASTER hat zwar 3x16 mechanische PCIe aber die unteren sind nur x4 elektrisch angebunden. D.h. wenn ich an der CPU den x8 + 2x NVME nehme habe ich unten (2x) x4 zur Verfügung das reicht weder für dGPU oder LAN fliegt dann raus oder sharen die neuen PCIe Karten auch die Ports so das ich unten trotzdem x8 Karten reinschieben kann? Das Gigabyte B550 Vision D hat (2x) x8 und (1x) x4 dafür dann aber wieder nur 1xNVME d.h. der B550 ist da einfach limitiert. Bei den x570 Boards gibt es übrigens nur ein einziges das an die Ausstattung von meinem aktuellen MB ran kommen würde, ASUS Pro WS X570-Ace dieses hat nämlich (3x) x8 PCIE bzw. einer davon x16. Das ist mir für ein Experiment jetzt aber auch zu viel des guten d.h. ich würde mir hier nur den BMC einsparen hätte aber mehr kosten mit den Adaptern.
  6. Ich bin bisher davon ausgegangen das NextCloud keinen Support bietet für 2 App Server und eine 1 DB bzw. würde ich bei solchen Themen wegen den Daten nicht rumexperimentieren da würde ich immer eine Clusterlösung vorziehen grad bei 100 Usern! Aber das gut es gibt noch andere die das probiert haben. Help needed to setup a NC14 cluster - 🚧 Installation - Nextcloud community Dann wahrscheinlich Variante 2 von dir auch wenn ich das bissel heftig finde
  7. Du müsstest doch sowieso einen Proxy vorschalten? Entweder direkt Cloudflare oder du machst das über einen Server bei NetCup?
  8. Wie wäre es mit seafile? https://de.seafile.com/seafile-cluster/
  9. @mgutt Du bist echt der beste man könnte meinen du arbeitest bei Unraid 🙂 Ich habe grad Rückmeldung vom ASRock Support gestoßen und ich habe da einen Fehler im AMD Chipsatz gefunden 😱 Hier die Antwort vom Support:
  10. So grad noch mal getestet wenn ich die 10G Ports deaktiviere bekomme ich auf dem 1G Port nur noch 35mb/s Durchsatz...wer denkt sich sowas aus 🙄 Bezüglich der Rechnung hab ich grad mal überlegt: 10G Lan SATA Port Erweiterung (min. 8 SATA) Grafik Optional Bifurcation 16x PCIE4 für NVMe Mit dem B550 von Gigabyte wären es dann folgende Varianten 1) Bifurcation 10G Lan dGPU 5x NVMe > nur 4 SATA Ports 2) SATA Variante PCIE4x Sata Adapter = 8/9 SATA Ports 10G LAN dGPU 3xNVME > kein Bifurcation Im Gegensatz zur aktuellen Varianten: 1) Bifurcation 5x NVMe (oder 6 dann aber nur 8 SATA ) 8 bis 12x SATA 10G > Keine dGPU 2) dGPU 8 SATA 5 NVME dGPU 10G 3) dGPU 12(13)x Sata (SATA Erweiterung) dGPU 10G 2x NVME 4) dGPU mit Dual m.2 Karte (jeweils pcei x8) 8 / 12 (SATA Erweiterung) dGPU 10G (4x) / 3x NVME Je nach dem ob ich lieber 4 zusätzliche SATA oder eine zusätzliche NVMe Möglichkeit nutzen möchte Ich glaube da muss ich noch mal auf die Suche gehen...ist das kompliziert. Ein zusätzlicher 8xPCIe am Bus und alles wäre gut. Edit sagt: Ich brauche eigentlich keine Möglichkeit für Bifurcation mit 4xNVME, es sollte auch eine 2fache Variante ausreichen, um den Cache Redundant zu gestalten und im Array noch Platz für NVME für schnellen lesenden Zugriff zu haben. Alternativ wäre dann natürlich auch die Möglichkeit SATA SSDs zu verwenden je nach Wunsch. Ich werde mich mal nach einem Board mit B550 umschauen bei dem ich die Variante 4 fahren kann.
  11. Natürlich nicht bzw. hab ich nichts dergleichen gefunden. 😞 Alles probiert ohne Erfolg. Ich bin genervt schraube jetzt schon zwei Tage an dem Mist rum 😐 aktuelle Erkenntnis > BIOS BMC Self Test failed daher wird das IPMI auch nicht mehr laufen. Das Mainboard zeigt im Bios auch keine Sensoren mehr an. Leider ist neu flashen nicht möglich weil ASROCK Rack keine für den AT2500 aktuell keine Firmware bereitstellt 😞 Nach x versuchen habe ich heute das Bios Reset und einen Neustart versucht und noch mal zwei Neustarts später hatte ich wieder 117mb/s auf der 1Gb Strecke. Und jetzt festhalten, ich habe die 10Gb Adapter deaktiviert und plötzlich sind wieder nur 36mb/s drinnen. In das AMI Remote Bios komme ich ebenfalls nicht per WebInterface rein...es nervt und das für so einen Preis 😞 Anfragen zum Support sind raus mal gucken was als Antwort kommt. Alternative denke ich grad über ein B550 Board nach. B550 AORUS MASTER (rev. 1.0) Key Features | Motherboard - GIGABYTE Global > Das Board hat wengistens gleich 3 m.2 Plätze mit 2 Lan Anschlüssen gibt es eines. Soll ich bei den B550 Boards noch auf was achten? Frage ich dachte der B550 hat kein PCIE4? Laut dem Mainboard aber schon?
  12. Das ist sehr seltsam ich hatte wie gesagt im Offline Modus 6,5 bis 7,5w? Dafür aber weniger Verbrauch mit den eingeschalteten 10g LAN. D.h. aktuell ein Unterschied von <10w im Vergleich zu deinem System den Speicher muss man ja auch noch abziehen. Wäre wirklich interessant wie das System mit einem B550 da steht und wieviel die CPU jetzt zieht. Hast du einen Tip wegen meinem Netz Problem mit den 35mb/s auf das Cache Laufwerk?
  13. Du hattest einen i3 mit deinen 20w mit GBE oder? IMPI sind 7,5w 10G sind <5w bzw. Dual 6,5w ---- Was mich grad in den Wahnsinn treibt ist das ich selbst beim Schreiben auf Only Cache aktuell nicht über 35mb/s komme als wenn ich irgendwo eine Bremse eingebaut habe?!
  14. Die Gigabyte Aorus Gen4 SSD 1TB NVMe halten übrigens ihr Versprechen. Wobei mich leicht gewundert hat das ich beim Kopieren eines Files auf dem SSD Share von Windows aus lediglich auf 800mb/s gekommen bin. (kein 10Gbe)
  15. Mit 2x80mm PWM und 3x120mm 3Pin (Low Noice) Lüftern von Noctua sind es jetzt 30,3W im Idle.
  16. Ist klar und erledigt. Ja habe ich zwischenzeitlich schon gemacht und die Netzwerkkarte einfach unberührt gelassen. Pkg(OS) | Core(OS) | CPU(OS) 0 CPU(OS) 6 POLL 0.0% | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms C1 0.7% | C1 1.0% | C1 1.0% 0.4 ms 1.1% 0.5 ms C2 99.0% | C2 97.8% | C2 98.8% 25.4 ms 96.8% 35.8 ms | Core(OS) | CPU(OS) 1 CPU(OS) 7 | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms | C1 0.9% | C1 0.5% 0.6 ms 1.3% 0.5 ms | C2 98.6% | C2 98.7% 41.0 ms 98.5% 47.9 ms | Core(OS) | CPU(OS) 2 CPU(OS) 8 | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms | C1 0.1% | C1 0.2% 0.7 ms 0.0% 0.0 ms | C2 100.6% | C2 99.4% 72.0 ms101.8% 215.1 ms | Core(OS) | CPU(OS) 3 CPU(OS) 9 | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms | C1 0.4% | C1 0.3% 0.7 ms 0.4% 0.3 ms | C2 98.8% | C2 99.7% 82.4 ms 97.9% 123.7 ms | Core(OS) | CPU(OS) 4 CPU(OS) 10 | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms | C1 0.6% | C1 0.4% 0.7 ms 0.9% 0.2 ms | C2 99.8% | C2 98.9% 79.4 ms100.7% 45.9 ms | Core(OS) | CPU(OS) 5 CPU(OS) 11 | POLL 0.0% | POLL 0.0% 0.0 ms 0.0% 0.0 ms | C1 0.9% | C1 0.7% 0.6 ms 1.1% 0.4 ms | C2 98.5% | C2 99.0% 59.7 ms 98.0% 52.8 ms Package | Core | CPU 0 CPU 6 3.71 GHz 0.0% | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% 2.81 GHz 0.0% | 2.81 GHz 0.0% | 2.81 GHz 0.0% 0.0% 2.21 GHz 0.0% | 2.21 GHz 0.0% | 2.21 GHz 0.0% 0.0% Idle 0.0% | Idle 0.0% | Idle 0.0% 0.0% | Core | CPU 1 CPU 7 | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% | 2.81 GHz 0.0% | 2.81 GHz 0.0% 0.0% | 2.21 GHz 0.0% | 2.21 GHz 0.0% 0.0% | Idle 0.0% | Idle 0.0% 0.0% | Core | CPU 2 CPU 8 | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% | 2.81 GHz 0.0% | 2.81 GHz 0.0% 0.0% | 2.21 GHz 0.0% | 2.21 GHz 0.0% 0.0% | Idle 0.0% | Idle 0.0% 0.0% | Core | CPU 3 CPU 9 | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% | 2.81 GHz 0.0% | 2.81 GHz 0.0% 0.0% | 2.21 GHz 0.0% | 2.21 GHz 0.0% 0.0% | Idle 0.0% | Idle 0.0% 0.0% | Core | CPU 4 CPU 10 | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% | 2.81 GHz 0.0% | 2.81 GHz 0.0% 0.0% | 2.21 GHz 0.0% | 2.21 GHz 0.0% 0.0% | Idle 0.0% | Idle 0.0% 0.0% | Core | CPU 5 CPU 11 | 3.71 GHz 0.0% | 3.71 GHz 0.0% 0.0% Power est. Usage Device name 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 100.0% USB device: Virtual Keyboard and Mouse (American Megatrends Inc.) 100.0% USB device: Virtual Hub (American Megatrends Inc.) 100.0% USB device: Virtual Cdrom Device (American Megatrends Inc.) 100.0% USB device: Cruzer Fit (SanDisk') 100.0% USB device: xHCI Host Controller 100.0% USB device: Virtual HardDisk Device (American Megatrends Inc.) 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 100.0% USB device: USB Keyboard (SIGMACHIP) 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 100.0% PCI Device: Phison Electronics Corporation E16 PCIe4 NVMe Controller 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Switch Upstream 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Cryptographic Coprocessor PSPCPP 100.0% PCI Device: Phison Electronics Corporation E16 PCIe4 NVMe Controller 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] FCH SMBus Controller 100.0% PCI Device: Intel Corporation I210 Gigabit Network Connection 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge 100.0% PCI Device: Intel Corporation I210 Gigabit Network Connection 100.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 13.9 pkts/s nic:bond0 13.0 pkts/s Network interface: eth1 (igb) 4.6 pkts/s nic:br0 0.0 pkts/s nic:erspan0 20.6 pkts/s nic:bond0 8.1 pkts/s nic:br0 0.0% USB device: xHCI Host Controller 0.0 pkts/s nic:virbr0-nic 0.0 pkts/s nic:sit0 0.0% USB device: xHCI Host Controller 0.0% USB device: xHCI Host Controller 0.0% USB device: Virtual Ethernet (American Megatrends Inc.) 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 6 0.0 pkts/s Network interface: eth0 (igb) 0.0 pkts/s nic:virbr0 0.0 pkts/s nic:gre0 0.0 pkts/s nic:bonding_masters 0.0 pkts/s nic:gretap0 0.0 pkts/s nic:docker0 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 4 0.0 pkts/s nic:erspan0 0.0% USB device: xHCI Host Controller 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Root Complex 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 3 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 1 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] FCH LPC Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse IOMMU 0.0 pkts/s nic:tunl0 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Function 0.0 pkts/s nic:ip_vti0 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 5 NaNW -0.0% CPU use 0.0% runtime-pcspkr 0.0% runtime-PNP0C14:00 0.0% runtime-PCCT 0.0% runtime-IPI0001:00 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 0 0.0% I2C Adapter (i2c-3): SMBus PIIX4 adapter port 4 at 0b00 0.0% I2C Adapter (i2c-1): SMBus PIIX4 adapter port 2 at 0b00 0.0% runtime-platform-framebuffer.0 0.0% PCI Device: ASPEED Technology, Inc. ASPEED Graphics Family 0.0% I2C Adapter (i2c-2): SMBus PIIX4 adapter port 3 at 0b00 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller 0.0% runtime-microcode 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 2 0.0 pkts/s nic:ip_vti0 0.0% USB device: xHCI Host Controller 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] 0.0% runtime-PNP0C0C:00 0.0% PCI Device: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% runtime-alarmtimer 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 7 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP 0.0% runtime-serial8250 0.0% runtime-AMDI0030:00 0.0% runtime-PNP0103:00 0.0% runtime-PNP0800:00 0.0% PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge 0.0% I2C Adapter (i2c-0): SMBus PIIX4 adapter port 0 at 0b00 PowerTOP 2.13 Overview Idle stats Frequency stats Device stats Tunables WakeUp Good Runtime PM for port ata4 of PCI device: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 3 Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller Good Runtime PM for PCI Device Phison Electronics Corporation E16 PCIe4 NVMe Controller Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] FCH LPC Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 1 Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge Good Runtime PM for port ata1 of PCI device: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse IOMMU Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 6 >> Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Function Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse Root Complex Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 4 Good Runtime PM for PCI Device Phison Electronics Corporation E16 PCIe4 NVMe Controller Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Matisse PCIe GPP Bridge Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] Good Runtime PM for PCI Device Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge >> Disabled Wake-on-lan status for device eth0 Disabled Wake-on-lan status for device eth1 Disabled Wake status for USB device usb5 Disabled Wake status for USB device usb3 Disabled Wake status for USB device usb1 Disabled Wake status for USB device usb6 Disabled Wake status for USB device usb4 Disabled Wake status for USB device usb2 Disabled Wake status for USB device 3-5 Disabled Wake status for USB device 3-1 Disabled Wake status for USB device 3-5.4 PowerTOP 2.13 Overview Idle stats Frequency stats Device stats Tunables WakeUp 0 mW 0.0% Device runtime-IPI0001:00 0 mW 0.0% Device PCI Device: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge 0 mW 0.0% Device PCI Device: ASPEED Technology, Inc. ASPEED Graphics Family 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller 0 mW 0.0% Device runtime-microcode 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 2 0 mW 0.0% Device USB device: xHCI Host Controller 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 5 0 mW 0.0 pkts/s Device nic:ip_vti0 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] 0 mW 0.0 pkts/s Device nic:bonding_masters 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host B 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host B 0 mW 0.0% Device runtime-alarmtimer 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 7 0 mW 0.0% Device PCI Device: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP 0 mW 0.0% Device runtime-serial8250 0 mW 0.0% Device runtime-AMDI0030:00 0 mW 0.0% Device runtime-PNP0103:00 0 mW 0.0% Device runtime-PNP0800:00 Was genau meinst du mit dem WebTermin, das von Unraid? Ich bekomme darüber keine HTML Datei erzeugt? powertop --html=/mnt/cache/powertop.html modprobe cpufreq_stats failedLoaded 0 prior measurements RAPL device for cpu 0 RAPL device for cpu 0 Devfreq not enabled glob returned GLOB_ABORTED Preparing to take measurements Segmentation fault ? Ergebnis aktuell: 28w war jetzt der Minimum Wert alles im SpinDown und was geht deaktiviert bzw. wo ich weiß das es geht ohne 10Gbe Lan. D.h. schon ganz gut für so ein System. Im Bios weiter zu tweaken da fehlt mir einfach ne Info das Mainboard hat wirklich 100hunderte Settings und natürlich nichts beschrieben 😐 Ansonsten hatten weder PowerTop noch eines der anderen Bios Settings einen merklichen Unterschied keine Ahnung ob das jetzt gut oder schlecht ist? Aktuell hat es leider meine Sensoren in Unraid deaktiviert (IMPI) hast du eine Ahnung was das sein könnte diese sind einfach nicht mehr sichtbar?
  17. Also System steht jetzt erstmal soweit. Folgende Komponenten CPU: AMD Ryzen 5 5600X (6 Core) Mainboard: ASRock Rack X570D4U-2L2T RAM: 2x32GB Kingston Server Premier DDR4-3200 Dual Rank Netzteil: be quiet! Pure Power 11 400W ATX 2.4 Gehäuse: Inter-Tech 4U-4410 Cache Drive: 2x Gigabyte Aorus Gen4 SSD 1TB > PCIE 4x und mehr IOPS Parity: 1x Toschiba N300 8TB, SATA 6Gb/s Daten: 1x Toschiba N300 8TB, SATA 6Gb/s CPU Lüfter - Noctua NH-U9S Konfiguration: Lüfter wurden nur der NT Lüfter und der CPU Lüfter verwendet Ausnahme: ein kleiner Noctua 42x25 für den Mainboard Chipsatz wurde temporär aktiviert (hätte theoretisch 0,5w bei voller Power) Frisches Unraid mit durchgelaufendem Parity Check Wie wurde gemessen: FritzDect210 Blitzwolf SHP6 mit Tasmota Firmware und auf eine 75w Glühbirne kalibriert Der Blitzwolfadapter wurde in den Dect210 eingesteckt und er benötigt ca. 0,6w Die Messungen wurden 5-10min beobachtet Für den BMC habe ich bei den Differenzberechnung 7,5w verwendet @Ergebnis Im Spin Down mit BMC liegt das System bei 28-30w wenn wir den BMC abziehen, landen wir bei wahrscheinlich bei 22w im Idle für dieses System. Wenn alles läuft mit 10GBE wird das System bei 45w rum liegen was denke ich ganz in Ordnung ist. @Feststellungen Der Chipsatz wird brutal heiß Die Doku vom Mainboard ist überschaubar Den Browser Bios Modus bekomme ich nicht zum laufen Bios Update ging nur über den BMC! Der x5600 konnte nicht booten Powertop auto-tune schiesst das Netwerkinterface auf der Maschine ab Fragen: Lässt sich der BMC deaktivieren? Ich konnte dazu rein garnichts finden. Gibt es noch Tweaks im Unraid um Strom zu sparen?
  18. Vorfreude ist ja bekanntlich die beste Freude 🙂 System ist eigentlich ready to go momentan fehlt noch die CPU und die HDDs. Wer wünsche für spezielle Tests hat gerne her damit.
  19. Hm da haben wir glaube ich anhand der vorherigen Diskussion grad etwas vorbei geredet. Wenn ich jetzt nur die Container absichern möchte kann ich das natürlich wie du grad testest so machen das man dem Container selbst nichts zuweist bzw. Alles verbietet. Meiner Meinung nach könnte sich das als ziemlich Fehler anfällig erweisen weil du ja nicht in den Container drinnen steckst. Die andere Idee wäre eine IPFire VM aufsetzen d.h. der externe traffic geht immer gegen die FW und ein virtuelles DMZ Netz für die Container aufspannen. Die Container selbst laufen ganz normal unter unraid aber mit dem speziellen Netz. Ich habe es mir noch nicht weiter angeschaut unter Unraid aber bei den QNAPs kann man virtuelle Switch anlegen und entsprechend die Ports zuweisen.
  20. Ja das wäre super ansonsten bin ich echt am überlegen temporär erstmal IPFire als VM aufzusetzen...3 virtuelle LANs dran und in die DMZ vom IPFire die Docker Container rein. Das sollte doch von der Thematik leichter zu konfigurieren und sicherer sein als in die Container Config einzugreifen die es einem bei einem Update auch zerlegen kann oder?
  21. Das schaut ja sehr gut aus allerdings macht mir solchen Gebastel bei Infrastruktur Komponenten immer echt sorgen der Preis ist aber echt der Hammer 🙂
  22. Ja mit IPFire habe ich vor Jahren mal rumexperimentiert das UI schaut ja immer noch grusselig aus Hast du die Fritzen dann vor dem IPFire oder dahinter? Bin ja immer noch am überlegen die Firewall über ne VM zu regeln *ja du darfst Steine schmeißen* 🤣 D.h. du hast deinen Container jetzt direkt > Fritte > ProxyManger > Docker Container eingerichtet oder?
  23. Wie kommst du auf die 12 Platten? Oder sprichst du von 2,5".
  24. Ja, das Setting war gesetzt wie es im Standard vorgesehen ist. Ich glaube die Platten waren zu dem Zeitpunkt sogar im Spin Down als ich den Strom weg genommen habe. Ich muss aber dazu sagen das es sich um alte Platten handelt die seit Jahren im Keller lagen das System meint aber es ist alles wieder in Ordnung. Im neuen System habe ich ja extra auf 2w Stromverbrauch gepfiffen und lieber die schnelle N300 von Toschiba statt einer WD Red Plus gewählt. Danke für das Feedback.
  25. Das wollte ich auch noch testen aber gestern war erstmal Strom komplett weg auf dem Programm.
×
×
  • Create New...