Jump to content

vakilando

Moderators
  • Posts

    370
  • Joined

  • Last visited

Posts posted by vakilando

  1. On 8/17/2022 at 12:02 PM, mgutt said:

    Kann man bei AMD die PCIe Version des Chipsatzes auf 2.0 reduzieren? Bzw allgemein alles auf 2.0?

     

    ja, man kann es für jeden Slot vorgeben, siehe Bilder.

    Was macht das mit der Leistung wenn man auf 2.0 runter geht und wieviel Strom schätzt du ist da als Einsparung möglich?

    Zur Zeit habe ich die beiden GPUs und den HBA stecken

    asusx570bios_pcie-1.jpg.e6327370806351b0e9266c715a7cf4d9.jpg

     

    asusx570bios_pcie-2.jpg.893d8fd445e89e87ae36122a33972d20.jpg

  2. So, habe nun die T400 eingebaut. Sie ersetzt die alte 745 GTX.

    Hat auch auf Anhieb funktioniert ohne etwas an der VM XML anpassen zu müssen (derezit ist sogar die vbios file Angabe der alten 745 GTX noch drin...)

    Ebenso habe ich die T400 an VFIO gebunden und setze über die hook-Scripte von alturismo "nvidia-persistenced" für die 1050TI.

    Eine große Stromersparnis sehe ich nicht wirklich. Was die Kiste jetzt in welchen Konstellationen so braucht muss ich noch mal genau messen.

     

    "Leider" habe ich aber auch wieder etwas im BIOS schauen/ändern wollen und plötzlich (natürlich bin ich Schuld, ich weiß nur nicht warum...) ist der ECO-Mode verschwunden, so dass sich der Stromverbrauch vorher<>nachher auch nicht so genau reproduzieren lässt. Dieses Asus Bios finde ich echt unübersichtlich!

    Jetzt "spiele" ich gerade mit den PBO (precision boost overdrive) Settings und passe die PPT, TDC, EDC Werte an, da ja der ECO-Mode verschwunden ist, der diese Werte wohl auch setzt. Auf jeden Fall hat sich die Temperatur der CPU durch die Änderungen (ECO bzw PBO) schon mal deutlich gesenkt. 

    Wenn mir jemand Tipps geben kann was für Einstellungen im BIOS Sinn ergeben; ich nehme sie dankend an!

     

    Jetzt muss ich mir noch überlegen wie ich meine Platten ggf. umstrukturiere um den HBA loszuwerden.

    • Die NVR HDD kann ich durch eine SSD ersetzen (hab ich da).
    • 1-2 NVMEs mit 1-2 TB aufs Board setzen und damit vielleicht einen oder beide SSD-Pools ersetzen.

    Bzgl. großer NVMEs muss ich auch mal schauen ob ich so viel Geld ausgeben will für dieses nichtstromsparende X570 Board...

     

    Hach ja.... ich wünsche eine gute Nacht!

  3. Oh man, ich so ein Hohlbein und Trottel vor dem Herrn!!

    Meine primäre Karte ist natürlich nicht die, mit der meine Dauer Linux VM läuft!!! 🤯

    Weiß auch nicht was mich dabei geritten hat dies zu behaupten.....es war vielleicht doch einfach zu spät und ich zu müde..... 😴

    Mea maxima culpa! 

    • Primäre Karte: Ist die 1050 TI, welche ich wechselweise entweder an die anderen VMs durchreiche oder an Emby.
    • Sekundäre Karte: Ist die 745 GTX die zu meiner automatisch startenden Linux VM durchgereicht wird.

    Insofern muss sich jetzt niemand an mich wenden und fragen wie ich das realisiert habe... 

     

    Ich melde mich wieder wenn ich die 745 durch die T400 getauscht habe und begebe mich jetzt erst mal ganz kleinlaut in die Ecke und schäme mich.

  4. Hallo @alturismo

    3 hours ago, alturismo said:

    kommst du dann "wieder" in die unraid Konsole ?

    nein, da hast du glaube ich recht, das geht nicht... Aber ich dreh alles noch mal zurück und probiere gerne noch einmal um sicher zu gehen.

     

    3 hours ago, alturismo said:

    sollten alle Stricke reißen, safe mode, vfio ex, reboot ohne vfio und autostart ... und du kannst "reparieren" ohne den Stick ziehen zu müssen, bis zum Boot Fenster und deren Auswahl kommst du immer.

    jo, da hast du sicher recht - ich habe zu kompliziert um die Ecke gedacht! 

     

    3 hours ago, alturismo said:

    Zusammengefasst, wenn die Main VM wirklich eh immer läuft (oder laufen soll) macht das "splitten" meiner Meinung nach keinen Sinn ...

    hast schon wieder recht!

    Und danke für die wieder ausführliche Erklärung um beide Karten in den pm mode zu setzen!

     

    Hallo @mgutt

    2 hours ago, mgutt said:

    Genau da ist sehr ungewöhnlich. Die wenigsten schaffen das so umzusetzen.

    Hast du dafür noch irgendwelche Optionen setzen müssen (Kernel etc)?

    Hmm, sagen wir es mal so, ich habs einfach gemacht und es hat auf Anhieb geklappt ohne irgendwelche (Kernel-) Optionen setzen zu müssen.

    Ehrlicherweise muss ich sagen, dass ich mir damals auch keine Gedanken über die Reihenfolge der Grafikkarten (primäre/sekundäre) gemacht habe.

    Solltest du mehr Infos über mein System haben wollen könnt ich die dir Diagnostics hier anhängen....

     

    Aus heutiger Sicht würde ich die Karten eher umdrehen bzw. sowieso eher ein sparsameres - vermutlich Intel-System - holen.

    Ich bin damals von einem in die Jahre gekommenen Proxmox Server mit einem RAID 5 gekommen auf dem diverse VMs liefen. Ich wollte auf dem neuen System den ein oder anderen Dienst als Docker laufen lassen. Unraid fand ich spannend, da ich VMs und Docker als Option hatte und mit weniger Platten mehr Speicherkapazität rausholen konnte, die zumden leicht erweiterbar ist. Da mein damaliger Hauptrechner auch in die Jahre gekommen war und ständig an war, hatte ich mir als Ziel gesetzt ein performantes System zu bauen, auf dem auch mein Hauptrechner läuft. Nur mal so als keine Historie... 

    • Like 1
  5. Moin!

    15 hours ago, alturismo said:

    ich wundere mich eh dass du ohne igpu auf einem AMD System mit beiden verfügbaren Karten "spielen" kannst, das ganz ohne Extra's (syslinux Einträge etc) ...  da unraid sich von Haus aus ja gerne die erste Karte "nimmt"

    Also, ich glaub ich beschreibe jetzt noch mal ein wenig meine Konfiguration:

    Mainboard: ASUS ROG Strix x570-E Gaming

    GPU 1 (primär): GeForce 745 GTX (Edit: Falsch es ist die sekundäre Karte!)

      - an Monitor 1 & 2 angeschlossen

      - meiner Haupt Linux VM zugewiesen mit Soundkarte inkl. vbios file

    GPU 2 (sekundär): GeForce 1050 TI: (Edit: Falsch es ist die primäre Karte!)

      - an Monitor 2 angeschlossen

      - allen anderen VMs zugewiesen mit Soundkarte inkl. vbios file

      - in Emby verwendet

     

    Vor VFIO bind der 745 GTX: 

    1. Unraid bootet
    2. Ich kann auf Monitor 2 ins BIOS gehen, den Bootprozess beobachten und mich einloggen
    3. Meine Haupt Linux Maschine bootet (automatisch) und landet auf Monitor 1 & 2
    4. Sobald meine Haupt Linux Maschine da ist kann ich nicht mehr auf die Unraid Console zugreifen, da sich die VM die Grafikkarte "nimmt"

    Wenn also meine Haupt VM nicht bootet (kaputt oder Start auf manuell gestellt) kann ich mich ohne VFIO bind auf der Unraid Console direkt anmelden.

    Diese Option entfällt nun, da der VFIO bind den Zugiff auf die Console zunichte macht (außer BIOS natürlich):

     

    Nach VFIO bind der 745 GTX: 

    1. Unraid bootet
    2. Ich kann auf Monitor 2 ins BIOS gehen (Geht nicht mehr: den Bootprozess beobachten und mich einloggen)
    3. Meine Haupt Linux Maschine bootet (automatisch) und landet auf Monitor 1 & 2

    Weitere Infos:

    Mein Boot Modus ist "Legacy"

    Meine Syslinux Config:

    syslinux.png.f4142908a6d203fc1a226fc20632cf50.png

     

    Ich muss jetzt weg..... weitere Infos bei Bedarf gerne später....!

  6. Hallo @alturismo,

    besten Dank für deine ausführliche Erklärung!

    Da ich morgen doch nicht früh raus muss habe ich einfach mal losgelegt...

    Die Nvidia Karte, die von meiner dauerhaft laufenden Haupt Linux Maschine genutzt wird, habe ich an VFIO gebunden und ein reboot gemacht.

    Dann habe ich deine Scripte für meine VMs implementiert, die nicht dauerhaft laufen (2x Windows, 1x Linux).

    Da nur meine Haupt Linux Maschine dauerhaft läuft, habe ich zudem "nvidia-persistenced &" ins go file aufgenommen.

    Anschließend habe meine gerade laufende Win10 Maschine, die sich die Nvidia Karte mit dem Emby Docker teilt gestoppt, gestartet und wieder gestoppt und es schein alles soweit zu funktionieren.

    Sehr cool!

     

    Noch eine Frage:

    Die Karte, die nun an VFIO gebunden ist und von meiner Haupt Linux Maschine genutzt wird ist meine primäre Karte.

    Das bedeutet, dass ich nun beim Neustart von Unraid keinen direkten Zugriff über die Console habe, da keine Ausgabe mehr am Monitor erfolgt.

    Natürlich ist ein remote Zugriff über SSH möglich aber halt nur wenn alles läuft wie es soll.

    Wenn es also mal schlecht läuft und ich müsste direkt an die Unraid Console über den angeschlossenen Monitor, müsste ich:

    • den Boot-Stick entfernen und in mein Notebook stecken
    • dort die "vfio-pci.cfg" editieren und die Zeile entfernen, über die meine primäre Karte an VFIO gebunden wird
      UND
    • im go file  "nvidia-persistenced &" auskommentieren...
    • Unraid booten

    Richtig?

     

    EDIT: Meine Aussage, dass die an VFIO gebundene Karte, die von meiner automatisch startenden VM genutzt wird, meine primäre Karte ist war falsch!!.

     

    Dieses potentielle Problem müsste ich doch umgehen können, indem ich die primäre Karte doch nicht an VFIO binde und es ebenso über die Scripte steuere.

    Das ginge dann über die in deinem Beispiel auskommentierten Zeilen "#nvidia-smi -i 0 -pm 0" und "#nvidia-smi -i 0 -pm 1 &". Kannst du mir genauer erklären was da zu machen ist?

    Ich habe meine GPUs noch nie an VFIO gebunden und hatte noch nie Probleme deswegen. Was bringt mir die VFIO Bindung denn ggf. noch, außer dass es keine Konflikte zwischen Unraid und an VMs durchgereichte Hardware gibt?

     

    Beste Grüße und jetzt doch mal gute Nacht!

  7. @ich777 Alles klar, am Wochenende werde ich die eine Karte dauerhaft an VFIO binden und mir das Script von @alturismo mal anschauen.

    Wenn ich dazu komme werde ich auch die Geforce 745 durch die T400 tauschen. Muss aber vorher noch das vbios extrahieren...

     

    Kann ich einfach "nvidia-persistenced" ins go file aufnehmen wenn nur eine Karte dauerhaft an eine VM gebunden ist und die andere wechselweise zwischen VM und Docker verwendet wird?

     

    10 hours ago, kdwg said:

    21W Spindown. Ziel ist <20 und da bin ich zuversichtlich.. irgendwann.

    @kdwg: Wow, das klingt nach einem Ziel für mich! Mal schauen wie nah ich da ran komme.

     

    10 hours ago, mgutt said:

    Kann man bei AMD die PCIe Version des Chipsatzes auf 2.0 reduzieren?

    @mgutt keine Ahnung, muss ich gucken.

     

    Ich habe aber letztens schon mal mein BIOS resettet und noch mal mit Stromspareinstellungen rumgespielt. Bin jetzt immerhin schon bei 90W.....

  8. Hallo @geromme,

    1 hour ago, mgutt said:

    aber warum ist dann die SSD leer? Die hast du doch dann neu formatiert oder wie?!

    Ist deine ehemalige Cache Disk die Seagate Barracuda SSD unter Unassigned Devices?

    Wenn ja, hast du sie wohl formatiert, da sie kein Dateisystem (fs = file system) hat.. (erstes Bild)

     

    Wenn du eine vollständige Sicherung hast, ist wäre das halb so schlimm.

     

    Auf dem zweiten Bild sieht man dein Lucky Backup:

    Es sieht zumindest so aus, dass du "appdata" - also die Docker Daten - gesichert hast. Gut.

    Ich sehe aber kein Verzeichnis, das auf die VM Sicherung deutet... Hast du die mit dem Plugin "VMBackup" gesichert? Wenn ja, wie ist da der Zielpfad für die Sicherung angegeben?

     

    Ansonsten beantworte bitte noch die anderen Fragen:

    5 hours ago, cz13 said:

    -was für Daten fehlen dir(Daten auf Shares, der Inhalt von Appdata, Domains,…)

    -was ist in deinem Luckybackup gesichert?

    -Wie ist dein System aufgebaut(Array, Cache,Udev)?

    :

    1 hour ago, mgutt said:

    Was zeigt Shares > Appdata > Inhalt anzeigen > Location?

     

  9. 47 minutes ago, ich777 said:

    Hast du denn:

    nvidida-persistenced

    im go file?

    Nein, ich habe aber zwei (identische) user scripts (Video von Space Invader):

     

    Script 1: At first start of Array only

    Script 2: Scheduled Hourly

     

    Das Script:

    #!/bin/bash
    ### SpaceInvader: https://www.youtube.com/watch?v=KD6G-tpsyKw&list=PLl06mKdXGNOBK85uzS1JC8sotzK1Sbicm&index=2 (Youtube)
    # check for driver
    command -v nvidia-smi &> /dev/null || { echo >&2 "nvidia driver is not installed you will need to install this from community applications ... exiting."; exit 1; }
    echo "Nvidia drivers are installed"
    echo
    echo "I can see these Nvidia gpus in your server"
    echo
    nvidia-smi --list-gpus 
    echo
    echo "-------------------------------------------------------------"
    # set persistence mode for gpus ( When persistence mode is enabled the NVIDIA driver remains loaded even when no active processes, 
    # stops modules being unloaded therefore stops settings changing when modules are reloaded
    nvidia-smi --persistence-mode=1
    #query power state
    gpu_pstate=$(nvidia-smi --query-gpu="pstate" --format=csv,noheader);
    #query running processes by pid using gpu
    gpupid=$(nvidia-smi --query-compute-apps="pid" --format=csv,noheader);
    #check if pstate is zero and no processes are running by checking if any pid is in string
    if [ "$gpu_pstate" == "P0" ] && [ -z "$gpupid" ]; then
    echo "No pid in string so no processes are running"
    fuser -kv /dev/nvidia*
    echo "Power state is"
    echo "$gpu_pstate" # show what power state is
    else
    echo "Power state is" 
    echo "$gpu_pstate" # show what power state is
    fi
    echo
    echo "-------------------------------------------------------------"
    echo
    echo "Power draw is now"
    # Check current power draw of GPU
    nvidia-smi --query-gpu=power.draw --format=csv
    exit

     

    53 minutes ago, ich777 said:

    und die Karte die in der VM verwendet werden soll bitte an VFIO binden

    Ich habe keine der zwei Karten an VFIO gebunden...

    Bei der 745 GTX würde das sicherlich Sinn ergeben, da sie permanent an meine Linux VM durchgereicht wird.

    Die 1050 TI habe ich eine Zeit lang abwechselnd in der VM und in Emby genutzt, dann geht das nicht - oder doch?

  10. 1 hour ago, i-B4se said:

    Warum sollte man einen 3xxx gegen einen 5xxx tauschen?

    Ich bin damals von 3800x auf 5800x und es gab keine unterschied.

    hmmm, von 3900X zu 5800X geht zumindest noch die Care Anzahl runter (12 > 8). Ob das was bringt?

    ...und den Thread muss ich auch noch mal durchlesen....

    1 hour ago, jj1987 said:

    Ich hatte, als ich noch mein AMD System im Einsatz hatte, Jellyfin mit iGPU am laufen. Das lief ohne Auffälligkeiten.

    Und ich meine Jellyfin ist doch ein Fork von Emby oder nicht?

    War allerdings ein 4650g, aber am GPU Teil hat sich da mMn nichts getan.

    Ja, Jellyfin ist ein Emby Fork.

    Aber ich probiere jetzt erst mal den Grafikkartenwechsel (745GTX > T400). Mir einen 5800G zu holen und dann Probleme zu haben und/oder keine Stromersparnis ist mir zu Joker, da ich den nicht hier so rumliegen habe....

     

    Aber noch mal zu einer meiner urspr. Fragen: Kennst jemand das  X570M Pro4 Board? ist es denn relativ sparsam? hat ja auch einen kleineren Formafaktor als mein X570-E Gaming....

  11. 44 minutes ago, mgutt said:

    Im Plex Forum lese ich viel von nervigen Bugs (Farbfehler usw) beim Transcodieren.

    Plex hatte ich nur genannt weil in dem Thread bzgl. Ryzen 5700G das Thema iGPU Passthrough zu VM und iGPU Nutzung für Plex Transcoding war.

    Ich nutze Emby, aber das liest sich Plex oder Emby hin oder her - wie du schon sagst - recht gruselig und riecht nach unstable, so dass ich eher dazu tendiere weder iGPU Passthrough zu VM noch iGPU Nutzung für Emby Transcoding zu realisieren bevor ich nicht irgendwo lese, dass es sicher und stabil läuft.

     

    52 minutes ago, mgutt said:

    Wenn bei einem RAID1 Pool zB eine NVMe die Biege macht, sollte ja in der Theorie die zweite weiter gehen. Vermutlich crasht aber der Server oder das BTRFS RAID ist einfach kaputt. Kennen wir ja.

    Also ich hatte schon mal das Pech einer defekten SSD im Btrfs RAIDs, aber Gott sei dank ohne Server Crash. Alles lief weiter, so dass ich (neben dem vorhandenen Backup) alles noch mal wegsichern und verlustfrei wiederherstellen konnte. Das allerdings in der Tat mit der VM die auf dem defekten Pool war (damals hatte ich ja nur einen).

     

    55 minutes ago, mgutt said:

    Dass der Server bei zwei Pools eine geringere Downtime hat, kann ich bei deinem Konzept nicht erkennen?!

    Naja, solange der Server nicht crasht dachte ich mir: Ist ein Pool hin, kann ich zumindest auf einer VM des anderen Pools weiterarbeiten und den defekten Pool reparieren/auflösen ohne mein verstaubtes noch zu aktualisierendes Notebook rauskramen zu müssen oder direkt den Server herunterfahren zu müssen.

    Ersatz SSDs habe ich da, so dass ich recht schnell den defekten Pool erneuern kann (dann logischer weise mit einer Downtime). Allerdings weiß ich grad gar nicht was passier wenn der Cache-Pool komplett wegfliegen sollte (ganzer Pool defekt). Docker weg ist halt so, aber wie verhält sich Unraid, wenn der Cache wegfliegt...?

     

    1 hour ago, mgutt said:

    Tatsächlich wäre die Downtime so geringer: Zwei Pools mit jeweils einer NVMe. Die zweite lässt du jede Nacht bei gestoppten Docker und VM 1:1 syncen. So könntest du jederzeit ohne große Ausfallzeit auf den Stand von letzter Nacht zurück, in dem du den Master-Pool löschst und den Backup-Pool umbenennst. Damit hätte man aber nicht den Vorteil eines permanenten Schutzes eines RAID1.

    hmmmm - kling auch nicht so verkehrt....!

  12. 3 minutes ago, mgutt said:

    Und sollte sehr sparsam sein

    ok, wird eine der Umbaumaßnahmen sein, wenn ich mal Zeit habe (nächstes WE ggf.)

     

    4 minutes ago, mgutt said:

    Wobei das evtl gar nichts bringt, weil die SSDs ja bei Inaktivität sofort aus gehen. Kommt eher darauf an ob beide Pools aktuell durch Docker und VMs aktiv gehalten werden (permanentes Lesen/Schreiben). Sollte das der Fall sein, würde ein einzelner Pool den Verbrauch entsprechend halbieren.

    Ja, sind beide immer aktiv, da ich die Docker auf dem einen Pool (Cache/Docker) habe und meinen daily driver auf dem anderen (VM).

    Es ist sowieso etwas komplizierter, da ich aus Performance- aber vor allem aus Sicherheitsgründen auf beiden Pools VMs laufen/liegen habe: sollte ein Pool ausfallen/repariert/stillgelegt werden müssen, bin ich weiter arbeitsfähig....

    Das muss ich mir noch mal überlegen mit dem zusammenlegen. So groß ist doch vermutlich die Stromersparnis bei SSDs nicht - hmmm

     

    Ich habe gerade diesen Thread gefunden und frage mich ob eine 5700G CPU mit iGPU eine Grafikkarte ersetzen könnte.......

    Edit:

    Allerdings hat es irgendwie nur ein Teil der Leute geschafft die iGPU an eine VM oder Plex durchzureichen.

    Es scheint vom Board abzuhängen und nach jedem BIOS Update muss man wohl das Grafikkarten BIOS neu dumpen.

    Scheint mir zu "wackelig" und kompliziert.....

     

  13. 30 minutes ago, mgutt said:

    Hast du die 745 GTX mal einzeln gemessen? Diese Billigkarten haben meistens uralte Chips, die mit ineffizienten Nodes gefertigt wurden. Eventuell lohnt hier eine zweite GTX 1050 Ti, die ja nach wie vor ungeschlagen effizient ist.

    Nein, habe ich nicht, aber ich hätte noch eine neue Nvidia T400 4GB im Schrank...

     

    31 minutes ago, mgutt said:

    Lässt du die VM dauerhaft laufen, damit die 745 GTX bei "Monitor aus" auch in den Standby geht?

    Ja, die VM, welche die 745 GTX nutzt, ist dauerhaft an. Es ist mein "Hauptrechner" (Linux mit Nvidia Treibern)

     

    40 minutes ago, mgutt said:

    Das Board hat 8x SATA und 3x M.2. Ich zähle aber nur 5 HDDs und 4 SSDs. Fazit: Wirf die LSI SAS 9211-4i raus.

    2x M.2, nicht 3.

    Dennoch hast du recht. Du meinst ich kann 2 NVMEs kaufen und den VM-Pool aus 2 SSDs damit ersetzen (oder Cache/Docker-Pool?)?

    47 minutes ago, mgutt said:

    NVR HDD gegen SSD ersetzen

    ja, ist auch mein Plan gewesen

     

    48 minutes ago, mgutt said:

    Ersetze den 3900X gegen einen 5700X

    Mein Ryzen 9 3900X kommt auf der Liste gar nicht vor, aber ich denke der rangiert dann laut Pfeil zwischen dem R7 3700X und dem R6 3600X?

    Dann, ja, klingt auch vernünftig. Beide haben aber die selbe TDP, aber ich schätze durch die zusätzlichen Kerne verbraucht der auch mehr...?

    56 minutes ago, mgutt said:

    Optional: Größere NVMe kaufen und die zwei BTRFS Pools zusammen legen. Also schon bei RAID1 bleiben.

    Also beide SSD-Pools (VM+Cache/Docker) auf ein NVME Pool, richtig?

     

    Den Thread "ENERGIE - SPARPOTENTIAL UND VERGLEICHE" les ich mal durch.

  14. Folgenden Thread wollte ich nicht hijacken, daher dieser neue....

    Es geht mir um folgenden Vorschlag von @mgutt:

    Quote

    Wie wäre es dann mit diesem Board:

    https://www.asrock.com/mb/AMD/X570M Pro4/

    ( .. )

    Insgesamt würde ich dann mit 30 bis 40W rechnen.

     

    @mgutt, ich hätte eine Frage zu dem genannten Asrock X570M Pro4 Board: Ist das X570M Pro4 denn relativ sparsam?

     

    Warum ich das frage:

    Ich habe ein Asus ROG STRIX x570-E Gaming und bin enttäuscht wegen der nicht vorhandenen bzw. nicht funktionierenden "Stromspareinstellungen" und fragte mich ob sich für mich ein Umstieg lohnen könnte (prinzipiell kann ich mir auch vorstellen die CPU zu wechseln, aber ich benötige schon mind. 8 Kerne)?

     

    Mein System:

    • ASUS x570-E Gaming
    • Ryzen 3900X CPU
    • 64 GB RAM (2x32)
    • Seasonic FOCUS PX-550 80PLUS Platinum
    • GeForce 745 GTX für meine Linux VM als daily driver
    • GeForce 1050TI für Emby bzw. weitere VMs (2x Win10, 1x Debian mit MailCow, 1x Debian mit Docker-Testsystem) 
    • LSI SAS 9211-4i im HBA Mode.
    • Array: 2 WD red 4TB + 1 WD red 4TB Parity
    • 1 Btrfs Pool aus 2 SSDs für Docker und Cache
    • 1 Btrfs Pool aus 2 SSDs für VMs
    • 1 HDD für Backups (UD)
    • 1 HDD für NVR Frigate (+ derzeit auch noch Xeoma ... in Ablösung)

     

    Mir ist bewusst, dass ich mit meinem System kein Stromsparwunder erwarten kann, es war auch nie dafür geplant, aber ich bekomme mein System nicht unter 100 W im Idle Modus und das ist mir zu viel.

     

    Was ich ggf. (zusätzlich) umsetzen könnte:

    • Statt HDD für NVR eine SSD (kein Problem)
      (oder sogar die NVR Daten mit z.Zt 2x90GB auf den Cache legen)
    • Die zwei Btrfs Pools zusammenlegen (eigentlich ungern)
  15. On 8/10/2022 at 4:26 PM, ich777 said:

    Ich würde gerne von euch wissen für was ihr das Nerd Pack verwendet bzw. welche Packages daraus wenn ihr es denn installiert habt bzw. ob es nicht Alternativen gibt wie ihr es jetzt verwendet.

    - borgbackup           => vor dem Umstieg auf Duplicacy mein Hauptbackup
    - bwm-ng                => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - iftop                     => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - iotop                    => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - llfuse                    => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - netcat-openbsd    => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - nload                   => zu Analysezwecken installiert, brauche ich derzeit nicht mehr
    - perl                      => soweit ich mich erinnere für Dynamix System Temperature und ggf das snmp plugin
    - python3               => weiß ich nicht mehr....irgendeine Abhägigkeit?
    - python-setuptools => weiß ich nicht mehr....irgendeine Abhägigkeit?

     

    Powertophabe ich auch installiert, allerdings die neuere Version von @ich777 unter /boot/extra. Bringt mir bei meinem System allerdings leider auch keinen Mehrwert.

    Borg Backup: Ich habe noch Backup Repositories... Borg Backup hat mir eigentlich sehr gut gefallen, da müsste ich mich mal entscheiden die Repositories aufzulösen und/oder auf eine Docker Lösung umzusteigen (borgmatic, borg-backup, ...). Dies hatte ich bereits mal versucht, hatte damals aber nicht funktioniert (warum weiß ich nicht mehr).

    Tools zur Analyse, die könnten immer mal wieder interessant oder notwendig werden. Diese manuell zu installieren oder in /boot/extra abzulegen wäre aufwendiger als über das Nerd Plugin - aber machbar...

    Perl: in den Nerd Tools steht in der Spalte "Plugins": snmp. Keine Ahnung ob das snmp Plugin perl benötigt...?

     

    Fazit: Schade, aber ich würde nicht sterben....

    • Thanks 1
  16. 9 minutes ago, Brocken said:

    Brauch ich unbedingt eine SSD?

    Nein, es läuft auch ohne, aber eine SSD als Cache beschleunigt unRAID, da sie nicht, wie die Platten im Array über die Parity Platte geschützt wird (abgesehen davon dass eine SSD halt schneller ist...).

     

    Ein parity-geschütztes Array ist deutlich langsamer bei Schreibvorgängen, da geschrieben und gleichzeitig gelesen wird (für die Aktualisierung der Paritätsinformationen).

     

    Zudem möchtest du Docker container installieren und die sollten definitiv nicht auf dem parity-geschützten Array laufen (Performance!).

     

    Die Daten auf dem SSD Cache sind - sofern nicht ein BTRFS RAID Pool aus zwei SSDs konfiguriert ist - ungeschützt und werden in regelmäßigen (individuell einstelbaren) Abständen auf das geschützte Array geschoben.

     

    Wenn du nur testen willst und keine SSD hast, kannst du auch erstmal ein Array erstellen, das nicht durch eine Parity Platte geschützt ist, das ist dann performanter.

  17. 1 hour ago, MPC561 said:

    Du nutzt sicher einen USB3 Stick an einem USB3 Port. Da werden die Stick sehr warm und sterben schnell.

     

    Nutze einen USB2 Port statt USB3 und die halten länger.

    Nur mal so eingeworfen:

    Ginge auch ein USB 3 Port > USB 2 Kabel > USB 3 Stick ?

  18. Der Wert kann über das Plugin "Tips and Tweaks" verändert werden.

    Bei mir steht dort unter "Maximale Überwachungen 'fs.inotify.max_user_watches':524288. Dies sollte der Standardwert sein,denn ich wüsste nicht, dass ich den mal geändert hätte.

     

×
×
  • Create New...