hot22shot

Members
  • Posts

    144
  • Joined

  • Last visited

Everything posted by hot22shot

  1. I'm interested as well for an answer, I'm considering moving to an 13100T cpu, but as I need 8 sata ports I'm wondering what would be best from a power efficiency pov : using a cheap mobo and an external sata controller or targeting a pricy mobo that includes 8 sata ports. Edit : same question for a 2.5GB network card.
  2. Comme tu le remarques, se faire une VM gaming reste un procédé artisanal. Personnellement j'ai compilé plusieurs tuto plus ou moins récents pour finir sur ma configuration actuelle avec quelques essais/erreurs. Donc le mieux c'est avant tout de tester car suivant l'age et le type de ton matériel et la version d'unraid les optimisations à faire ne sont pas forcément les mêmes. L'étape .2 c'est exactement ce que je te suggérais, isoler les coeurs associés à la VM pour les dédier. C'est effectivement un choix important car l'isolation n'est pas dynamique mais pour l'instant je n'ai pas trouvé d'autre méthode pour le faire sur unraid. Unraid propose une interface qui évite d'avoir à modifier le fichier syslinux.cfg, je ne connais pas nohz_full/rcu_nocs, je creuserais pour voir si ça a un sens pour moi. L'étape .3 j'avoue je ne saisis pas bien la première ligne, pour le reste les iothread(s) permettent d'associer d'autres coeurs que ceux de ta VM aux taches de transferts disques, accélérant ainsi l'execution de la VM. Mais comme j'ai un NVME je ne me suis pas penché la dessus. Pour un joueur occasionnel pas certain que tu vois grande différence, on est quand même dans le bout du bout de l'optimisation. Jouer avec ces paramètres est surtout utile pour ceux qui ont des gros soucis, par exemple avec du stutter ou du tearing. Si tu es content de tes perfs pas la peine de se casser la tête. J'ai surtout consulté ce guide https://wiki.archlinux.org/title/PCI_passthrough_via_OVMF tout n'est pas applicable tel quel car l'OS et le kernel n'est pas le même qu'unraid, mais ça donne une bonne base de compréhension.
  3. C'est plus efficace de passer moins de cœurs et de les isoler que d'en mettre plus sans le faire. Lorsque qu'un cœur est interrompu pour travailler sur autre chose il y a un cout pour basculer de contexte et donc une perte de performance. Unraid peut, par exemple, privilégier une de ses taches plutôt que ta VM, ce qui peut être problématique en plein jeux. Ca fait partie de la base dans la plupart des guides sur les VMs de gaming (https://www.google.com/search?q=unraid+cpu+isolation+gaming+vm)
  4. C'est là qu'est le problème : c'est permanent. Autrement dit les cœurs isolés ne pourront être utilisés que par la VM, même si cette dernière est éteinte. Cela dit c'est l'assurance d'avoir des perfs au max. Sur mon 5800X j'ai associé et isolé 4C/8T pour ma VM, il me reste donc les 4C/8T restants pour unraid et mes 27 dockers. Et c'est largement suffisant pour mon utilisation. Le mieux étant bien sur de tester.
  5. Dans l'interface d'unraid, la partie Settings / CPU Pinning te permet de modifier globalement l'association entre tes coeurs et tes VMs et docker. Mais elle te permet aussi d'isoler les coeurs (tout en bas) te permettant ainsi d'en réserver l'usage exclusif aux ressources (VM, Docker) auxquelles tu as associés les coeurs. Si tu ne fait pas ça il est possible qu'unraid utilise les coeurs en concurrence de ta vm par exemple, car association ne veux pas dire exclusivité.
  6. Pas certain que tu y gagnes beaucoup, il ne me semble pas judicieux de partager un core hyperthreadé. As-tu isolé les coeurs partagés avec ta VM ?
  7. L'internet Hosting Tool n'est indispensable seulement dans le cas où l'on souhaite accéder à la VM depuis internet. Perso 99% du temps j'utilise ma VM depuis mon réseau local, donc je l'ai installé pour couvrir le 1% restant. J'ai fait le script moi même à partir d'exemples que j'ai retrouvé sur internet.
  8. Moonlight c'est le soft client, Sunshine c'est le soft serveur (host). Ils ne sont pas à comparer puisqu'ils s'utilisent ensemble. Sunshine remplace Geforce Experience (GFE) qui de toute façon va bientôt abandonner le streaming en local pour ne proposer que Geforce Now. Ce n'est donc pas une solution d'avenir que d'utiliser GFE. L'internet hosting tool vérifie juste que les flux soient bien ouverts de bout en bout entre la VM et Internet.
  9. Je n'utilise plus Parsec car ce n'est pas gérable depuis une TV avec un pad, c'est vraiment bien par contre depuis un client pc/mac. Pour Moonlight/Sunshine c'est simple : Installer sunshine sur la VM : https://docs.lizardbyte.dev/projects/sunshine/en/latest/about/installation.html Installer Moonlight sur le client https://moonlight-stream.org/# Faire l'appairage et voila. Fonctionnellement c'est équivalent à ce que propose nvidia avec GFE et GameStream. C'est même d'ailleurs la même techno mais en version libre. Pour démarrer ma VM en WOL j'utilise un script grace au plugin User Script : #!/bin/bash # listen to udp port 9 for packets & check if it is a magic packet while true do nc-openbsd -dnlu -p 9 | stdbuf -o0 xxd -c 6 -p -l 12 | stdbuf -o0 grep -v 'ffffffffffff' | while read do mac="${REPLY:0:2}:${REPLY:2:2}:${REPLY:4:2}:${REPLY:6:2}:${REPLY:8:2}:${REPLY:10:2}" echo "Got triggered with MAC address $mac" # compare the MAC address with the magic packet if [ "$mac" == "<MAC ADDRESS DE LA VM>" ] then state=$(virsh list --all|awk -v vm=<Nom de la vm> '{ if ($2 == vm ) print $3 }') echo "<Nom de la vm> in $state state" # dependent of the state, resume, start or nothing [ $state == "paused" ] && virsh -q resume <Nom de la vm> && virsh domtime --domain <Nom de la vm> --now [ $state == "shut" ] && virsh -q start <Nom de la vm> [ $state == "pmsuspended" ] && virsh dompmwakeup <Nom de la vm> [ $state == "running" ] && echo Nothing to do <Nom de la vm> is already running fi done done Grace a la commande nc-openbsd j'écoute le port 9 et j'attend un magic packet. S'il est adressé à la mac address de la VM (à remplacer dans le script) alors je regarde l'état de la VM et je lance la commande virsh qui va bien (il faut remplacer <Nom de la vm> par le nom de la VM). 1 minute pour démarrer en vdisk ça ne me choque pas, je met 30s en nvme.
  10. Sunshine, la partie serveur à installer sur la VM en complément de Moonlight, propose maintenant par défaut d'ouvrir une session Windows toute simple. Car le client Moonlight intègre la possibilité d'envoyer un magic packet, donc ça m'évite de me connecter sur unRAID pour démarrer la VM. Je peux le faire directement depuis ma TV via ma SHIELD et l'application Moonlight. J'ai fais le test avec ma 3090 et je n'ai pas noté de différence donc j'ai laissé comme ça aussi.
  11. Got my 5W back, PCIe ACS override was at disabled, I put it back to both so that powertop could do its magic. it has to be added to the default entry in your syslinux.cfg. You can edit it by clicking on your flash drive in the Main dashboard.
  12. Great, did you notice any change in idle power consumption ? Following upgrade to 6.12.0-rc2 from 6.11.5 I have a 5W increase with the same setup and configuration (powertop, ...).
  13. Bonjour, Tu souhaites améliorer quoi exactement ? Parce qu'avec des processeurs Broadwell de 2016 ans la performance énergétique n'est pas fameuse. As-tu un grand besoin de thread en // ? Intuitivement je pense qu'il vaut mieux prendre des processeurs plus récents avec moins de thread mais qui seront plus efficaces. Mais bien sur tout cela dépend de ton usage et de tes besoins.
  14. Aucun soucis, j'utilise Sunshine sur ma VM et Moonlight sur ma SHIELD, avec un réseau local en 1GB entre les 2. Après la 3090 TI envoie du lourd.
  15. Justement j'ai testé en mesurant la consommation lorsque ma 3090 TI est en passthrough avec ma VM éteinte. Puis quand elle n'est pas en passthrough et est donc gérée par le driver nvidia linux d'unraid qui permet de passer la carte en P8 (en veille quoi). Et bien aucune différence ou alors marginale (2/3w). Du coup maintenant je laisse la VM éteinte et j'ai un script WOL qui réveille la VM en cas de besoin. Comme le client Moonlight permet d'envoyer un magic packet c'est nickel.
  16. Tu dois confondre, Sunshine & Moonlight sont complémentaires, le premier est serveur en remplacement de GFE le second client. Ils sont donc à utiliser ensemble. Les équipes de dévs des 2 produits travaillent d'ailleurs ensemble.
  17. You might have more answers in the support thread for the CoreFreq plugin [PLUGIN] COREFREQ And for those who upgraded to the latest 6.12.0-rc2, with the new 6.1.20 linux kernel there's a modification to enable AMD pstate : you have to replace amd_pstate.shared_mem=1 by amd_pstate=passive
  18. You have to pass amd_pstate=passive at boot to enable it. Just tested it myself.
  19. I'm waiting for the final release to upgrade. What cpufreq-info tells you ? is the driver amd-pstate used ?
  20. I did, no difference whatsoever. EDIT : Also tried powersupersave (catchy name 😁), same result as default/powersave.
  21. A little bit too late but you could check that your docker.img file is on your cache and not on your disk. According to your diagnostic files you had some file(s) from your system share that was/were on your disk2 instead of cache :
  22. Hi, First of all thanks to @mgutt and for everybody sharing their different feedback. It helped me a lot to lower the enegergy consumption of my server. I wanted to share my own feedback and maybe get some advices to further reduce my idle power consumption. My unraid server is made of : CPU : 5800X with 4C/8T isolated to the gaming vm RAM : 4*16 MTB : Asus TUF Gaming x570-PRO 7 3.5" HDD for data and parity : 4 * Seagate IronWolf 8 TB + 2 * Seagate SkyHawk 10 TB + 1 * Toshiba N300 10 TB 1 2.5" SSD for cache : MX300 1TB 1 NVME SSD (VM passthrough) GPU nvidia 3090 TI (VM passthrough), no screen attached I use a dummy HDMI plug GPU nvidia P620 for Plex transcoding PSU RM1000X 2.5GB PCIE ethernet card (VM passthrough) 8 FANs (it's kind of hot in the summer) Running unraid 6.11.5. Of course this server was built before the energy crisis and I did not pick the components for their energy efficiency. But when we received the first energy bill this year, well, I had to do something before my wife unplugged the server. I measure the power consumption with a Shelly Plug S, there's a slight overhead due to a router. If I look back in the past in the Shelly Cloud UI, before I started to search for power optimization, I was idling at 230 Wh (with 5 HDD instead of 7). Here's what I did so far : powertop --auto-tune at startup Make it so my vm shut down state when idling --> done with a small tool installed in the VM User script to wake up my VM from paused/pmsuspended/shutdown state with a WOL magic packet that trigger virsh commands Put in place a script to change CPU governor (powersave/performance) depending of my vm state Enabling CPPC/amd-pstate to reach 550 Mhz at idle Change the P620 gpu power state to P8 with a script if nothing is using it Look for docker containers that may access the disks and spin them up when it's not needed Now if all my 7 disks are spinned down and my Gaming VM is shut down I'm currently at ~ 93 W. My cache drive never goes to sleep but with 30 running docker I suppose this has to be expected. It's still a lot compared to most of you but it's a good start. Here's what I still need to do : Disable onboard RGB led controller, audio, wifi and bluetooth as I don't use them anyway as my server is my garage Dive in the BIOS manual of my MTB for ASPM/CSTATE/Turbo/Whatever and check if everything is OK in the BIOS (WIP) Try to put the 3090 TI to P8 once the VM has been shutdown (https://forums.unraid.net/topic/118039-strom-sparen-ans%C3%A4tze/), but I need it to be more dynamic to work with my WOL script and play nice with the user script I use to put my P620 to P8. Regarding that last point I found this comment : As I have 2 gpus I could adapt it to target only my 3090 TI. I also have some hope that unraid 6.12.x with kernel 6.1 will bring some improvements for AMD CPU users.
  23. Si c'est pas indiscret comme question : si ça fonctionne en OVMF pourquoi tu veux absolument du SeaBios ?
  24. Salut, As-tu essayer d'ajouter "proxy_ssl_protocols TLSv1.3;" dans la partie Advanced / Custom Nginx Configuration ?
  25. Well the logs are quite selfexplanatory : "parent directory has insecure permissions (It's world writable or writable by group which is not "root")" it only coùplains for log of npm itself though. And then you also have a missing file/directory : letsencrypt/live/npm-6/fullchain.pem Check this on your end.