hot22shot

Members
  • Posts

    143
  • Joined

  • Last visited

Posts posted by hot22shot

  1. Hi,

     

    I often see questions about the C1_ACPI to C3_ACPI C status (myself included to be honest) on some systems whereas on others the full list C state are shown.

    Basically this seems to be caused by different idle driver used on those systems and this is not necessarly an issue.

    More explanations on this thread : https://unix.stackexchange.com/questions/405775/acpi-idle-vs-intel-idle

     

    FYI you can check the idle driver used on your system with corefreq.

    Mine was using the intel_idle driver and powertop was showing C1_ACPI/.../C3_ACPI status.

    When I switched to corefreq as an idle driver powertop was reporting the full C state list and I could see that I could reach C10.

    But to be honest it did not make any difference on the power meter.

  2. Le conteneur Docuseal nécessite une BDD externe (qui n'est donc pas inclue dans le conteneur) et dont l'URL doit être donnée en paramètre :

     

    E, [2024-03-09T16:36:51.072880 #1] ERROR -- : Database URL cannot be empty (RuntimeError)
  3. Salut, tu as plein d'erreur sur ton disque sdg1 (HDD_Backup il me semble ?) :

     

    Feb 13 14:10:32 NODE kernel: I/O error, dev sdg, sector 1244186368 op 0x1:(WRITE) flags 0x104000 phys_seg 256 prio class 2
    Feb 13 14:10:32 NODE kernel: buffer_io_error: 246 callbacks suppressed
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523040, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523041, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523042, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523043, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523044, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523045, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523046, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523047, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523048, lost async page write
    Feb 13 14:10:32 NODE kernel: Buffer I/O error on dev sdg1, logical block 155523049, lost async page write

     

    Est-ce le disque sur lequel étaient tes photos ?

  4. Hello,

     

    Bon on est mercredi alors ta copie est peut être terminée :) 

    Regarde ce que fait to CPU avec top, tu en sauras peut être plus, possible que le calcul de parité ralentisse effectivement le transfert.

     

    De mémoire (ça commence à remonter) j'avais fait comme toi et ça m'avait pris effectivement quelques jours (~18 To).

  5. Salut,

     

    Bienvenue sur unraid.

     

    Quote

    Je faisais avant des Vm pour mes besoins, mais maintenant, je remarque que je peux faire la même chose mais avec des Containers (je ne connais pas beaucoup, vraiment pas beaucoup pour ne pas dire rien) pour moins de ressources,...

     

    Pour faire ultra simpliste un conteneur est une couche d'abstraction de plus haut niveau qu'une VM, au lieu d'émuler une machine (cpu, ...) tu émules une partie de l'OS.

    Donc avec effectivement moins de ressources consommées.

    Tu trouveras pléthore de tuto et de vulgarisation à ce sujet sur internet.

     

    Quote

    Je suis antrain de tout ré installer au fur et à mesure. J'ai un soucis avec "unifi-network-application", Je l'ai installer via les Apps, mais j'arrive pas à avoir la page de l'interface de configurations que cela sois en Http ou Https.

     

     Alors je n'utilise pas cette apli mais as-tu consulter les logs ? Généralement quand quelque chose se passe mal avec un conteneur c'est tracé dans les logs.

    Ils sont disponibles quand tu clique sur l'icone du conteneur dans la partie Docker de l'interface unraid, une liste apparait avec "logs".

  6. RetroAcher ? Il est en cours de dév : https://github.com/LizardByte/RetroArcher

    En tout cas le repo est actif, mais pas encore de version à tester.

     

    Après vérif celui d'emulatorjs est aussi actif : https://github.com/EmulatorJS/EmulatorJS

    Va falloir que je réinstalle le docker.

     

    Sinon pour jouer à distance tu n'as qu'à mettre ça dérrière un reverse proxy avec authentification.

  7. Salut,

     

    Ce CPU n'a pas d'iGPU intégré qui est quand même la grande force d'intel sur le sujet. Privilégie donc un modèle non F.

     

    Difficile de conseiller un GPU car la plupart des GPUs classiques grand publics sont limités en nombre de transcodage parallèle.

    Vu le nombre de clients que tu as un CPU intel puissant non F est le meilleur choix.

     

    Tu peux aussi installer tautulli et regarder pourquoi et comment tes clients demande un transcodage et les inciter à faire autrement.

  8. On 5/28/2023 at 1:02 PM, mgutt said:

    I even tested this, but for me it has no impact:

     

    echo "balance_power" | tee /sys/devices/system/cpu/cpu*/cpufreq/energy_performance_preference

     

    The default ist "balance_performance":

    cat /sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference
    balance_performance

     

     

    I was able to gain ~0.4W with balance_power, I noticed that there was also a "power" setting it allowed me to gain 0.9W (not cumulative from the previous setting).

    • Thanks 1
  9. Ton conteneur rutorrent n'a pas de port mappés, donc même si tu ouvres les ports qui vont bien sur le conteneur OpenVPN ça ne fonctionnera pas.

    Par exemple ton conteneur chromium lui as bien le port 8080 de mappé il va donc bien etre joignable depuis le conteneur OpenVPN sur le port 8080.

  10. Vu les logs je suppose que tu as Plex d'installé. Il y a beaucoup de mention du plex transcoder, essaye de désactiver les taches de fond de plex (création de vignette, détection d'intro, etc).

     

    J'ai trouvé une personne qui a le même genre de trace, sous proxmox, et c'était du à un problème HW : 

     

     

     

    Avec une carte mère chinoise similaire à la tienne, à priori il tentait d'exploiter le boost unlock proposé par le bios de la carte mère et c'était mal supporté par son xeon.

    Es-tu dans une situation semblable ?

    • Like 1
  11. 12 minutes ago, Drycane said:

    Thank you for the quick response. I removed the manually installed package and installed via un-get. (It was the same package anyways) 

    "Currently installed package(s) by un-get:

    netcat-openbsd-1.219-x86_64-1cf.txz"

     

    Still get the same error:

    nc-openbsd: error while loading shared libraries: libbsd.so.0: cannot open shared object file: No such file or directory.

     

    I tried rebooting and reinstalling but still no luck. You have any other idea?

     

    My server is offline so I can't test but did you tried to install libbsd with un-get ?

  12. Ok, I almost finished building my new server and made some tests :

    • Intel i3-1300
    • ASRock Z690 Pro RS
    • 2*16GB Corsair 
    • 7HDD + 1 SSD
    • PSU Corsair RM750X (pre-2021 version unfortunately)

    I'm not sure I was able to configure in the BIOS my 13100 to clock as a 13100T would as the options are not as clear I would like.

     

    No PCIE card or anything else.

     

    My Shelly Plug is telling me it draw around 32 to 33W at idle with all the disk spinned down.

    I'm not sure how much I would gain by changing the PSU.

    And I still need to add some fan to keep all this at cool temp so I suppose it will add up some W.

     

    I'm not seeing any cstate in powertop but I suppose the CPU is too new.

     

    I tested the default intel_pstate and Intel_pstate passive without any real difference.

     

     

     

  13. 19 hours ago, mgutt said:

    If you stick to i3, than you could buy the i3-12100 or i3-13100 instead. Every CPU can be throttled to a T-CPU.

     

    Ok I went for the 13100 and the ASRock Z690 PRO RS I mentionned before. I'll get back when I got all the parts for my new server (I also order a new case, an Aerocool Cipher). But hopefully it will be a lot less than it is actually (83W).

  14. 29 minutes ago, mgutt said:

    My next try will be this board:

    https://www.asrockrack.com/general/productdetail.asp?Model=W680D4ID-2T/G5/X550#Specifications

     

    10G and 8 SATA ports and 2 nvme onboard + one free oculink for a third nvme or asm1166 m.2 adapter + 4 RAM Slots (which is rare for this small form factor). Should be available next month. I think it will be above 500 € 🙈

     

    This is way overbudget for me 😁. I'm looking at consumer oriented mobo, like this one : ASRock Z690 Pro RS ATX 1700 Socket 4 DDR4 8 SATA, 2.5GB network card and I can use my existing DDR4 RAM.

    But as I have an existing 2.5GB PCIE Card and a LSI 8 SATA controller I wonder if buying a small/cheaper mobo could be an option.

     

    29 minutes ago, mgutt said:

    Note: The T-CPU is not really needed. You can change PL1, PL2 and the base multiplicator usually in all BIOS'es, so you can convert a K-CPU easily into a T-CPU. 

     

    Interesting, but a K-CPU price is way higher and I don't need the extra power as I would transfer my Gaming VM to baremetal on my existing setup (5800X) with a WOL setup.

     

    29 minutes ago, mgutt said:

    Note2: The 13th gen has only efficient Raptor Cove Cores if you buy an i5 K-CPU or any i7 or i9 CPU. So the i3 or smaller i5s are all 12th gen (with higher clocks). Regarding my research Raptor Cove is at least 17% more efficient than Golden Cove (German):

    https://www.computerbase.de/forum/threads/intel-core-i5-13500-im-test-der-i5-mit-14-kernen-im-clinch-mit-ryzen-7000.2129425/page-9#post-28048507

     

    So according to you there're two options :

    • A small i3/i5 Golden Cove because Raptor Cove is basically the same with higher speed.
    • Or a mid-market i5 Raptor Cove that has more efficient core.

    Is that right ?

     

     

     

  15. Le vidage du cache est géré par le mover qui comme son nom l'indique "move" les fichiers du cache vers les disques.

    Tu peux le trouver dans la partie Main, là où il y a tous disques, vers le bas de l'interface :

     

    image.thumb.png.9699f8b46e93b1c93dce29ae913b9c80.png

     

    Appuyer sur Move lance immédiatement le processus alors qu'appuyer sur Schedule te permettra de le planifier.

  16. 18 hours ago, TheLinuxGuy said:

    I'm building a second unraid server; anyone has any SATA pcie controller recommendation that allows deep C states / power efficiency?

     

    My current build has ASM1064 controller and I am stuck at C3 - I am hoping my backup unraid (new) server to be more efficient. The motherboards I am looking at have at most 4 SATA ports; so I will definetely need to add at least 4 or 6 ports more. 

     

    I'm interested as well for an answer, I'm considering moving to an 13100T cpu, but as I need 8 sata ports I'm wondering what would be best from a power efficiency pov : using a cheap mobo and an external sata controller or targeting a pricy mobo that includes 8 sata ports.

     

    Edit : same question for a 2.5GB network card.

    • Upvote 1