Jump to content

elgatobavaria

Members
  • Posts

    63
  • Joined

  • Last visited

Posts posted by elgatobavaria

  1. 3 hours ago, insolvestor said:

    Hast du inzwischen was gefunden? 

    Da ich eh schon Linux Mint am laufen hab würde ich da nen Mail client drauf machen und mal schauen wie gut das funktioniert. 

     

    Nein, bisher nichts gefunden. Aktuell läuft bei mir "FairEmail" auf Android, welches ziemlich viele Filter/Regeln ermöglicht. Am liebsten hätte ich das ganze aber in einen Unraid-Docker Container, da am PC einfacher konfigurierbar.

  2. Hi guys,
    i try to switch from Homeassistatn VM to docker and im not able to passthrough the ASUS BT500 bluetooth dongle to the container.
    In dockercompose i already tried somthing like      "/run/dbus:/run/dbus:ro #USB bluetooth dongle ASUS BT500"

    I think to avoid problems with the mounting path of the device it would be the best way to passthrough via device-id. But im not able to find the path of the device by-id in unraid. 
    Any idea how to passthrough the device to the container ?

    image.png.3cc28798535e498d686bfeceba8ea423.png

  3. Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3738.JPG fname=DSCI3738.JPG (DSCI3738.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674401,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3666.JPG fname=DSCI3666.JPG (DSCI3666.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674436,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3739.JPG fname=DSCI3739.JPG (DSCI3739.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674472,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3667.JPG fname=DSCI3667.JPG (DSCI3667.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674516,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3740.JPG fname=DSCI3740.JPG (DSCI3740.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674557,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3668.JPG fname=DSCI3668.JPG (DSCI3668.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674594,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3741.JPG fname=DSCI3741.JPG (DSCI3741.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674631,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3669.JPG fname=DSCI3669.JPG (DSCI3669.JPG)
    Jan  2 12:17:13 NASratisbona smbd[12213]: [2024/01/02 12:17:13.674666,  3] ../../source3/smbd/dir.c:1050(smbd_dirptr_get_entry)
    Jan  2 12:17:13 NASratisbona smbd[12213]:   smbd_dirptr_get_entry mask=[*] found HDD1_3TB/10_Homes/Stefanie/Multimedia/AlleBilderStefanie/Bilder Sortiert/2012/2012/Roquetas de mar 30 Junio 2 Julio 2012/DSCI3742.JPG fname=DSCI3742.JPG (DSCI3742.JPG)

    Hi guys, 
    my logfile is full with entries i can not interpret. Would be great if anybody can give me a hint in the right direction.
    Im currently on 6.12.6.

    Thanks !

     

  4. Hallo zusammen,
    ich nutze mehrere Email-Konten und da manche schon ziemlich alt sind und extrem viel Spam haben, nutze ich seit längerer Zeit die "Fairmail" App auf meinem Smartphone, denn hier gibt es sehr viele Möglichkeiten um Mails zu sortieren / filtern etc. . Nur leider bietet Fairmail kein ordentliches "Kalender/Termin-Handling" (Entwickler möchte sich laut seiner Website lieber auf Email Client konzentrieren).
    Jetzt habe ich mir überlegt, auf meinem NAS eine Art Email-Client laufen zu lassen, welcher sowohl Spam-Filter als auch Mails-Verschieben etc. beherrscht. Dann könnte ich wieder auf die Android Outlook App wechseln und hätte sowohl Kalender als auch Emails immer parat.

    Habt ihr ähnliche "Probleme" und eine Lösung dafür ? Über eine Diskussion würde ich mich freuen.

    Gruß Mathias
     

  5. On 2/28/2023 at 9:40 PM, zntgrf said:

    Ah das hört sich gar nicht so schlecht an. War leider jetzt den ganzen Monat mit anderen Projekten beschäftigt... deswegen wird jetzt erst wieder aktiv mit meinem Homeserver weiter gemacht...

    Falls du Resilio-Sync mit dem "Selective Sync Feature" nutzen willst dann mach dich vorher unbedingt mit dem richtigen Umgang damit vertraut. Ich hab mal - aus Unwissenheit - mehrere hundert GB gelöscht und hatte die Resilio-Papierkorb-Funktion auch deaktiviert (war jung und hatte wenig Speicher frei ;-) ). Gott sei Dank hatte ich backups 🙂 . Hier kann ich uneingeschränkt Restic backup empfehlen :)

  6. On 2/6/2023 at 11:13 PM, zntgrf said:

     

    Ich hätte noch eine zusätzliche Frage,
    Ich habe relativ viel Bildmaterial (raw-daten) welches ich direkt bearbeite, meist lokal bzw auf einer externen Festplatte, jetzt war meine Überlegung, ist eine direkte Verbindung zum Array oder Cache per Thunderbolt oder usb möglich oder ist nur der Weg über Ethernet die Lösung? Mein Macbook will für einen usb-c - 10gbe Adapter grob 260 Euro *hust*

     

    Du könntest z.b. ResilioSync nutzen und die Medien welche du gerade bearbeiten willst mit selective sync auf deinen Rechner zu synchronisieren. Das geht dann z.b. auch wenn du mit deinem Laptop in Spanien sitzt und dein NAS in Deutschland läuft ;-).

    Ich nutze gerade syncthing, die haben aber kein selective sync sondern man muss den ganzen Ordner immer synchronisieren. 

     

  7. @mgutt Einige der Sachen kann ich nahezu ausschließen. Das NAS lief schließlich in dieser Kombination schon mehrere Monate. Temperatur ist auch mehr als i.O. --> Im Bild ist z.B. gerade so ein Absturz zu sehen. Ich werde mir das jetzt nochmal anschauen mit mehr logging und im Zweifel auf mein altes NAS wechseln. Aber klar, im Zweifel muss ich mit dem tauschen anfangen. Ist halt ne unschöne Sache, wenn man nicht weis welche HW da die Probleme macht.

     

    image.thumb.png.49f53c15cb5dea664c489a550b45e4f7.png

  8. @ich777 gerne. Logging ist aber erst seit kurzem aktiv. Das System ist ganz aus. Beim drücken der PowerOn Taste blasen kurz die Lüfter hoch und mehr passiert nicht. Über die festgelegte IP kann ich es dann auch nicht erreichen. Wie schon gesagt muss ich dem ganzen aber nochmal systematisch auf den Grund gehen. Batterie ist bereits getauscht und Memtest lief auch 20h fehlerfrei durch.

    nasratisbona-diagnostics-20230210-1949.zip

  9. @DataCollector Danke für deine ausführliche Rückmeldung ! Ich gehe dem ganze noch einmal stärker auf den Grund. Evtl. habe ich mich nur durch die anlaufenden und dann stoppenden Lüfter blenden lassen und das NAS ist dennoch eingeschaltet. CMOS Batterie ist jetzt jedenfalls neu. Mal sehen, ob beim nächsten Fehlerfall das Log noch was ausspuckt.

    Der Fehler hier klingt jedenfall für mich sehr ähnlich --->  

     

  10. @Dextoo Klingt sehr ähnlich zu meinem Problem: 

    Ich konnte bei mir noch nicht debuggen, was im Fehlerfall passiert. Aber ich versuche das mal zu verifizieren, ob sich das NAS anpingen lässt im Fehlerfall. ( Bzw. über irgendeine IP doch erreichbar ist ). Von gestern auf heute lief MemTest fehlerfrei durch und der Fehler lässt sich nicht auf Kommando reproduzieren. CMOS-Batterie habe ich gestern getauscht und Unraid auf aktuelle Stable Version geupdated und schaue jetzt mal, wie es sich weiterhin verhält.

    So wie ich es in den Logs sehe, haben wir zumindest eine unterschiedliche HW... Evtl. ist es ja doch kein HW defekt :-? Ich halte dich auf dem laufenden

     

     

    • Thanks 1
  11. Hallo zusammen,

    mein NAS schaltet sich sporadisch aus ( Laufzeit jeweils > 5 Tage ) und lässt sich anschließend nicht mehr einschalten. Beim versuch es einzuschalten drehen die Lüfter kurz hoch und dann ist wieder Schluss. Trenne ich das NAS kurz vom Netz, lässt es sich anschließend wieder starten und es wird kein Fehler angezeigt. Ich habe jetzt das Logging auf den Flash aktiviert und warte spannend aber auch mit Sorge auf Logging-Info. Hat jemand eine Idee, was das sein könnte ? ( Könnte es die Mainboard-Batterie sein ? )
    Das NAS lief seit etlichen Monaten ohne Probleme und laut "netdata" Container gibts zur Zeit der Absturzes genug RAM und kaum CPU load.

    Update gerade entdeckt : "BIOS dated: Thu 24 Jun 2021 12:00:00 AM CEST" ... riecht schon nach CMOS Batterie...

    VG

    NAS Hw:
    Mainboard: ASUSTeK COMPUTER INC. P11C-I Series
    CPU: Intel® Core™ i3-9100
    RAM: 16 GB ECC-RAM

  12. 5 hours ago, h0schi said:

     

    Du kannst mal den Slice-Size des "Lancache" Docker-Container (die Variable muss wahrscheinlich erst angelegt werden) erhöhen und versuchen ob es dadurch besser wird.

     

    Vorsicht -> Dabei werden alle bereits gecachten Dateien unbrauchbar !

     

    Ansonsten würd ich mal den Lösungsvorschlag von @mgutt oberhalb in dem Thread testen:

     

    image.thumb.png.778e94a09b23e31c84760d2dae7c4eba.png

    Ich probiere das gerade mal aus mit dem Cache-Slice 🙂 . 
    Wie verhält sich lancache eigentlich im Bezug zu einer Unraid Cache SSD ? ( Ich hab leider noch keine, daher keine Ahnung )
    Würde sich das z.B. bei einer LANparty positiv auswirken ?

    Szenario:
    LANcache ---> Schreibt auf /mnt/HDD1
    HDD1 "nutzt" den Unraid Cache 
    Mover schiebt nur alle 2 Tage die Daten
    --> Daten müssten dann doch 2 Tage auf der Unraid Cache SSD liegen oder ? --> Somit wäre die respone beim lesen die 2 Tage schneller ?

    Zuviele Fragen in meinem Kopf 🙂

    Gruß Mathias




     

  13. 2 hours ago, sonic6 said:

    Wird keinen Einfluss haben, PC und Deck laden ja beide über den LANCache, welches ich am Up/Down-Stream vom Unraid Server sehe. Jeglicher Steam Traffic geht durch den Container... aber es wird immer komplett aus dem Netz geladen. Ich "dachte", wenn ich zb CS:GO lade, dann wird beim ersten mal aus dem Netz geladen und danach laden alle weiteren Clients aus dem Cache.

    Prüf doch mal mit "du -sh" wie groß der cache ordner ist. Evtl. ist deine Konfiguration am Lancache falsch. Falls du z.B. lancache-bundle (https://github.com/Josh5/lancache-bundle) verwendest, darfst du bei den Einstellungen (siehe Bild) nicht "true" setzen. Sonst werden diese Streams ignoriert. (set true to disable)
    --> Im unten angezeigten Fall speichert er Steam-Dateien im cache ab.

    Der Stream-Traffic sollte nach meinem Verständnis so oder so durch den Container gehen. ( sonst könnte man ja mit dem Container nicht filtern... )

    image.thumb.png.9dba8841e4e0258a87247dc421acd8f5.png

  14. 57 minutes ago, sonic6 said:

    Mal ne kleine Offtopic Frage nebenbei zu den Lancache Nutzern. Es läuft zwar alles, was ich zb über Steam runterladen über den Unraid Server, aber irgendwie habe ich das Gefühl, dass nicht wirklich auf den Cache zurückgegriffen wird.

    Wenn ich zb ein Spiel am PC lade und danach am Steam Deck, wird dennoch immer aus dem Web runtergeladen.

    Bei beiden der richtige DNS eingetragen und auch aktiv ? WINDOWS --> CMD -->  ipconfig /flushdns 
    Beim Steamdeck hab ich keine Ahnung...

  15. Zum Thema Lancache-Bundle / Unraid hätte ich auch noch ne - dumme ? - Frage . Ich verwende ebenfalls das Lancache-Bundle im Dockerbetrieb und bin mit der Performance bereits gecacheder 🙂 Files nicht zufrieden. Mehr wie 20MB/s bekomme ich nicht zustande. Da der "cache" Order auf einer WD-RED Hdd liegen denke ich, dass die Zugriffszeiten das Problem sind ( Steam und kleine Dateien... ). Kann ich das - ohne eine SSD kaufen zu müssen - ein wenig beschleunigen ?
     

    Specs meines Systems:
    CPU: I9100 ( CPU is langweilig )
    RAM: 16Gb RAM
    HDD: WD-Red 4TB
    Cache SSD: Nicht vorhanden
    Netzwerk: 1 Gbit ( Durchsatz bei SMB ist etwa 105MB/s )

    VG, Mathias



     

  16. Is here the right place to make a improvement suggestion ? 
    If yes: The plugin itself works great for me, but due i have a lot of scripts it would be great to have something like a folder structure etc --> See example . In best case also to collapse the list items.

     

    Best regards, Mathias
    image.png.01ebcc397c17aa533037cbc139cff0f0.png

  17. I use a lot of user scripts and from my point of view it would be a good feature to sort them like shown below:

    image.thumb.png.241564f31c96d1922f372cb42226de00.png

     

    Feature Idea:
    - Top points ( like here CPU , TelegramScripts etc. )

    - Drag and drop own user scripts to the top points ( ZZZ_ChangeMHzTo800 to "CPU" for example )

    - Collapse top points

    Best regards, Mathias

  18. Hello guys,
     
    i just started to use the notification function via telegram and asking myself if it is possible to change the direction of this feature ?
    For example i write my telegram bot something like "start backup" and the backup-script on unraid is starting.
    Update: With telegram-cli should it be possible somehow. But on this point i have not enough linux knowledge with redirecting output and parsing

    Anybody know if this is possible ? Would be a great feature for me because i am not able to open ports or use VPN. ( NAS is in a special network config )

    Best regrards,
    Mathias

  19. Konnte mit BIOS Einstellungen bisher leider auch nichts erreichen. Allerdings habe ich jetzt zeitgleich mal den VNC Treiber aktiviert. Hier meldet Windows im Gerätemanager "Für dieses Gerät sind nicht genügend Resourcen verfügbar (code 12) " . Weis nicht ob das weiter hilft ...

    @alturismo Update:
    Habe eine neue Win10 VM aufgesetzt und diesmal mit - ich trau es mir garnicht zu sagen - OVMF anstatt SeaBios. Und die Welt ist wieder in Ordnung. Die GPU wird in der neuen VM ohne weiteres erkannt. Hängt dann wohl mit der Bios-Einstellung mit "Legacy Mode" zusammen. Die Auswirkung hätte ich jetzt so nicht erwartet.

  20. @alturismo Schon mal danke fürs drüber schauen :-).

    3 hours ago, alturismo said:

    hier wäre es interessant gewesen zu wissen was ...

    Mit dieser Diskussion hab ich einiges rumprobiert  STROM SPAREN ANSÄTZE , @alturismo warst ja auch dabei 🙂 . Leider von mir ein bisschen vorschnell umgesetzt, ohne mir die Änderungen zu notieren.

     

    3 hours ago, alturismo said:

    warum ? da unraid gerne eine GPU für sich beansprucht evtl. mal aktivieren sodass die Nvidia auf jeden Fall frei bleibt, Achtung, wird sicherlich deine iommu verschieben und passthrough müsste angepasst werden.

    Hab ich auch als "Stromspar-Möglichkeit" angesehen. War aber bisher eigenetlich kein Problem. Gestern hab ich die iGPU aktiviert und als "Primary" im Bios gesetzt. Fehlermeldungen blieben.
     

    3 hours ago, alturismo said:

    beim Docker jetzt mal egal da off, bei dem VM libvirt image nutzt du auch /mnt/disk1/... so gewollt weil ?

    Nicht unbedingt so gewollt. Eigentlich möchte ich das Device aus "/mnt/disk1/" austauschen, weil die SSD Werte nicht mehr so toll aussehen. Wollte die Daten gerade auf die andere SSD kopieren, als mir das mit den VMs auffiel.
     

    Ich hab da gerade noch einen anderen Verdacht, der eigentlich nichts mit UNRAID zu tun hat. Vor längerer Zeit hatte ich einmal ein Problem mit dem BIOS, da ASROCK sich hier einen mördermäßigen Bug erlaubt hat. Evtl. hat eine Einstellung im BIOS einen Quereffekt ausgelöst... Ich prüf das nochmal nach. Link zum besagten ASROCK Z370 Bios BUG

  21. Hallo zusammen, ich werd langsam Wahnsinnig. Mein Win10 VM lässt sich zwar starten, jedoch funktioniert die GPU nicht mehr. Alles hat bereits mehrere Wochen funktioniert. Aber nach ein paar rumspielerein über mehrere Tage ist nun Schluss. Als Zusatzinfo vielleicht noch interessant -> Nach dem Starten der VM bleibt ein Kern auf 100% Auslastung ( hab irgendwo gelesen, dass das ein Anzeichen für ein Fehlerhaftes vBios sein kann... das hat sich aber nicht geändert )

     

    Wäre super, wenn jemand drüber schauen könnte.

     

    nasratisbona-diagnostics-20220124-1912.zip

     

    Bios Settings:
    Intel VT-d = enabled
    iGPU = disabled


    Unraid Startsettings:
     

    kernel /bzimage
    append intel_pstate=passive initrd=/bzroot isolcpus=4-7 video=vesafb:off,efifb:off nofb

     

    Binding 
    image.thumb.png.7461d5cd4cc800cc93223badea4e4bbb.png

     

    XML
     

    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm' id='1'>
      <name>Windows 10</name>
      <uuid>4e9f7b00-0853-5385-180e-a014c1a031c3</uuid>
      <metadata>
        <vmtemplate xmlns="unraid" name="Windows 10" icon="windows.png" os="windows10"/>
      </metadata>
      <memory unit='KiB'>13107200</memory>
      <currentMemory unit='KiB'>13107200</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>8</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='0'/>
        <vcpupin vcpu='1' cpuset='1'/>
        <vcpupin vcpu='2' cpuset='2'/>
        <vcpupin vcpu='3' cpuset='3'/>
        <vcpupin vcpu='4' cpuset='4'/>
        <vcpupin vcpu='5' cpuset='5'/>
        <vcpupin vcpu='6' cpuset='6'/>
        <vcpupin vcpu='7' cpuset='7'/>
      </cputune>
      <resource>
        <partition>/machine</partition>
      </resource>
      <os>
        <type arch='x86_64' machine='pc-q35-5.1'>hvm</type>
      </os>
      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='2D76A8B352F1'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <ioapic driver='kvm'/>
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='8' threads='1'/>
        <cache mode='passthrough'/>
      </cpu>
      <clock offset='localtime'>
        <timer name='hypervclock' present='yes'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <disk type='file' device='disk'>
          <driver name='qemu' type='raw' cache='writeback'/>
          <source file='/mnt/user/SSD/12_VM/Windows10/WIN10_2.img' index='3'/>
          <backingStore/>
          <target dev='hdc' bus='virtio'/>
          <boot order='1'/>
          <alias name='virtio-disk2'/>
          <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/>
        </disk>
        <disk type='file' device='cdrom'>
          <driver name='qemu' type='raw'/>
          <source file='/mnt/user/SSD/12_VM/ISO/Win10_21H1_German_x64.iso' index='2'/>
          <backingStore/>
          <target dev='hda' bus='sata'/>
          <readonly/>
          <boot order='2'/>
          <alias name='sata0-0-0'/>
          <address type='drive' controller='0' bus='0' target='0' unit='0'/>
        </disk>
        <disk type='file' device='cdrom'>
          <driver name='qemu' type='raw'/>
          <source file='/mnt/user/SSD/12_VM/ISO/virtio-win-0.1.208-1.iso' index='1'/>
          <backingStore/>
          <target dev='hdb' bus='sata'/>
          <readonly/>
          <alias name='sata0-0-1'/>
          <address type='drive' controller='0' bus='0' target='0' unit='1'/>
        </disk>
        <controller type='pci' index='0' model='pcie-root'>
          <alias name='pcie.0'/>
        </controller>
        <controller type='pci' index='1' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='1' port='0x8'/>
          <alias name='pci.1'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0' multifunction='on'/>
        </controller>
        <controller type='pci' index='2' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='2' port='0x9'/>
          <alias name='pci.2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
        </controller>
        <controller type='pci' index='3' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='3' port='0xa'/>
          <alias name='pci.3'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
        </controller>
        <controller type='pci' index='4' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='4' port='0xb'/>
          <alias name='pci.4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x3'/>
        </controller>
        <controller type='pci' index='5' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='5' port='0xc'/>
          <alias name='pci.5'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x4'/>
        </controller>
        <controller type='pci' index='6' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='6' port='0xd'/>
          <alias name='pci.6'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x5'/>
        </controller>
        <controller type='virtio-serial' index='0'>
          <alias name='virtio-serial0'/>
          <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/>
        </controller>
        <controller type='sata' index='0'>
          <alias name='ide'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/>
        </controller>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <alias name='usb'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <alias name='usb'/>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci2'>
          <alias name='usb'/>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci3'>
          <alias name='usb'/>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:bb:7e:8e'/>
          <source bridge='br0'/>
          <target dev='vnet0'/>
          <model type='virtio-net'/>
          <alias name='net0'/>
          <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
        </interface>
        <serial type='pty'>
          <source path='/dev/pts/0'/>
          <target type='isa-serial' port='0'>
            <model name='isa-serial'/>
          </target>
          <alias name='serial0'/>
        </serial>
        <console type='pty' tty='/dev/pts/0'>
          <source path='/dev/pts/0'/>
          <target type='serial' port='0'/>
          <alias name='serial0'/>
        </console>
        <channel type='unix'>
          <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-1-Windows 10/org.qemu.guest_agent.0'/>
          <target type='virtio' name='org.qemu.guest_agent.0' state='disconnected'/>
          <alias name='channel0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='mouse' bus='ps2'>
          <alias name='input0'/>
        </input>
        <input type='keyboard' bus='ps2'>
          <alias name='input1'/>
        </input>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev0'/>
          <rom file='/mnt/user/SSD/12_VM/nVidiaVbios/3016_Fixed.rom'/>
          <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0' multifunction='on'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev1'/>
          <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x1'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
      <seclabel type='dynamic' model='dac' relabel='yes'>
        <label>+0:+100</label>
        <imagelabel>+0:+100</imagelabel>
      </seclabel>
    </domain>


    Log
     

    Jan 24 19:03:52 NASratisbona webGUI: Successful login user root from 192.168.0.106
    Jan 24 19:03:58 NASratisbona kernel: br0: port 2(vnet0) entered blocking state
    Jan 24 19:03:58 NASratisbona kernel: br0: port 2(vnet0) entered disabled state
    Jan 24 19:03:58 NASratisbona kernel: device vnet0 entered promiscuous mode
    Jan 24 19:03:58 NASratisbona kernel: br0: port 2(vnet0) entered blocking state
    Jan 24 19:03:58 NASratisbona kernel: br0: port 2(vnet0) entered forwarding state
    Jan 24 19:03:58 NASratisbona usb_manager: Info: rc.usb_manager  vm_action Windows 10 prepare begin -
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: vfio_ecap_init: hiding ecap 0x1e@0x258
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: vfio_ecap_init: hiding ecap 0x19@0x900
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: vfio_ecap_init: hiding ecap 0x26@0xc1c
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: vfio_ecap_init: hiding ecap 0x27@0xd00
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: vfio_ecap_init: hiding ecap 0x25@0xe00
    Jan 24 19:03:59 NASratisbona kernel: resource sanity check: requesting [mem 0x000c0000-0x000dffff], which spans more than PCI Bus 0000:00 [mem 0x000c0000-0x000c3fff window]
    Jan 24 19:03:59 NASratisbona kernel: caller pci_map_rom+0x7a/0x15e mapping multiple BARs
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.0: Invalid PCI ROM header signature: expecting 0xaa55, got 0xffff
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.1: enabling device (0000 -> 0002)
    Jan 24 19:03:59 NASratisbona kernel: vfio-pci 0000:01:00.1: vfio_ecap_init: hiding ecap 0x25@0x160
    Jan 24 19:03:59 NASratisbona avahi-daemon[6893]: Joining mDNS multicast group on interface vnet0.IPv6 with address fe80::fc54:ff:febb:7e8e.
    Jan 24 19:03:59 NASratisbona avahi-daemon[6893]: New relevant interface vnet0.IPv6 for mDNS.
    Jan 24 19:03:59 NASratisbona avahi-daemon[6893]: Registering new address record for fe80::fc54:ff:febb:7e8e on vnet0.*.

     

     

     

  22. 11 hours ago, alturismo said:

     

    setz doch mal die Kerne 1-7 auf powersafe

     

    und alternativ mal anderen CPU Treiber, ACPI anstelle Intel CPU Freq


    Den Governor hab ich mal getestet. Mit einem anderen Ergebnis als vorher 🙂

    Zu Beginn des Tests waren alle CPUs auf 0.8Ghz mit dem Governor powersave. Anschließend habe ich in der VM den Stresstest gestartet und Core 0 ( Eigentlich nur UNRAID ) auf 4.5Ghz "ondemand" gesetzt. Hier das Resultat:
    image.png.cc627505b7e62f83515c4ccb0d28d0a8.png

    Frequenzen sind zwar grad komisch aber immerhin weis ich jetzt, dass die Frequenz der VM-Cores (6 & 7) und Unraid-Core ( 0 ) wohl zusammenhängen. ( Intel CPU Freq )

  23. 12 hours ago, alturismo said:

    das auf jeden Fall ;)

     

    mal so am Rand erwähnt, dem host nur Kern 7 zu geben ... während Linux Hosts Kern 0 immer bevorzugt ist evtl. nicht die beste Idee, steht auch so in der Beschreibung beim Thema Kernisolierung.

     

    Ich weiß jetzt nicht ob das etwas damit zu tun hat, aber zum Spaß würde ich das mal drehen ...

     

    zu deinem Stress Test, mach den mal auf unraid direkt was da passiert, sollte ja nur Kern 7 hochfahren, mehr weiß ich jetzt auch nicht in deinem Fall, ich hab übrigens die ganzen Settings aktiv wo du abgeschaltet hast im BIOS, auch da unterscheidet sich einiges.

    Da mit Bevorzugung von Core0 wusste ich nicht, danke ! 
    Ich hab es jetzt mal umgedreht und nochmal getestet:
    Load kommt von Unraid console mit "for i in 1 2 3 4; do while : ; do : ; done & done"
    image.png.357244ab3014307504505a56f44e08e6.png

    Wenn ich Core0 auf 800 Mhz setze bleiben alle Kerne auf 800Mhz. Wird Core0 höher gesetzt, gehen alle anderen mit. Spiegelt das gleiche Verhalten wieder wie wenn die Last von einer VM kommt. Im übrigen hab ich alle genannten Bios Einstellungen wieder enabled.

    Da hier die Diskussion war, was den nun der Richtige Weg zum messen der CPU Frequenz ist:
    image.png.f54e19dfa46057437cca4806355ad0ea.png

    image.png.da63f8b3ed06396b34907e4600109186.png

     

    Entweder ist das Verhalten bei mir CPU-spezifisch ( i7 9700 ) oder die Ansteuerung über den Treiber ist nicht korrekt. Bei mir gilt entweder alle Kerne oder keiner :/ 


    Vielleicht probiere ich noch einen anderen Governor.. 
     

     

     

×
×
  • Create New...