sonic6

Members
  • Posts

    226
  • Joined

  • Last visited

  • Days Won

    1

Posts posted by sonic6

  1. On 12/2/2021 at 11:23 AM, gfa4711 said:

    40W dauerhaft ist ja nicht mehr so gut. Das macht die Entscheidung schwieriger.

    Also ich habe den Energieverbrauch jetzt nochmal ein wenig beobachtet. Mein Gesamtsystem ist schwer zu beurteilen, da jetzt GPUs verbaut und ne VM dauerhaft am laufen habe.

     

    Was ich aber definitiv beurteilen kann, ist dass meine WD Reds (2x10TB, 1x4TB) im Spinup ca 15W Mehrverbrauch verursachen.

     

    Persönlich bin ich vom Spindown wieder abgerückt, da ich mehr als 10 Spinup/Downs pro Tag habe. Das sind 30€/Jahr an Mehrkosten, die zumindest in meinen Augen, in keinem Verhältnis mit einem potenziellen Ersatz stehen.

    Hier ist sicherlich auch noch mehr sparpotenzial, wenn man den SATA Controller vom Board nutzt, statt eines HBA, da die CPU dann einen höheren C-State erreichen kann.

    Wie das letztendlich in Zahlen aussieht, können aber anderen besser beurteilen.

  2. On 10/4/2021 at 6:20 AM, ab5g said:

    Hi Siwat2545 - I am on Unraid 6.10-RC1 and I get the following error when the container starts. 

    It is easily fixed by chmod 640 etc/ssl/private/ssl-cert-snakeoil.key

     

    Can you incorporate this into the container image please ?

     

     

    2021-10-04 04:10:50.135 UTC [135] FATAL: private key file "/etc/ssl/private/ssl-cert-snakeoil.key" has group or world access 
    2021-10-04 04:10:50.135 UTC [135] DETAIL: File must have permissions u=rw (0600) or less if owned by the database user, or permissions u=rw,g=r (0640) or less if owned by root. 
    2021-10-04 04:10:50.143 UTC [135] LOG: database system is shut down pg_ctl: could not start server Examine the log output. ...fail! * Starting RabbitMQ Messaging Server rabbitmq-server ...done. Waiting for connection to the localhost host on port 5432 
    Waiting for connection to the localhost host on port 5432 
    Waiting for connection to the localhost host on port 5432 
    Waiting for connection to the localhost host on port 5432 
    Waiting for connection to the localhost host on port 5432 
    Waiting for connection to the localhost host on port 5432 

     

    Hey @ab5g did you found a solution?

  3. Hi,

     

    i had running HiveOS as a VM for over two month without problems. 

     

    Last weekend i try adding a third GPU, but the VM won't start.

    I had to switch over to i440fx. (With i400fx i had some other problem with the WebUI, but this is another story.)

     

    So, i created a new VM, added the image and my GPUs with i440fx.

     

    Now i am trying why Q35 will not work, or what i do wrong?

     

     

    Here is my XML:

    Spoiler
    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm' id='18'>
      <name>hiveos</name>
      <uuid>76c45fbe-5d5b-13bd-b6bf-5360db4c5437</uuid>
      <metadata>
        <vmtemplate xmlns="unraid" name="Ubuntu" icon="ubuntu.png" os="ubuntu"/>
      </metadata>
      <memory unit='KiB'>4194304</memory>
      <currentMemory unit='KiB'>4194304</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>2</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='1'/>
        <vcpupin vcpu='1' cpuset='7'/>
        <emulatorpin cpuset='6'/>
      </cputune>
      <resource>
        <partition>/machine</partition>
      </resource>
      <os>
        <type arch='x86_64' machine='pc-i440fx-6.1'>hvm</type>
        <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader>
        <nvram>/etc/libvirt/qemu/nvram/76c45fbe-5d5b-13bd-b6bf-5360db4c5437_VARS-pure-efi.fd</nvram>
      </os>
      <features>
        <acpi/>
        <apic/>
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='1' threads='2'/>
        <cache mode='passthrough'/>
      </cpu>
      <clock offset='utc'>
        <timer name='rtc' tickpolicy='catchup'/>
        <timer name='pit' tickpolicy='delay'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <disk type='file' device='disk'>
          <driver name='qemu' type='raw' cache='writeback'/>
          <source file='/mnt/user/domains/hiveos/vdisk1.img' index='1'/>
          <backingStore/>
          <target dev='hdc' bus='sata'/>
          <boot order='1'/>
          <alias name='sata0-0-2'/>
          <address type='drive' controller='0' bus='0' target='0' unit='2'/>
        </disk>
        <controller type='pci' index='0' model='pci-root'>
          <alias name='pci.0'/>
        </controller>
        <controller type='sata' index='0'>
          <alias name='sata0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
        </controller>
        <controller type='virtio-serial' index='0'>
          <alias name='virtio-serial0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
        </controller>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <alias name='usb'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <alias name='usb'/>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci2'>
          <alias name='usb'/>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci3'>
          <alias name='usb'/>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:da:1a:0e'/>
          <source bridge='br0'/>
          <target dev='vnet17'/>
          <model type='e1000'/>
          <alias name='net0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
        </interface>
        <serial type='pty'>
          <source path='/dev/pts/1'/>
          <target type='isa-serial' port='0'>
            <model name='isa-serial'/>
          </target>
          <alias name='serial0'/>
        </serial>
        <console type='pty' tty='/dev/pts/1'>
          <source path='/dev/pts/1'/>
          <target type='serial' port='0'/>
          <alias name='serial0'/>
        </console>
        <channel type='unix'>
          <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-18-hiveos/org.qemu.guest_agent.0'/>
          <target type='virtio' name='org.qemu.guest_agent.0' state='disconnected'/>
          <alias name='channel0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='tablet' bus='usb'>
          <alias name='input0'/>
          <address type='usb' bus='0' port='1'/>
        </input>
        <input type='mouse' bus='ps2'>
          <alias name='input1'/>
        </input>
        <input type='keyboard' bus='ps2'>
          <alias name='input2'/>
        </input>
        <audio id='1' type='none'/>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x0d' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x0' multifunction='on'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x0d' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev1'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x1'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x0a' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev3'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x0a' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x09' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev5'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x0a' function='0x0'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
      <seclabel type='dynamic' model='dac' relabel='yes'>
        <label>+0:+100</label>
        <imagelabel>+0:+100</imagelabel>
      </seclabel>
    </domain>

     

     

    Maybe someone can take a look and can give me a hind?

  4. On 12/1/2021 at 7:56 AM, mgutt said:

    Von Share zu Share verbleibt es auf der selben Disk. Ist ein unlösbarer Bug.

    Warum hat es bei mir geklappt? Weil "temp" ein Cache:prefer Share ist und die Daten auf dem Cache, statt auf dem Array lagen?

     

    2 hours ago, JoergHH said:

    Gibt es nicht etwas von Ratio....äh....eine elegantere Methode?

    Ware vielleicht von /mnt/user/... -> /mnt/disk/... oder /mnt/user/... -> /mnt/user0/...  eine "lösung"?

  5. 21 minutes ago, gfa4711 said:

    Tja, da müsste testen wie sich mein Controller verhält. 80€ für so einen Controller ist schon eine Stange Geld, da kann man gleich ein teureres MB nehmen.

    Ich habe damals 25€ bei eBay gezahlt, zur Zeit gehen die so bei 50€ los.

  6. 11 hours ago, gfa4711 said:

    Die 25W klingen nicht schlecht, gibt es einen bestimmten Grund warum du dich für das Board mit WIFI entschieden hast? Sollten Boards ohne WIFI nicht prinzipiell sparsamer sein?
    Der SATA Controller ist auch sehr speziell, gibt es einen bestimmten Grund für diesen? Ich habe noch so einen 0815 4xSATA Controller herumliegen.

    Es gab einen Grund, wieso ich mich gerade für dieses Board entschieden habe, aber es war nicht WIFI. :D

     

    Ich brauchte ein miniITX Board, für das Gehäuse, welches ich nutzen wollte (DS380).

    Die Auswahl war nicht besonders groß, aber die zwei m.2 Slots waren dann letztendlich Ausschlag gebend für mich um am Ende bei dem kompakten Board die "möglichst viele" Slots rauszuholen. Zur Zeit nutze ich beide m.2 Slots sogar mit m.2 zu PCIe Risern.

     

    Der SATA Controller ist gar nicht so speziell. Habe ich vor ein paar Jahren günstig auf Ebay gekauft. Letztendlich stellt sich raus, dass es einer der sparsameren HBAs auf dem Markt ist und für HDDs mit ein paar SATA-SSDs vollkommen ausreichend ist.

     

    Wie es mit anderen "SATA-Erweiterungen" aussieht kann ich gar nicht genau sagen. Habe nur oft gelesen, dass einige Probleme machen und einige Karten ja einfach nur SATA "aufteilen", welche mit Unraid im Array nicht kompatible sind.

     

    Die ca 25W sind aber mit Vorsicht zu genießen.

    Unraid hat nur 4 Threads der CPU zugeteilt bekommen, Boost ist deaktiviert und so weiter. Wenn alle Platten (4xHDD,3xSSD) am laufen sind, war ich bei 35-40W. Mit Unraid 6.10 habe ich den Server etwas umgebaut, seitdem kam ich nicht mehr unter die 40W. Woran das liegt, konnte ich bisher noch nicht rausfinden.

     

    Ps: Mein Board ist nur noch sehr schwer zu bekommen. Es gibt zwar einen Nachfolger, dort sind aber in einigen CPU Kombinationen nicht mehr beide m.2 Slots gleichzeitig nutzbar. 

  7. Ich weiß nicht genau was du mit "mc" meinst, aber wenn du manuell kopierst hast du folgende optionen:

    *edit* okay, Midnight Commander im Terminal.

     

    quelle -> /mnt/user/share_name

    hier wird die Datei in den Share kopiert, wobei deine "cache einstellungen" beachtet werden. Wenn es auf "yes" steht, landen die daten erst im cache und werden dann vom mover verschoben.

    Bei "prefer" verbleiben die Daten auf dem Cache, bis kein Platz mehr ist. Sobald wieder Platz ist, wird der mover alle Daten auf den Cache verschieben.

    Bei "no" landen die Daten direkt auf dem Array

     

    quelle -> /mnt/user0/share_name

    hier landen die Daten direkt auf dem Array.

    Wenn der mover jedoch einsetzt, bei "prefer" auf den Cache verschoben.

     

    quelle -> /mnt/disk/disk_name

    hier wählst du explizit das Ziel Laufwerk für deine Daten.

     

     

    Die Frage ist jetzt, wie du genau "verschoben" hast?

     

  8. 8 minutes ago, dan4UR said:

    Vielleicht kann der ein oder andere Experte vielleicht noch erläutern woran es genau liegt, aber root und sudo scheinen sich nicht zu mögen und das Logfile deutet leider auch nicht darauf hin, dass genau hier der Fehler liegt.

    Ich bin kein Experte, aber ich vermute einfach mal, dass es daran liegt, das man als root ja schon "root" ist und man sich selbst nicht mehr als Superuser identifizieren muss?

    Ich muss ja als "normaler" Nutzer (mit root Rechten) sudo nur für Befehle verwenden, die Root oder Superuser Privilegien erfordern und mich auch dabei authentifizieren.

     

     

    Danke auf jeden Fall für die Zusammenfassung, werde diese morgen im Tutorial ergänzen.

  9. Seit (gefühlt) Unraid 6.10. ist mir auch aufgefallen, dass ich diverse (aber nicht alle) Container über Wireguard nicht mehr erreichen kann.

     

    Da wären unter anderem Nextcloud im "proxynet" custom bridge (bekannt aus den Spaceinverdaeone Video). Jedoch sind alle anderen Container aus dieser Custom Bridge zu erreichen.

    Zusätzlich ist ein Container welcher über einen VPN Container zu erreichen ist, nicht über WireGuard zu erreichen, jedoch über seine URL vom RevereProxy.

  10. Ich hatte die "Download"-Funktion vor/im Urlaub getestet, damit ich im Flieger und am Pool offline was auf meinem Handy (Pixel 5) schauen kann.

     

    Hat natürlich nicht geklappt.

    -Transcoded wurde ein Film, der nicht "kompatibel" war. Ok

    -Da im Hotel hier und da mal die Verbindung abbrach, konnte kein Film runtergeladen werden. Das "Fortsetzten" von Downloads ist mit der neuen "Download"-Funktion nämlich nicht mehr möglich.

    -Ein Film was augenscheinlich kommt "gedownloaded". Im Flieger musste ich dann feststellen, dass der Film nicht 1:37, sondern 2:05 lang ist.

     

    Letztendlich konnte ich nicht einen Filme/Folge per "Download" schauen.

  11. 3 hours ago, ich777 said:

    Das Hauptproblem ist jedoch das es nicht auf allen Fritzboxen getestet ist und evtl. nicht auf jeder funktioniert.

    Das kann ich so bestätigen.

    Für meine 7590 musste ich unter anderem die richtige metric für die verfügbare Bandbreite im Up/Downstream raussuchen und eintragen:

    image.thumb.png.d54ee334e9561dde74a60d615c8cf4d5.png

     

    Kann mir vorstellen, dass es bei anderen Modellen auch Abweichungen geben kann.

    • Like 1
  12. 11 minutes ago, hawihoney said:

    Wie kommst Du darauf? Ich habe alles in externen Speichern und alle Zugriffe erfolgen von Local und Remote über SMB oder die Nextcloud Oberfläche oder die Nextcloud App und und und.

    Ich hatte "extene Speicher" bisher so interpretiert um Speicher wie ext. HDDs, Cloud-Dienste, Netzlaufwerke, etc einzubinden. Daher vermute ich, dass dann zb die integration mit den "Gelöschten Dateien", wiederherstellungen, etc auf diesen Zielen nicht funktioniert. Wie gesagt, habe es nicht getestet eher eine interpretation.

    Diese "Funktionen" werden jedoch in meiner NC regelmäßig genutzt.

     

    15 minutes ago, hawihoney said:

    Du könntest z.B. im Nextcloud Container Mapping angeben (nur ein Beispiel):

    .../appdata/nextcloud/config/... --> /config

    .../appdata/nextcloud/data/... -> /data

     

    /appdata/nextcloud/ -> /data

    ist ja das default mapping

     

    ich könnte jetzt hingehen und folgendes mappen:

    /mnt/user/nextcloud-daten/user1 -> /data/user1

    /mnt/user/nextcloud-daten/user2 -> /data/user2

    ...

     

    Das wäre dann ja ein "mapping im mapping" im Container Template, oder? Mir wurde mal davon abgeraten.

  13. 10 minutes ago, hawihoney said:

    Ja, die Verwendung von "Externem Speicher" in Nextcloud.

    Hm,... ist in meinen Augen kein wirklicher Lösungsansatz, da die "Externen Speicher" ja nur wie ein "Dummer" Zusatzspeicher behandelt wird, ohne die "features" der Nextcloud an sich, oder?

    Aber gut, dann bleibt halt nichts anderes, als die komplette NC im Cache zu halten. Trotzdem Danke.

  14. Mal abgesehen wom UAD Spinup, den ich nach wie vor nicht in den Griff bekommen habe, oder nachvollziehen kann.

     

    Nextcloud trigger so oder so recht oft einen Spinup der Platte im Array, auf dem /data liegt. Dort liegen neben den Daten der User aus der NC auch einige andere Dinge:

    image.png.5f04c955aaa1e890866b290d04b75e8b.png

    (User Ordner wurden rot unkenntlich gemacht)

    Ich denke dinge die wie index.html, *.log, etc können für weitere Spinups verantwortlich sein.

    Gibt es hier nen Lösungsansatz das nocheinmal von einander zu Trennen? Also die User Files auf dem Array zu belassen und den Rest auf den Cache?

    Normalerweise sollte dafür doch "Appdata" da sein, oder nicht?