Jump to content

RiDDiX

Members
  • Posts

    172
  • Joined

  • Last visited

Posts posted by RiDDiX

  1. Im Endeffekt geht das ganz Simpel du brauchst nur Zeit.

    Array stoppen und bei den DISKs welche du ersetzen willst auf NoDevice stellen. Array starten, danach wieder stoppen und bei den NoDevices die neuen Platten hinzufügen. Die alten würde ich erstmals drin behalten und abwarten bis der Party-Sync/-Rebuild erfolgreich abgeschlossen ist und du überprüft hast ob alle Daten funktionsfähig vorhanden sind.

     

    Array stoppen - Alten Platten auf "no device" - Array starten - Array stoppen - Bei "no device" nun die neuen rein - Array starten. Sync/Rebuild starten 🙂

  2. 24 minutes ago, aymanibousi said:

    This is

     

    This has fixed it! THank you :) (the sound isnt working but ill figure that out later)

     

    For sound try this one:

     

    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm' id='1'>
      <name>Windows 11</name>
      <uuid>2993aff2-080c-c6a7-6fd0-cff5b23e0355</uuid>
      <metadata>
        <vmtemplate xmlns="unraid" name="Windows 11" icon="windows11.png" os="windowstpm"/>
      </metadata>
      <memory unit='KiB'>8388608</memory>
      <currentMemory unit='KiB'>8388608</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>6</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='1'/>
        <vcpupin vcpu='1' cpuset='7'/>
        <vcpupin vcpu='2' cpuset='3'/>
        <vcpupin vcpu='3' cpuset='9'/>
        <vcpupin vcpu='4' cpuset='5'/>
        <vcpupin vcpu='5' cpuset='11'/>
      </cputune>
      <resource>
        <partition>/machine</partition>
      </resource>
      <os>
        <type arch='x86_64' machine='pc-q35-6.1'>hvm</type>
        <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi-tpm.fd</loader>
        <nvram>/etc/libvirt/qemu/nvram/2993aff2-080c-c6a7-6fd0-cff5b23e0355_VARS-pure-efi-tpm.fd</nvram>
      </os>
      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='1234567890ab'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <vmport state='off'/>
        <ioapic driver='kvm'/>
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='3' threads='2'/>
        <cache mode='passthrough'/>
      </cpu>
      <clock offset='localtime'>
        <timer name='hypervclock' present='yes'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <disk type='file' device='disk'>
          <driver name='qemu' type='raw' cache='writeback'/>
          <source file='/mnt/user/domains/Windows 11/vdisk1.img' index='2'/>
          <backingStore/>
          <target dev='hdc' bus='virtio'/>
          <boot order='1'/>
          <alias name='virtio-disk2'/>
          <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/>
        </disk>
        <disk type='file' device='cdrom'>
          <driver name='qemu' type='raw'/>
          <source file='/mnt/user/isos/virtio-win-0.1.190-1.iso' index='1'/>
          <backingStore/>
          <target dev='hdb' bus='sata'/>
          <readonly/>
          <alias name='sata0-0-1'/>
          <address type='drive' controller='0' bus='0' target='0' unit='1'/>
        </disk>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <alias name='usb'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <alias name='usb'/>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci2'>
          <alias name='usb'/>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci3'>
          <alias name='usb'/>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <controller type='sata' index='0'>
          <alias name='ide'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/>
        </controller>
        <controller type='pci' index='0' model='pcie-root'>
          <alias name='pcie.0'/>
        </controller>
        <controller type='pci' index='1' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='1' port='0x8'/>
          <alias name='pci.1'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0' multifunction='on'/>
        </controller>
        <controller type='pci' index='2' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='2' port='0x9'/>
          <alias name='pci.2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
        </controller>
        <controller type='pci' index='3' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='3' port='0xa'/>
          <alias name='pci.3'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
        </controller>
        <controller type='pci' index='4' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='4' port='0xb'/>
          <alias name='pci.4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x3'/>
        </controller>
        <controller type='pci' index='5' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='5' port='0xc'/>
          <alias name='pci.5'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x4'/>
        </controller>
        <controller type='pci' index='6' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='6' port='0xd'/>
          <alias name='pci.6'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x5'/>
        </controller>
        <controller type='virtio-serial' index='0'>
          <alias name='virtio-serial0'/>
          <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:ce:2c:a3'/>
          <source bridge='br0'/>
          <target dev='vnet0'/>
          <model type='virtio-net'/>
          <alias name='net0'/>
          <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
        </interface>
        <serial type='pty'>
          <source path='/dev/pts/0'/>
          <target type='isa-serial' port='0'>
            <model name='isa-serial'/>
          </target>
          <alias name='serial0'/>
        </serial>
        <console type='pty' tty='/dev/pts/0'>
          <source path='/dev/pts/0'/>
          <target type='serial' port='0'/>
          <alias name='serial0'/>
        </console>
        <channel type='unix'>
          <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-1-Windows 11/org.qemu.guest_agent.0'/>
          <target type='virtio' name='org.qemu.guest_agent.0' state='connected'/>
          <alias name='channel0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='mouse' bus='ps2'>
          <alias name='input0'/>
        </input>
        <input type='keyboard' bus='ps2'>
          <alias name='input1'/>
        </input>
        <tpm model='tpm-tis'>
          <backend type='emulator' version='2.0' persistent_state='yes'/>
          <alias name='tpm0'/>
        </tpm>
        <audio id='1' type='none'/>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev0'/>
          <rom file='/mnt/user/isos/vbios/GF108_GT730_UEFI.rom'/>
          <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0' multifuntion='on'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev1'/>
          <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x1'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
      <seclabel type='dynamic' model='dac' relabel='yes'>
        <label>+0:+100</label>
        <imagelabel>+0:+100</imagelabel>
      </seclabel>
    </domain>

     

  3. 3 hours ago, dlandon said:

    Thanks for the feedback.  I assume you used the 'Enhanced' script?  That script is great for notifications on the progress of a preclear.

     

    I had to do a lot of rewrite to the background task being used before that was called 'rc.diskinfo'.  I had several instances where a preclear would hang.

     

    There was a lot of stuff duplicated by the Preclear Disk plugin that was already being handled by UD.  That's why it is an add on to UD.  It uses some UD functionality.

     

    Most of the work other than that was Gui stuff, and I felt it very important to only present disks that were actual candidates for a preclear, rather than all unassigned disks.

     

    I think in general you'll find this version a lot smoother.

     

    I always try software as it is. I used the "Enhanced" script because its the only option. xD It worked out of the box without any problems. Last time I used the "old" preclear plugin it took approximately 20 hours +/-. Maybe some other stuff was running but with this plugin here it took 16 hours +/- some minutes.

    So far cant tell anything badly behaving or something similar. It just works thank you.

  4. Da haben wir den Fehler schon fast gefunden. Sorry für die späte Antwort.

     

    Kannst du mir Screenshots / Fotos des BIOS unter PCIE Geräten schicken? Da ich nicht weiß wie das aktuell BIOS beim z590 aufgebaut ist.

     

    Wenn du die möglichkeit hast und bei PCIE Slots die Lanes usw. einstellen kannst 4x4 8x4 usw. schreib welche Möglichkeiten du da hast.

     

    Ideal wären für die beiden Erweiterungskarten einfach 4x nehmen und bei der GPU 16x wenn geht.

     

    Ja ich hab alles belegt, aktuell glaube ich sogar, dass kein einziger Slot frei ist, weder SATA noch PCI/PCIe. NVMe hab ich aber nur in 1 und 2 da der dritte mir SATA Ports killt.

     

    EDIT:

    SORRY habe die Screenshots nun gesehen 8x4x4x und testen. Das sollte ausreichend für alle drei Geräte sein.

  5. Edit VM with advanced view:

     

    look up these here and add this one marked with the star but please add them without the star

     

      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='1234567890ab'/>*
        </hyperv>
        <kvm>
          <hidden state='on'/>*
        </kvm>
        <vmport state='off'/>*
        <ioapic driver='kvm'/>*
      </features>

     

     

    Should then looks like this:

     

    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm' id='1'>
      <name>Windows 11</name>
      <uuid>2993aff2-080c-c6a7-6fd0-cff5b23e0355</uuid>
      <metadata>
        <vmtemplate xmlns="unraid" name="Windows 11" icon="windows11.png" os="windowstpm"/>
      </metadata>
      <memory unit='KiB'>8388608</memory>
      <currentMemory unit='KiB'>8388608</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>6</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='1'/>
        <vcpupin vcpu='1' cpuset='7'/>
        <vcpupin vcpu='2' cpuset='3'/>
        <vcpupin vcpu='3' cpuset='9'/>
        <vcpupin vcpu='4' cpuset='5'/>
        <vcpupin vcpu='5' cpuset='11'/>
      </cputune>
      <resource>
        <partition>/machine</partition>
      </resource>
      <os>
        <type arch='x86_64' machine='pc-q35-6.1'>hvm</type>
        <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi-tpm.fd</loader>
        <nvram>/etc/libvirt/qemu/nvram/2993aff2-080c-c6a7-6fd0-cff5b23e0355_VARS-pure-efi-tpm.fd</nvram>
      </os>
      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='1234567890ab'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <vmport state='off'/>
        <ioapic driver='kvm'/>
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='3' threads='2'/>
        <cache mode='passthrough'/>
      </cpu>
      <clock offset='localtime'>
        <timer name='hypervclock' present='yes'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <disk type='file' device='disk'>
          <driver name='qemu' type='raw' cache='writeback'/>
          <source file='/mnt/user/domains/Windows 11/vdisk1.img' index='2'/>
          <backingStore/>
          <target dev='hdc' bus='virtio'/>
          <boot order='1'/>
          <alias name='virtio-disk2'/>
          <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/>
        </disk>
        <disk type='file' device='cdrom'>
          <driver name='qemu' type='raw'/>
          <source file='/mnt/user/isos/virtio-win-0.1.190-1.iso' index='1'/>
          <backingStore/>
          <target dev='hdb' bus='sata'/>
          <readonly/>
          <alias name='sata0-0-1'/>
          <address type='drive' controller='0' bus='0' target='0' unit='1'/>
        </disk>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <alias name='usb'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <alias name='usb'/>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci2'>
          <alias name='usb'/>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci3'>
          <alias name='usb'/>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <controller type='sata' index='0'>
          <alias name='ide'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/>
        </controller>
        <controller type='pci' index='0' model='pcie-root'>
          <alias name='pcie.0'/>
        </controller>
        <controller type='pci' index='1' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='1' port='0x8'/>
          <alias name='pci.1'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0' multifunction='on'/>
        </controller>
        <controller type='pci' index='2' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='2' port='0x9'/>
          <alias name='pci.2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
        </controller>
        <controller type='pci' index='3' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='3' port='0xa'/>
          <alias name='pci.3'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
        </controller>
        <controller type='pci' index='4' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='4' port='0xb'/>
          <alias name='pci.4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x3'/>
        </controller>
        <controller type='pci' index='5' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='5' port='0xc'/>
          <alias name='pci.5'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x4'/>
        </controller>
        <controller type='pci' index='6' model='pcie-root-port'>
          <model name='pcie-root-port'/>
          <target chassis='6' port='0xd'/>
          <alias name='pci.6'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x5'/>
        </controller>
        <controller type='virtio-serial' index='0'>
          <alias name='virtio-serial0'/>
          <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:ce:2c:a3'/>
          <source bridge='br0'/>
          <target dev='vnet0'/>
          <model type='virtio-net'/>
          <alias name='net0'/>
          <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
        </interface>
        <serial type='pty'>
          <source path='/dev/pts/0'/>
          <target type='isa-serial' port='0'>
            <model name='isa-serial'/>
          </target>
          <alias name='serial0'/>
        </serial>
        <console type='pty' tty='/dev/pts/0'>
          <source path='/dev/pts/0'/>
          <target type='serial' port='0'/>
          <alias name='serial0'/>
        </console>
        <channel type='unix'>
          <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-1-Windows 11/org.qemu.guest_agent.0'/>
          <target type='virtio' name='org.qemu.guest_agent.0' state='connected'/>
          <alias name='channel0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='mouse' bus='ps2'>
          <alias name='input0'/>
        </input>
        <input type='keyboard' bus='ps2'>
          <alias name='input1'/>
        </input>
        <tpm model='tpm-tis'>
          <backend type='emulator' version='2.0' persistent_state='yes'/>
          <alias name='tpm0'/>
        </tpm>
        <audio id='1' type='none'/>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
          </source>
          <alias name='hostdev0'/>
          <rom file='/mnt/user/isos/vbios/GF108_GT730_UEFI.rom'/>
          <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/>
          </source>
          <alias name='hostdev1'/>
          <address type='pci' domain='0x0000' bus='0x05' slot='0x00' function='0x1'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
      <seclabel type='dynamic' model='dac' relabel='yes'>
        <label>+0:+100</label>
        <imagelabel>+0:+100</imagelabel>
      </seclabel>
    </domain>

     

    • Thanks 2
  6. Zu dem Bluetooth Problem kann ich leider nichts sagen, da es beim z490 Aorus Ultra läuft ohne Probleme, der andere Server ist auf AM4 und hat kein Onboard Bluetooth/WLAN dort habe ich eine billow PCIe Card eingebaut. Frag mich nicht was für ein Hersteller, aber immerhin mit Intel Chips for WiFi und Bluetooth. xD

     

    Zum alten Thema zurück, würde ich wenn für dich möglich, dennoch mal meine Reihenfolge versuchen. Just to know if will work or not.

    • Like 1
  7. Bei sowas fang ich das sabbern an 🤤

     

    Consumer Netzteile reichen dafür vollkommen aus und sind ohne Mod auch schon schön leise. xD Redundant vlt dann nicht, aber da wären wir in nem Enterprise-Bereich wo Server mit zwei oder mehr Netzteilen mit HotSwap-Funktion daher kommen. Turbolader will man im normalen Home-Bereich nicht umbedingt haben. (Keller ausgenommen).

    Die Corsair RM *** 2021 Netzteile sind super, haben genügend Anschlüsse sind sparsam bei Niedriglast und Feuern bei Bedarf ordentlich durch. Würde ich nur Servernetzteile verbauen könnte ich in meinem Büro keine 10 Minuten verbringen xD

    Ich meine ich hab Kollegen die verbauen billig China-Böller als Netzteile, da würde ich sowas schreiben xD

     

    Ich finde den Aufbau des Server gelungen, nur den Stock Kühler der CPU würde ich tauschen und in den hinteren bereichen wo zwei Lüfter reinpassen die kleinen von Noctua. Die 1x 10GB Karte gegen eine zwei-Port 10GB Karte tauschen (Intel 10-Gigabit X540-AT2) und ich wäre happy. 🙂

    Drei Punkte, sonst finde ich das super.

     

    Meine Server und deren Kabelverhau poste ich lieber nicht. xD

  8. 22 hours ago, ivans89 said:

     

    Im Prinzip funktioniert es bei mir ja auch. Ich habe aus der Config das overwrite hostname rausgemacht und kann intern mit ip:port drauf zugreifen und habe halt fast volle Geschwindigkeit. Außerhalb ganz normal per Domain. Ich wollte ja eigneltich das wenn ich die Domain eingebe er im Netzwerk die ip:port revoled und extern wegen über meine externe IP. Das funktioniert ja scheinbar nur mit eigenem DNS Resvoler.

     

    Dazu musst ja nen eigenen DNS Resolver haben... Du umschreibst ja etwas.

    z.B. wenn von Intern: nextcloud.xyz.zyx -> 10.10.10.XX:XXXX


    Du könntest dir ja AdGuard Home als Docker einrichten und diesen per DNS-Advertise in deinem Router an die Clients bekannt geben, dort kannst du Hostname-Umschreibungen usw. einrichten.

     

    Das ist aber dann wieder ein anderes Thema.

  9. HiHo,


    es ist völlig egal in welchem Slot die Karte(n) sitzt(en), meistens. GPU würde ich in den Slot 3* packen, wenn du damit nicht zockst, sonst in Slot 1. Mellanox dann in den 2* oder 3 Slot, das LSi in Slot 1* oder 2.

     

    *Preferred Slot

     

    Im BIOS ebenfalls prüfen ob alles erkannt wird. Da ich hier das nur mit einem Aorus Ultra Z490 und i9-9900K gegenprüfen könnte, kann ich nicht versprechen ob das bei dir so auch funktioniert.

    Normal sieht aber bei dir nichts komisch oder falsch aus.

     

    CSM ist bei mir aktiviert sowie UEFI Boot.

     

     



     

  10. Der Stromverbrauch hängt stark von den gesamten Komponenten ab, welche im Server landen. Ich bin z.B. mit meinem 3900x sowie meinen gefühlt 20 Festplatten im "Idle" bei 60-80 Watt. Ist viel aber es laufen auch zig Docker, welche für mich viele andere Dienste eingespart haben. Bei dir könnte man schon so von 20-45W ausgehen, da du bestimmt einige Festplatten verbauen willst, auch hängt es stark davon ab, auf welche Datenträger deine VMs und Docker dann zum schreiben/lesen Zugriff bekommen.

    Wie mein Vorredner anmerkt, ist Unraid nur mit Cache (SSDs) schnell beim Schreiben, dass Lesen erfolgt über die HDDs und ist dementsprechend schnell oder langsam. Da ich auf Speed auch sehr viel Wert lege und z.B. 120-220MB/s erreich reicht mir das. Ich bearbeite Videos 4-8K sowie CAD und dafür reicht mir der Speed beim Lesen vollkommen aus, beim Schreiben geschieht das über den Cache mit Samsung EVO Plus 2TB NVMe und da erreiche ich fast die vollen 10GB vom RJ45 ^^

    Bedürfnisse sowie Anforderungen müssten halt geklärt werden.

    Wenn nur die zwei VMs wichtig sind und das NAS als Datengrab leben soll, reichen normale HDDs vollkommen aus, wenn die Specs halt auch entsprechende Werte beim Schreiben-/Lese-Zugriff aufweisen, Hersteller mogeln aber oft argh mit den Angaben.

  11. Ich hab den normalen NextCloud Docker in Betrieb.

     

    Dort habe ich nur zwei Einträge, welche einen Hostname an NextCloud verteilen.

     

    NEXTCLOUD_HOSTNAME:

     

    NEXTCLOUD_TRUSTED_DOMAINS:

     

    dort sind nur die Domains / die Domain des NextCloud Dienstes hinterlegt. xxxxx.xxxxx.xx

     

    Ich kann ohne Probleme von Intern mittels IP:Port darauf zugreifen sowie per Handy und Laptop von Extern. Geschwindigkeit von Intern ist 10GB entsprechend schön schnell (HDDs drosseln atm). Extern je nach Empfang xD. Beklagen kann ich micht da nicht. Ich hab sonst in meinem NextCloud nicht viel gemacht, außer einige Plugins/Erweiterungen installiert. PhoneTrackr, AudioPlayer, Maps, Contacts/CAL-DAV und dies alles funktioniert schön schnell... Einzig das PhoneTrackr braucht immer etwas die Map vollständig zu laden, liegt aber daran, dass ich dort eine sehr geringe Anzahl der Routen eingestellt habe. Synct all 100m die Points per Batch, somit sind das ein paar Daten xD

  12. 26 minutes ago, mgutt said:

    ... sollte SSH gar nicht erst über das Internet erreichbar sein.

     

    Ansich sage ich bei sowas immer nur bedingt. Es kommt auf die Sicherung des SSH Ports an. Ich empfehle, wenn er wirklich direkt offen sein muss, dann anderen Port als 22 und vor allem mit Key-Files + PW. Am besten ist sowas per VPN zu realisieren, aber vielen ist das zu umständlich.

     

    Zurück zu Fail2Ban Problem. Ansich scheint da gar nichts geblockt zu werden. Du bannst ja nur im Docker Fail2Ban sonst nirgends. So lange dein Traffik nicht durch den Fail2Ban Docker geroutet wird bringt das alles nichts. Sonst so kann man anhand deiner gelieferten Infos nicht viel mit der Konfig anfangen. Sorry

  13. 2 hours ago, froschmonaut said:

    Ich hab zu meinem Tower auch eine Frage zu unraid und zwar ist es möglich ein pcie gerät z.b. eine WLAN Karte an eine vm direkt durchzuschleifen?

    Ja musst im BIOS IMMOU Gruppen aktivieren und dann unter Tools -> System Devices im Unraid die VMs binden. Dann nochmal neustarten und schwups solltest du diese durchreinen können.

     

    Ansich schicker Aufbau, aber da habe ich doch lieber Kabelsalat als Schlauchsalat im Server xD

  14. Sehr cool gemacht!!! Sieht Klasse aus und wenn es deinen Zweck entsprechend erfüllt ist alles richtig gemacht. Ich hab hier auch ein Rack rumstehen, aber ist nicht in Verwendung. Ich warte noch auf das Kleingeld für meine 10GB Netzwerk-Upgrades. xD

    Derzeit sind meine Unraid in Fractal Design Gehäusen verbaut Define R7 und Define R5 glaube ich, dass die so heißen xD Schallgedämmt fast lautlos. Statt Notcua Lüfter habe ich, da Masse im Business-Bereich wesentlich günstiger zu bekommen waren, Arctic PWM PST Lüfter verbaut. Beide Server extrem Leise und Stabil, einzig mein Kabelmanagement mit den mittlerweile 3 HBAs sieht verwerflich aus. xD

    Ich hab ein 19" Rack hier, werde aber da mir dein Aufbau extrem gefällt ggf. doch noch ein 10" besorgen. Basteln tue ich für mein Leben gern. xD 

    Egal ob Elektro-Bastelei oder mit Staub und Dreck. xD Meine Leidenschaft und Beruf sind aber IT, laut meinen Bekannten trennen sich bei denen Welten, wenn ich sage was ich alles selbst mache 🙂

    Ich würde für mich persönlich an den Seiten aber Staubschutzfilter installieren / montieren. Staubt eh alles immer so schnell zu.. xD

  15. Wie auch ich bereits sagte, die Daten werden abgegriffen und übertragen. Kann man selbst mit WireShark und DPI nach gucken. Wie hawihoney selbst schreibt, weiß man auch nie was mit den Daten angestellt wird.

    Worst-Case wie hawihoney auch schreibt, deine Login-Daten werden von einem Leecher zu einem Upper aufgewertet und schon sieht es schlecht aus, vor allem wenn du dich nicht mit einem VPN auf die Usenet Server verbindest...

  16. On 2/7/2022 at 9:58 PM, DataCollector said:

    I did not read all the answers.

    I have 300+ TB.

    Is this much?

    :)

     

    Just for the future use of unraid, I could really use multi Arrays or more than 30 Devices, to go further than 400+ TB.

     

    UR-TESSA-CAPACITY.png

     

    Holy Cow! xD I "just" got 82TB and it is just nearly half filled. But you GOT 388TB AND FILLED 340TB DAFUQ xD

  17. 1 hour ago, saber1 said:

    Ich habe ne Blue NVMe seit Ende 2020 im Einsatz und kann nichts negatives Berichten. Wobei ich sie lediglich als Disk für VMs nutze.

     

    Mich interessiert das eigentlich noch / hauptsächlich im Bereich Cache. Da ich mein Unraid oft extrem missbrauche was Read-Write-Performance angeht. Ich werde aber bald mir eine andere SSD besorgen. Es gibt im Enterprise-Bereich einige 4-8TB NVMe SSDs mit beachtlichen Lesen und Schreibwerten. xD

  18. Ich würde auch SSDs nicht als Parity verwenden, klar wäre das wesentlich schneller, aber die Belastung (Lese- / Schreib-Zyklen) wären ja enorm. Auch gibt es für mich keine bezahlbaren 16-20TB SSDs.

    Ich hab zum Beispiel in einem dritt Server mal Unraid als Testversion laufen gehabt mit Standard Samsung Pro 850 Sata SSD 2TB als Array 2x und Parity 2x WD Blue 4TB. Das lief schön schnell. Dennoch liebe ich bei Unraid einfach die Cache-Option und mit den bei dir im Test verwendeten SanDisk 4TB SSDs, welche ich ebenfalls besitze habe ich keinen Schmerz was die Datenübertragung angeht. 10GB Netzwerk ist aktuell im Aufbau nur relativ Kosten- und Zeit-Intensiv, bevor das nicht abgeschlossen ist habe ich kaum Vorteile gegenüber normalen HDDs, da selbst bei 1GB max 110MB/s erreicht werden beim übertragen auf die Array HDDs direkt. Einzig mein HauptPC ist direkt per 10GB an den Server per 10GB verbunden, da merkt man den Cache schon mit bis zu 800MB/s xD

    Mich würde es ja interessieren ob z.B. die NVMe WD Blues so viel "schlechter" sind als deren RED SSDs für NAS-Systeme. Dazu habe ich noch kaum bis fast keine erschlussreichen Vergleich gefunden..

  19. 4 hours ago, mgutt said:

    Was ich bei JellyFin unsympathisch finde, ist dass deren Bug Issues automatisch geschlossen werden, wenn sie länger keine Kommentare mehr hatten. Also da gibt sich jemand die Mühe und meldet einen Fehler, dann hat noch keiner Zeit sich der Sache anzunehmen und irgendwann ist es zu und dann schaut es sich erst recht keiner an. Kennen wir zu genüge von Plex.

     

    OK dem stimme ich zu, beobachte das ja selbst, bin aber dennoch irgendwie aktuell bei Jellyfin was die "Schnelligkeit" angeht hängen geblieben. Die Zeit wirds zeigen, was, wie und wohin das ganze geht. Plex usw. ist bei mir noch als Docker vorhanden nur aktuell nicht mehr gepflegt 😅

  20. Da hier jemand sehr schön Jellyfin erwähnt hat binde ich diesen nochmal mit ein.

    Ich hab nun so ziemlich alle durch, Kodi ist schön aufgebläht und kann viel aber nicht sonderlich "schön" für mich. Plex war / ist die eierlegende Wollmilchsau, aber vieles nur mit dem Pass richtig geil. JellyFin bietet mir, nach meiner Ansicht, das beste Gesamtpaket. Es ist leicht (Ressourcen schohnend) schnell und lässt sich super schön über das Internet erreichbar machen mit expliziten Einstellmöglichkeiten für Benutzer und den dazugehörigen Bibliotheken. Altersfreigaben sowie einzelne Bibliotheken waren so schön einzurichten, dass ich meinen Plex Pass gekündigt habe und jetzt ausschließlich Jellyfin benutze.

    Ja bei den großen Herstellen hinken die noch etwas nach, was die Clients angeht, da ich aber trotzdem Samsung einen FireTV-4K Stick im Schlafzimmer habe und im Wohnzimmer einen HTPC mit Windoof und Jellyfin Client finde ich das total vernachlässigbar. (Beide Zimmer sind mit Samsung TVs ausgestattet.)

    Overall finde ich Jellyfin einfach extrem sexy und schön zu benutzen. Wie gesagt vor allem die Systemlast bei 4K HDR+ DV usw. usv. ist um Welten besser als bei Plex... Keine Ahnung wieso xD

    • Like 1
  21. Momentum ist das wohl gefährlichste Programm als Usenet Downloader / Reader was es derzeit gibt. Auch wenn er vlt schick aufgebaut sein möchte gibt es immer wieder berichte, dass dieser die Nutzerlogin-Daten der Usenet-Provider an die Entwickler weiterleitet. Diese dann die Login-Daten selbst verwenden und oder verkaufen.

     

    Dennoch, wenn man es möchte befolge die Einrichtung wie in dem Github geschildert.

    Ich will dennoch vor dem Client warnen.

×
×
  • Create New...