SiNtEnEl

Members
  • Posts

    85
  • Joined

  • Last visited

Posts posted by SiNtEnEl

  1. Hi Squid,

    First of all thank you for your continues support to the community with your support.
    This is more like a feature request / improvement, rather then a support question. 

    When u search for a application, already installed apps are matched based on there name and shown.
    But if u give custom names to your containers, the won't be matched and thus not shown as installed.
    I was wondering if matching couldn't be done based on the repo name or the docker hub used.

    Off-course its a minor, and installed apps are list-able as well.

     

  2. Ok, it seems i was wrong with my feeling. As it looks like it's something to do with the windows driver.. Same hardware / network configuration with linux performs with full 10Gbe.
    Used a instance with the same and other kernel module / driver and seen no issues at all.


    Will need to test with various other windows drivers for the x540-t2, to see how to get rid of the bottleneck.

    So this mystery is solved. Sorry, i suspected Unraid in this case.

    Thank you @Vr2Io for thinking along in this process.

    • Like 1
  3. Using Opensense for intervlan routing, firewall and tunnels. No traffic passing trough that while testing. (checked logging and tested with opensense shutdown)
    6 VLANS on my network currently, mainly to separate management, docker, trusted, guest, wlan, iot services on my network and outside of it.
     

    - Tested with windows 10 with firewall on, 1.55 Gbits/sec (old install)
    - Tested MTU 1500 both end + Windows11 clean, 1.54 Gbits/sec
    - Tested MTU 9000 both end + Windows11 clean, 1.55 Gbits/sec
    - Tested on Untagged network + Windows11 clean, 1.55 Gbits/sec
    - Tested on Tagged VLAN20 network + Windows11 clean, 1.55 Gbits/sec (VLAN unraid)
    - Tested on Tagged VLAN20 network, + Windows11 clean 1.55 Gbits/sec (bridged + VLAN unraid)
    - Tested with windows 11 with firewall off, 1.55 Gbits/sec (clean install, OS + NIC driver)
    - Tested with cross connection (direct), 1.55 Gbits/sec (to rule out switch issue)
    Checked with wireshark, don't see anything strange in there either.

     

    - Validated PCIe on both ends 8x, tested different slots as well.
    - Tested multiple CAT6 / 7 cables and tested all cables.

     

    Planning to test on linux today on the desktop side, to rule out windows driver issues..
    If that result in same results.. i'm going to test with a different linux on my unraid server.

    If that results in nothing... i will start replacing nics.. because there is nothing left to test..

    But my feeling is that its a issue with the ixgbe kernel module on the unraid end.
    Since there more people complaining about it on the forums.

    For example:
     

  4. Nov 15 21:12:00 UnNASty kernel: ixgbe: Intel(R) 10 Gigabit PCI Express Network Driver
    Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Multiqueue Enabled: Rx Queue count = 12, Tx Queue count = 12 XDP Queue count = 0
    Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: 32.000 Gb/s available PCIe bandwidth (5.0 GT/s PCIe x8 link)
    Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Intel(R) 10 Gigabit Network Connection

    Was already in a 8x slot, tried a differnt 8x slot.. No joy sadly :(

  5. Hello unraid friends,

     

    For some reasons since a couple of versions of unraid i have been stuggling with my network speeds.
    In the past i was able to saturate the connection to full 9Gbe plus speeds, where it dropped a while ago.
    Any direction speeds seem to be capped to 1.5Gbe on a 10Gbe my network.

    Where i simply lacked the time to fully debug it or find the root cause, its been like this for a long while.

     

    [ ID] Interval           Transfer     Bandwidth
    [  4]   0.00-1.00   sec   182 MBytes  1.53 Gbits/sec
    [  4]   1.00-2.00   sec   183 MBytes  1.54 Gbits/sec
    [  4]   2.00-3.00   sec   183 MBytes  1.54 Gbits/sec
    [  4]   3.00-4.00   sec   183 MBytes  1.54 Gbits/sec
    [  4]   4.00-5.00   sec   184 MBytes  1.54 Gbits/sec
    [  4]   5.00-6.00   sec   183 MBytes  1.54 Gbits/sec
    [  4]   6.00-7.00   sec   182 MBytes  1.52 Gbits/sec
    [  4]   7.00-8.00   sec   183 MBytes  1.53 Gbits/sec
    [  4]   8.00-9.00   sec   183 MBytes  1.54 Gbits/sec
    [  4]   9.00-10.00  sec   185 MBytes  1.55 Gbits/sec
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval           Transfer     Bandwidth
    [  4]   0.00-10.00  sec  1.79 GBytes  1.54 Gbits/sec                  sender
    [  4]   0.00-10.00  sec  1.79 GBytes  1.54 Gbits/sec                  receiver

     

    Primary i had a untagged management network, and a trunk towards unraid. Where i run a bridged network, with the vlans configured on it.

    At first i thought the bridge was to blame in my Unraid set, so i have redone interfaces and setup a untagged unbridged network tagged on the switch. Same result, still limited to 1.5Gbe. Then i suspected my netgear GS110EMX 10Gbe ports, so i tested with a direct connection (cross) between the 10Gbe nics. Same result capped at 1.5Gbe. After that i tested some new cables, also same results.

    Lots of testing further, i can only conclude it seems to be a issue in unraid or driver related. Tried differnt MTU and settings, all resulting in 1.5Gbe speeds. No high packat droprates either.

     

    So anyone else experience issues with the Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) in combination with Unraid?
    Im considering getting a new nic to further debug this.. but i rather not spend the extra money if this is likely driver related.

    Any ideas or tips are welcome as well.

    Best regards,

    Sintenel

     

  6. Heb hier drie Ubiquiti UAP-AC-LR in combinatie met netgear switches op 10GB. Prima voor mijn usecase.
    Wil binnenkort wel upgraden naar de WIFI6 accesspoints mits de firmware wat stabieler gaat worden.

    Had hier in de early access nog wel overwogen om deze mee te gaan pakken, maar was net te laat.

     

    Over early access gesproken: Switch Flex XG is wel een serieuze overweging waard om in te stappen.
    https://eu.store.ui.com/collections/unifi-network-routing-switching/products/unifi-flex-xg-beta
    Is sinds medio april in de early access gegaan in europa. Maar goed, software bij Ubiquiti is altijd een ding. (Mijn mening :))
    Wel lijkt het op het forum langzaam aan mee te vallen met de issues, dus verwacht dat dit wel de goede kant op gaat.

    25Watt voor 4 10GBe poorten en met een prijs van 219euro. Zou met een week of twee weer beschikbaar moeten zijn.
    Account aanmaken en inschrijven voor early access en beta programma.

     

    Heb zelf opnsense als VM op mijn unraid machine draaien met dedicated iommu nics als firewall en layer3 router.

    Gigabit internet snelheid gaat prima, maar ik zou niet 10GBe op een hypervisor hosten en inderdaad dedicated gaan.

    De 540-T2 moet je met volle 10GBe rekening houden met ongeveer 20watt verbruik, dus inderdaad niet heel zuinig.
    Dan met bovenstaande hardware, zou ik rekening houden met een kleine 50w load op de betreffende machine.

    Stroom met 50w kost je 91,98euro per jaar.. als de switch de helft aan stroom verbruik is bespaar je 45eur per jaar.

    Maar goed, zonnepanelen moeten zich ook niet vervelen ;-)

     

    Ik vind de keystones prima te werken, maar goed.. gebruik net zo makkelijk een tang of plunge tool.

    Ja, je kan CAT5e gebruiken, heb dit in het verleden ook wel gedaan. Maar dit was niet helemaal probleemloos.

    Blijft een kosten afweging, afstand en mogelijke factoren die interferentie kunnen geven op de kabels.

     

    Verder heb ik best wat ruzie met unraid als het om 10GBe gaat vanaf SMB in combinatie met VLAN's binnen Unraid.
    Maar goed, heb er voor nu mee leren leven.. 500MBs te veel configuratie om weer om te bouwen om zaken te testen.
    Nee dit verkeer gaat niet over VLAN's heen.. denk dat het in de custom networks zit icm docker.

     

  7. SFP is glasvezel, en ik persoonlijk zou dit niet door de muren gaan trekken. Dit kan tevens een vrij dure exercitie gaan worden voor dergelijke afstanden en lassen is ook een ding.
    Als consument zou ik dit enkel dus in de zelfde ruimte gebruiken, daarbij verwacht ik dat 10GBe beter beschikbaar gaat worden voor de consument.. Hopelijk droppen ze 2.5gbe.
     

    Persoonlijk zou ik voor een CAT6A/7 oplossing kiezen en deze kabels zelf maken van rol, en kan je inderdaad afmonteren op keystones in een media box of patchpanel bij het rack.
    Op de betreffende kamers kan je kiezen voor een inbouw / opbouwdoos of een media box op de muur zetten als je daar ook keystones wil hebben. Keystones zijn makkelijker. (vind ik) Verder zou ik qua kosten gewoon voor CAT7 kabel gaan, iets duurder (10euro ongeveer per 100m). Niet echt noodzakelijk, tenzij je 100meter aan een stuk door een huis trekt.

    Met deze oplossing kan je wel de asus nics gebruiken, let op! deze zijn niet altijd even probleemloos onder linux!! Persoonlijk zou ik kiezen voor een intel 540-t of 550-t onder unraid. https://tweakers.net/pricewatch/549619/intel-x550-t2-10gbe-network-adapter.html bijvoorbeeld nieuw. (zijn ook goed refurbished of tweedehands te krijgen voor een acceptabele prijs) Onder windows kan je goed weg komen met een asus kaart (Aquantia controller)


    Voorbeeld van cat7 kabel om door muur te trekken:
    https://www.utp-kabel.nl/danicom-cat7-s-ftp-100m-op-rol-stug-lszh-eca.html

    Voorbeeld connectors:
    https://www.utp-kabel.nl/sftp-pimf-cat6a-7-toolless-rj45-connector-10-gigabit-voor-stugge-kern.html

     

    Zonder keystones op de muur:

    Opbouw doos, vind ik persoonlijk makkelijker dan een inbouw doos.. keuze

    https://www.utp-kabel.nl/cat6a-stp-opbouwdoos-wit.html
     

    Met keystones:

    Mediabox waar je de keystones in stopt voor op de muur:
    https://www.utp-kabel.nl/keystone-media-box-2-poorts.html
    Mediabox 12 poorts, voor bijvoorbeeld in de berging alles af te monteren.
    https://www.utp-kabel.nl/keystone-media-box-12-poorts.html
    Eventueel kan je ook alle kabels afmonteren in het rack:
    https://www.utp-kabel.nl/patchpaneel-24-poorts-zonder-connectoren.html
    Voorbeeld keystones:
    https://www.utp-kabel.nl/cat6a-stp-keystone-toolless.html

     

    Switches 10gbe met minimaal 4 poorten: (volgorde is prijs oplopend)
    https://tweakers.net/pricewatch/1673590/tp-link-tl-sx105.html 4poort unmanaged

    https://tweakers.net/pricewatch/1673650/tp-link-tl-sx1008.html   8poort unmanaged
    https://tweakers.net/pricewatch/551161/netgear-prosafe-xs708t.html 8 poort managed

    Zijn nog meer opties, maar deze zijn allemaal duurder.


    Managed of unmanaged is wederom een keuze, afhankelijk of je netwerken wil scheiden etc.
    Kabels en keystones etc zijn overal wel te vinden qua sites, links zijn voorbeelden.

    Sites waar ik goede ervaring mee heb:

    https://www.utp-kabel.nl/

    https://www.kabelshop.nl/

    Let wel op dat je schielded kabel en connectors koopt voor bij hogere snelheden.
    Zelf heb ik best wat problemen gehad met mijn 10gbe netwerk qua crosstolk.

     

    Success met de investering :)
     

     

    • Like 1
  8. Moeilijke manier:

    Selfhosters gebruiken deze template:
    https://github.com/selfhosters/unRAID-CA-templates/blob/master/templates/chevereto.xml

    Die checked vervolgens deze uit:
    https://hub.docker.com/r/nmtan/chevereto/

    Die heeft vervolgens deze dockerfile (afhankelijk welke je gebruikt qua branche)
    https://github.com/tanmng/docker-chevereto/blob/master/Dockerfile

    Die gebruikt weer op zijn beurt de volgende php versie: 7.4-apache
    Dan even de source erbij pakken voor een productie php.ini als template.

    Die vind je hier: https://github.com/php/php-src/blob/PHP-7.4.20/php.ini-production

    Deze aanpassen met de volgende values:
    memory_limit = 256M;
    upload_max_filesize = 100M;
    post_max_size = 100M;

    Deze zet je vervolgens hier neer: /mnt/user/appdata/cheverator/php.ini

    Dan onder de container een nieuwe volume mapping maken met de volgende paden:
    /usr/local/etc/php/php.ini <- /mnt/user/appdata/cheverator/php.ini
    Dan nog in de web interface de max upload size verhogen.

    Je kan het ook forken maar goed, dat is een heel ander hoofdstuk.

    Wel uitkijken dat als de versie van php aangepast word, je met een config zit die niet update! Dit is een risico!

     

    Makelijke manier:

    https://hub.docker.com/r/linuxserver/chevereto/ gebruiken, is te vinden in CA apps.
    Deze hebben een eigen maatwerk base image met nginx webserver en configs. (gebruiken dus geen defaults)
    Bieden ook een mogelijkheid om de config aan te passen via volume mapping wat ik zo snel zie.

     

    Je moet dan wel nog in de config (webinterface setting) van Chev ook het limiet omhoog trekken.

    Succes.

     

  9. br0 is the bridge interface that is used by Qemu, what is the hypervisor that runs your pfsense VM.
    Where checking if the interface is running correctly on the host, in your case unraid.

    If u do in the shell of unraid: virsh iface-list
    You will get the list of interfaces that are used by qemu, that u can link to a vm and if its active or not.
    My guess its up based on the ifconfig. So its active, then its a issue is likely inside the vm.

    But seeing your trying to configure the interface in pfsense from the shell menu and listed down is not normal behavior. (not for me atleast, when i run pfsense)
    You could try and configure it in pfsense and see if it comes up then.

     

    • Thanks 1
  10. https://github.com/selfhosters/unRAID-CA-templates/blob/master/templates/chevereto.xml
    <Config Name="Storage" Target="/var/www/html/images" Default="" Mode="rw" Description="Location for images" Type="Path" Display="always" Required="true" Mask="false"/>
    Storage path bij het aanmaken van de docker container moet je zetten naar het path binnen unraid waar je de foto's hebt staan.

    Voordat je in databases gaat roeren, altijd eerst een backup maken van de table :) Waarom wilde je de php.ini aanpassen?

  11. I wont use the Q35 untill bug 238922 in BSD (https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=236922) is properly fixed, there have been commits done to fix it, but this is on BSD 13.0, and PFsense / Opnsense are still on the 12.2-STABLE train.

    There are indeed some workarounds to run a virtio device under q35 on a PCi bus. But i gave up on that, i had similar issues like you have and weird behavior with packet ordering under in my case opnsense. Opnsense still has the advice not to use the q35 either, so if u get it working.. dont get your hopes up it will be error free.
     

    So basicly im fallback running virtio-net (10Gbase-T) under i440fx-5.1 and have no issues getting 1GBe on my internet pipe and routing traffic over my 10GBe network with decent speeds. My personal advice will be switch to i440fx-5.1.


     

    • Thanks 1
  12. 19 hours ago, pcking said:

    Can somebody help me that knows nginx?

    I have setup nextcloud and got it working with nginx reverse proxy and all but the phone app cannot upload pictures... any tips?

    Nextcloud config: https://pastebin.com/QSQ2J7nd

    Nginx reverse proxy config: https://pastebin.com/c7DRqtXF

    Nginx error log: https://pastebin.com/qasQ21ih

     

    Setup is simple: Nginx Proxy Server 10.0.0.101 -> Nextcloud 10.0.0.102

    I keep track of this link for my nginx config for nextcloud. I think you should try this first @pcking.

    https://docs.nextcloud.com/server/latest/admin_manual/installation/nginx.html

  13. # ------------------------------------------------- 
    # disable haveged as we trust /dev/random 
    # https://forums.unraid.net/topic/79616-haveged-daemon/?tab=comments#comment-903452 
    # ------------------------------------------------- 
    /etc/rc.d/rc.haveged stop

    I have this in the go file, and works great for me. But i'm not sure if this will stop the boot delay, as i don't have that issue.

  14. https://ark.intel.com/content/www/us/en/ark/products/199285/intel-pentium-gold-g6600-processor-4m-cache-4-20-ghz.html

     

    This is the most current Pentium, just some what faster then mine the g4600, same powerdraw and GPU onboard.

    Advantage i found of using these chips are powerdraw, onboard GPU (transcoding), very cheap, ECC support (never ending debate).

     

    More known (Intel core) consumer processor, draws more power then above one. For example:
    https://ark.intel.com/content/www/us/en/ark/products/199280/intel-core-i3-10320-processor-8m-cache-up-to-4-60-ghz.html

    Costs more, slight more powerdraw, no ECC support and costs about the double of the pentium. But about 20% more performance.

     

    You could go with a Mini-Itx with a soldered on CPU.. but less performance in my opinion and nearly same powerdraw.

    Sometimes costs more then a Pentium including motherboard, depending on your region etc.

  15. "without hindering bandwidth over ethernet." Are we talking gigabit speeds?

     

    Im running a low power NAS on a pentium chip, about 25watt idle with 6 disks incl. 1 cache SSD.

    The setup has a 10GBe nic, and im CPU bound speedwise, capping it on about 5GBe with 100% CPU load.

    Mainly shfs and smb are eating up the CPU at those speeds. With gigabit speeds there is no issue.

     

  16. True, I'm considering a multi staged build for it from the official to a single image. Just have to figure it out, how to do it update wise. The latest version changed some things in the decryption command, what could break the database. I need to figure out how to prevent this. The official images have some issues as well.

  17. I'm glad LSIO holds back releases, as for Unifi i check forums before i even press the update button. The amount of annoyance i had with Unifi is quite long, and the work i had restoring it in the past is worth the wait. If u want to go bleeding edge, u should build your own image. So LSIO thank you for your effort, and keeping us safe!

     

    As for memory usage, my unifi unstable instance is around 500mb stable past days.