SiNtEnEl

Members
  • Posts

    85
  • Joined

  • Last visited

Recent Profile Visitors

1801 profile views

SiNtEnEl's Achievements

Rookie

Rookie (2/14)

11

Reputation

  1. Best to test with iperf3 on unraid and windows to see what the bottle neck is. Windows vs Unraid.
  2. Hi Squid, First of all thank you for your continues support to the community with your support. This is more like a feature request / improvement, rather then a support question. When u search for a application, already installed apps are matched based on there name and shown. But if u give custom names to your containers, the won't be matched and thus not shown as installed. I was wondering if matching couldn't be done based on the repo name or the docker hub used. Off-course its a minor, and installed apps are list-able as well.
  3. Update: issues caused on my end was the Large Send Offload (LSO) breaking on the intel driver on windows. Disable Large Send Offload (LSO) on windows resolved it on my end.
  4. Update: issues caused on my end was the Large Send Offload (LSO) breaking on the intel driver on windows. Disable Large Send Offload (LSO) resolved it on my end.
  5. @151 My issue seems to be caused by the windows driver. No issues on linux with same setup / network configuration. Windows keeps being stuck at 1.55 Gbit on differnt versions on windows with the same driver.
  6. Ok, it seems i was wrong with my feeling. As it looks like it's something to do with the windows driver.. Same hardware / network configuration with linux performs with full 10Gbe. Used a instance with the same and other kernel module / driver and seen no issues at all. Will need to test with various other windows drivers for the x540-t2, to see how to get rid of the bottleneck. So this mystery is solved. Sorry, i suspected Unraid in this case. Thank you @Vr2Io for thinking along in this process.
  7. Hello 151, Im stuggling with the same network cards, but both ends on my infrastructure now dropped to 1.55Gbytes.. Been debugging this issue for over 20+ hours now.. and have a feeling its related to the kernel module. I will keep testing next days, hopefully find a solution.. that can help u as well. My topic:
  8. Using Opensense for intervlan routing, firewall and tunnels. No traffic passing trough that while testing. (checked logging and tested with opensense shutdown) 6 VLANS on my network currently, mainly to separate management, docker, trusted, guest, wlan, iot services on my network and outside of it. - Tested with windows 10 with firewall on, 1.55 Gbits/sec (old install) - Tested MTU 1500 both end + Windows11 clean, 1.54 Gbits/sec - Tested MTU 9000 both end + Windows11 clean, 1.55 Gbits/sec - Tested on Untagged network + Windows11 clean, 1.55 Gbits/sec - Tested on Tagged VLAN20 network + Windows11 clean, 1.55 Gbits/sec (VLAN unraid) - Tested on Tagged VLAN20 network, + Windows11 clean 1.55 Gbits/sec (bridged + VLAN unraid) - Tested with windows 11 with firewall off, 1.55 Gbits/sec (clean install, OS + NIC driver) - Tested with cross connection (direct), 1.55 Gbits/sec (to rule out switch issue) Checked with wireshark, don't see anything strange in there either. - Validated PCIe on both ends 8x, tested different slots as well. - Tested multiple CAT6 / 7 cables and tested all cables. Planning to test on linux today on the desktop side, to rule out windows driver issues.. If that result in same results.. i'm going to test with a different linux on my unraid server. If that results in nothing... i will start replacing nics.. because there is nothing left to test.. But my feeling is that its a issue with the ixgbe kernel module on the unraid end. Since there more people complaining about it on the forums. For example:
  9. Nov 15 21:12:00 UnNASty kernel: ixgbe: Intel(R) 10 Gigabit PCI Express Network Driver Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Multiqueue Enabled: Rx Queue count = 12, Tx Queue count = 12 XDP Queue count = 0 Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: 32.000 Gb/s available PCIe bandwidth (5.0 GT/s PCIe x8 link) Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Intel(R) 10 Gigabit Network Connection Was already in a 8x slot, tried a differnt 8x slot.. No joy sadly
  10. Hello unraid friends, For some reasons since a couple of versions of unraid i have been stuggling with my network speeds. In the past i was able to saturate the connection to full 9Gbe plus speeds, where it dropped a while ago. Any direction speeds seem to be capped to 1.5Gbe on a 10Gbe my network. Where i simply lacked the time to fully debug it or find the root cause, its been like this for a long while. [ ID] Interval Transfer Bandwidth [ 4] 0.00-1.00 sec 182 MBytes 1.53 Gbits/sec [ 4] 1.00-2.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 2.00-3.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 3.00-4.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 4.00-5.00 sec 184 MBytes 1.54 Gbits/sec [ 4] 5.00-6.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 6.00-7.00 sec 182 MBytes 1.52 Gbits/sec [ 4] 7.00-8.00 sec 183 MBytes 1.53 Gbits/sec [ 4] 8.00-9.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 9.00-10.00 sec 185 MBytes 1.55 Gbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bandwidth [ 4] 0.00-10.00 sec 1.79 GBytes 1.54 Gbits/sec sender [ 4] 0.00-10.00 sec 1.79 GBytes 1.54 Gbits/sec receiver Primary i had a untagged management network, and a trunk towards unraid. Where i run a bridged network, with the vlans configured on it. At first i thought the bridge was to blame in my Unraid set, so i have redone interfaces and setup a untagged unbridged network tagged on the switch. Same result, still limited to 1.5Gbe. Then i suspected my netgear GS110EMX 10Gbe ports, so i tested with a direct connection (cross) between the 10Gbe nics. Same result capped at 1.5Gbe. After that i tested some new cables, also same results. Lots of testing further, i can only conclude it seems to be a issue in unraid or driver related. Tried differnt MTU and settings, all resulting in 1.5Gbe speeds. No high packat droprates either. So anyone else experience issues with the Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) in combination with Unraid? Im considering getting a new nic to further debug this.. but i rather not spend the extra money if this is likely driver related. Any ideas or tips are welcome as well. Best regards, Sintenel
  11. Heb hier drie Ubiquiti UAP-AC-LR in combinatie met netgear switches op 10GB. Prima voor mijn usecase. Wil binnenkort wel upgraden naar de WIFI6 accesspoints mits de firmware wat stabieler gaat worden. Had hier in de early access nog wel overwogen om deze mee te gaan pakken, maar was net te laat. Over early access gesproken: Switch Flex XG is wel een serieuze overweging waard om in te stappen. https://eu.store.ui.com/collections/unifi-network-routing-switching/products/unifi-flex-xg-beta Is sinds medio april in de early access gegaan in europa. Maar goed, software bij Ubiquiti is altijd een ding. (Mijn mening :)) Wel lijkt het op het forum langzaam aan mee te vallen met de issues, dus verwacht dat dit wel de goede kant op gaat. 25Watt voor 4 10GBe poorten en met een prijs van 219euro. Zou met een week of twee weer beschikbaar moeten zijn. Account aanmaken en inschrijven voor early access en beta programma. Heb zelf opnsense als VM op mijn unraid machine draaien met dedicated iommu nics als firewall en layer3 router. Gigabit internet snelheid gaat prima, maar ik zou niet 10GBe op een hypervisor hosten en inderdaad dedicated gaan. De 540-T2 moet je met volle 10GBe rekening houden met ongeveer 20watt verbruik, dus inderdaad niet heel zuinig. Dan met bovenstaande hardware, zou ik rekening houden met een kleine 50w load op de betreffende machine. Stroom met 50w kost je 91,98euro per jaar.. als de switch de helft aan stroom verbruik is bespaar je 45eur per jaar. Maar goed, zonnepanelen moeten zich ook niet vervelen Ik vind de keystones prima te werken, maar goed.. gebruik net zo makkelijk een tang of plunge tool. Ja, je kan CAT5e gebruiken, heb dit in het verleden ook wel gedaan. Maar dit was niet helemaal probleemloos. Blijft een kosten afweging, afstand en mogelijke factoren die interferentie kunnen geven op de kabels. Verder heb ik best wat ruzie met unraid als het om 10GBe gaat vanaf SMB in combinatie met VLAN's binnen Unraid. Maar goed, heb er voor nu mee leren leven.. 500MBs te veel configuratie om weer om te bouwen om zaken te testen. Nee dit verkeer gaat niet over VLAN's heen.. denk dat het in de custom networks zit icm docker.
  12. SFP is glasvezel, en ik persoonlijk zou dit niet door de muren gaan trekken. Dit kan tevens een vrij dure exercitie gaan worden voor dergelijke afstanden en lassen is ook een ding. Als consument zou ik dit enkel dus in de zelfde ruimte gebruiken, daarbij verwacht ik dat 10GBe beter beschikbaar gaat worden voor de consument.. Hopelijk droppen ze 2.5gbe. Persoonlijk zou ik voor een CAT6A/7 oplossing kiezen en deze kabels zelf maken van rol, en kan je inderdaad afmonteren op keystones in een media box of patchpanel bij het rack. Op de betreffende kamers kan je kiezen voor een inbouw / opbouwdoos of een media box op de muur zetten als je daar ook keystones wil hebben. Keystones zijn makkelijker. (vind ik) Verder zou ik qua kosten gewoon voor CAT7 kabel gaan, iets duurder (10euro ongeveer per 100m). Niet echt noodzakelijk, tenzij je 100meter aan een stuk door een huis trekt. Met deze oplossing kan je wel de asus nics gebruiken, let op! deze zijn niet altijd even probleemloos onder linux!! Persoonlijk zou ik kiezen voor een intel 540-t of 550-t onder unraid. https://tweakers.net/pricewatch/549619/intel-x550-t2-10gbe-network-adapter.html bijvoorbeeld nieuw. (zijn ook goed refurbished of tweedehands te krijgen voor een acceptabele prijs) Onder windows kan je goed weg komen met een asus kaart (Aquantia controller) Voorbeeld van cat7 kabel om door muur te trekken: https://www.utp-kabel.nl/danicom-cat7-s-ftp-100m-op-rol-stug-lszh-eca.html Voorbeeld connectors: https://www.utp-kabel.nl/sftp-pimf-cat6a-7-toolless-rj45-connector-10-gigabit-voor-stugge-kern.html Zonder keystones op de muur: Opbouw doos, vind ik persoonlijk makkelijker dan een inbouw doos.. keuze https://www.utp-kabel.nl/cat6a-stp-opbouwdoos-wit.html Met keystones: Mediabox waar je de keystones in stopt voor op de muur: https://www.utp-kabel.nl/keystone-media-box-2-poorts.html Mediabox 12 poorts, voor bijvoorbeeld in de berging alles af te monteren. https://www.utp-kabel.nl/keystone-media-box-12-poorts.html Eventueel kan je ook alle kabels afmonteren in het rack: https://www.utp-kabel.nl/patchpaneel-24-poorts-zonder-connectoren.html Voorbeeld keystones: https://www.utp-kabel.nl/cat6a-stp-keystone-toolless.html Switches 10gbe met minimaal 4 poorten: (volgorde is prijs oplopend) https://tweakers.net/pricewatch/1673590/tp-link-tl-sx105.html 4poort unmanaged https://tweakers.net/pricewatch/1673650/tp-link-tl-sx1008.html 8poort unmanaged https://tweakers.net/pricewatch/551161/netgear-prosafe-xs708t.html 8 poort managed Zijn nog meer opties, maar deze zijn allemaal duurder. Managed of unmanaged is wederom een keuze, afhankelijk of je netwerken wil scheiden etc. Kabels en keystones etc zijn overal wel te vinden qua sites, links zijn voorbeelden. Sites waar ik goede ervaring mee heb: https://www.utp-kabel.nl/ https://www.kabelshop.nl/ Let wel op dat je schielded kabel en connectors koopt voor bij hogere snelheden. Zelf heb ik best wat problemen gehad met mijn 10gbe netwerk qua crosstolk. Success met de investering
  13. Almost sound like your blocking dhcp on the firewall (port 67). Static ip is for me the preferred solution regarding Unraid. Glad you have a working setup now.
  14. Moeilijke manier: Selfhosters gebruiken deze template: https://github.com/selfhosters/unRAID-CA-templates/blob/master/templates/chevereto.xml Die checked vervolgens deze uit: https://hub.docker.com/r/nmtan/chevereto/ Die heeft vervolgens deze dockerfile (afhankelijk welke je gebruikt qua branche) https://github.com/tanmng/docker-chevereto/blob/master/Dockerfile Die gebruikt weer op zijn beurt de volgende php versie: 7.4-apache Dan even de source erbij pakken voor een productie php.ini als template. Die vind je hier: https://github.com/php/php-src/blob/PHP-7.4.20/php.ini-production Deze aanpassen met de volgende values: memory_limit = 256M; upload_max_filesize = 100M; post_max_size = 100M; Deze zet je vervolgens hier neer: /mnt/user/appdata/cheverator/php.ini Dan onder de container een nieuwe volume mapping maken met de volgende paden: /usr/local/etc/php/php.ini <- /mnt/user/appdata/cheverator/php.ini Dan nog in de web interface de max upload size verhogen. Je kan het ook forken maar goed, dat is een heel ander hoofdstuk. Wel uitkijken dat als de versie van php aangepast word, je met een config zit die niet update! Dit is een risico! Makelijke manier: https://hub.docker.com/r/linuxserver/chevereto/ gebruiken, is te vinden in CA apps. Deze hebben een eigen maatwerk base image met nginx webserver en configs. (gebruiken dus geen defaults) Bieden ook een mogelijkheid om de config aan te passen via volume mapping wat ik zo snel zie. Je moet dan wel nog in de config (webinterface setting) van Chev ook het limiet omhoog trekken. Succes.
  15. br0 is the bridge interface that is used by Qemu, what is the hypervisor that runs your pfsense VM. Where checking if the interface is running correctly on the host, in your case unraid. If u do in the shell of unraid: virsh iface-list You will get the list of interfaces that are used by qemu, that u can link to a vm and if its active or not. My guess its up based on the ifconfig. So its active, then its a issue is likely inside the vm. But seeing your trying to configure the interface in pfsense from the shell menu and listed down is not normal behavior. (not for me atleast, when i run pfsense) You could try and configure it in pfsense and see if it comes up then.