SiNtEnEl

Members
  • Posts

    85
  • Joined

  • Last visited

Everything posted by SiNtEnEl

  1. Best to test with iperf3 on unraid and windows to see what the bottle neck is. Windows vs Unraid.
  2. Hi Squid, First of all thank you for your continues support to the community with your support. This is more like a feature request / improvement, rather then a support question. When u search for a application, already installed apps are matched based on there name and shown. But if u give custom names to your containers, the won't be matched and thus not shown as installed. I was wondering if matching couldn't be done based on the repo name or the docker hub used. Off-course its a minor, and installed apps are list-able as well.
  3. Update: issues caused on my end was the Large Send Offload (LSO) breaking on the intel driver on windows. Disable Large Send Offload (LSO) on windows resolved it on my end.
  4. Update: issues caused on my end was the Large Send Offload (LSO) breaking on the intel driver on windows. Disable Large Send Offload (LSO) resolved it on my end.
  5. @151 My issue seems to be caused by the windows driver. No issues on linux with same setup / network configuration. Windows keeps being stuck at 1.55 Gbit on differnt versions on windows with the same driver.
  6. Ok, it seems i was wrong with my feeling. As it looks like it's something to do with the windows driver.. Same hardware / network configuration with linux performs with full 10Gbe. Used a instance with the same and other kernel module / driver and seen no issues at all. Will need to test with various other windows drivers for the x540-t2, to see how to get rid of the bottleneck. So this mystery is solved. Sorry, i suspected Unraid in this case. Thank you @Vr2Io for thinking along in this process.
  7. Hello 151, Im stuggling with the same network cards, but both ends on my infrastructure now dropped to 1.55Gbytes.. Been debugging this issue for over 20+ hours now.. and have a feeling its related to the kernel module. I will keep testing next days, hopefully find a solution.. that can help u as well. My topic:
  8. Using Opensense for intervlan routing, firewall and tunnels. No traffic passing trough that while testing. (checked logging and tested with opensense shutdown) 6 VLANS on my network currently, mainly to separate management, docker, trusted, guest, wlan, iot services on my network and outside of it. - Tested with windows 10 with firewall on, 1.55 Gbits/sec (old install) - Tested MTU 1500 both end + Windows11 clean, 1.54 Gbits/sec - Tested MTU 9000 both end + Windows11 clean, 1.55 Gbits/sec - Tested on Untagged network + Windows11 clean, 1.55 Gbits/sec - Tested on Tagged VLAN20 network + Windows11 clean, 1.55 Gbits/sec (VLAN unraid) - Tested on Tagged VLAN20 network, + Windows11 clean 1.55 Gbits/sec (bridged + VLAN unraid) - Tested with windows 11 with firewall off, 1.55 Gbits/sec (clean install, OS + NIC driver) - Tested with cross connection (direct), 1.55 Gbits/sec (to rule out switch issue) Checked with wireshark, don't see anything strange in there either. - Validated PCIe on both ends 8x, tested different slots as well. - Tested multiple CAT6 / 7 cables and tested all cables. Planning to test on linux today on the desktop side, to rule out windows driver issues.. If that result in same results.. i'm going to test with a different linux on my unraid server. If that results in nothing... i will start replacing nics.. because there is nothing left to test.. But my feeling is that its a issue with the ixgbe kernel module on the unraid end. Since there more people complaining about it on the forums. For example:
  9. Nov 15 21:12:00 UnNASty kernel: ixgbe: Intel(R) 10 Gigabit PCI Express Network Driver Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Multiqueue Enabled: Rx Queue count = 12, Tx Queue count = 12 XDP Queue count = 0 Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: 32.000 Gb/s available PCIe bandwidth (5.0 GT/s PCIe x8 link) Nov 15 21:12:00 UnNASty kernel: ixgbe 0000:01:00.0: Intel(R) 10 Gigabit Network Connection Was already in a 8x slot, tried a differnt 8x slot.. No joy sadly
  10. Hello unraid friends, For some reasons since a couple of versions of unraid i have been stuggling with my network speeds. In the past i was able to saturate the connection to full 9Gbe plus speeds, where it dropped a while ago. Any direction speeds seem to be capped to 1.5Gbe on a 10Gbe my network. Where i simply lacked the time to fully debug it or find the root cause, its been like this for a long while. [ ID] Interval Transfer Bandwidth [ 4] 0.00-1.00 sec 182 MBytes 1.53 Gbits/sec [ 4] 1.00-2.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 2.00-3.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 3.00-4.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 4.00-5.00 sec 184 MBytes 1.54 Gbits/sec [ 4] 5.00-6.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 6.00-7.00 sec 182 MBytes 1.52 Gbits/sec [ 4] 7.00-8.00 sec 183 MBytes 1.53 Gbits/sec [ 4] 8.00-9.00 sec 183 MBytes 1.54 Gbits/sec [ 4] 9.00-10.00 sec 185 MBytes 1.55 Gbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bandwidth [ 4] 0.00-10.00 sec 1.79 GBytes 1.54 Gbits/sec sender [ 4] 0.00-10.00 sec 1.79 GBytes 1.54 Gbits/sec receiver Primary i had a untagged management network, and a trunk towards unraid. Where i run a bridged network, with the vlans configured on it. At first i thought the bridge was to blame in my Unraid set, so i have redone interfaces and setup a untagged unbridged network tagged on the switch. Same result, still limited to 1.5Gbe. Then i suspected my netgear GS110EMX 10Gbe ports, so i tested with a direct connection (cross) between the 10Gbe nics. Same result capped at 1.5Gbe. After that i tested some new cables, also same results. Lots of testing further, i can only conclude it seems to be a issue in unraid or driver related. Tried differnt MTU and settings, all resulting in 1.5Gbe speeds. No high packat droprates either. So anyone else experience issues with the Intel Corporation Ethernet Controller 10-Gigabit X540-AT2 (rev 01) in combination with Unraid? Im considering getting a new nic to further debug this.. but i rather not spend the extra money if this is likely driver related. Any ideas or tips are welcome as well. Best regards, Sintenel
  11. Heb hier drie Ubiquiti UAP-AC-LR in combinatie met netgear switches op 10GB. Prima voor mijn usecase. Wil binnenkort wel upgraden naar de WIFI6 accesspoints mits de firmware wat stabieler gaat worden. Had hier in de early access nog wel overwogen om deze mee te gaan pakken, maar was net te laat. Over early access gesproken: Switch Flex XG is wel een serieuze overweging waard om in te stappen. https://eu.store.ui.com/collections/unifi-network-routing-switching/products/unifi-flex-xg-beta Is sinds medio april in de early access gegaan in europa. Maar goed, software bij Ubiquiti is altijd een ding. (Mijn mening :)) Wel lijkt het op het forum langzaam aan mee te vallen met de issues, dus verwacht dat dit wel de goede kant op gaat. 25Watt voor 4 10GBe poorten en met een prijs van 219euro. Zou met een week of twee weer beschikbaar moeten zijn. Account aanmaken en inschrijven voor early access en beta programma. Heb zelf opnsense als VM op mijn unraid machine draaien met dedicated iommu nics als firewall en layer3 router. Gigabit internet snelheid gaat prima, maar ik zou niet 10GBe op een hypervisor hosten en inderdaad dedicated gaan. De 540-T2 moet je met volle 10GBe rekening houden met ongeveer 20watt verbruik, dus inderdaad niet heel zuinig. Dan met bovenstaande hardware, zou ik rekening houden met een kleine 50w load op de betreffende machine. Stroom met 50w kost je 91,98euro per jaar.. als de switch de helft aan stroom verbruik is bespaar je 45eur per jaar. Maar goed, zonnepanelen moeten zich ook niet vervelen Ik vind de keystones prima te werken, maar goed.. gebruik net zo makkelijk een tang of plunge tool. Ja, je kan CAT5e gebruiken, heb dit in het verleden ook wel gedaan. Maar dit was niet helemaal probleemloos. Blijft een kosten afweging, afstand en mogelijke factoren die interferentie kunnen geven op de kabels. Verder heb ik best wat ruzie met unraid als het om 10GBe gaat vanaf SMB in combinatie met VLAN's binnen Unraid. Maar goed, heb er voor nu mee leren leven.. 500MBs te veel configuratie om weer om te bouwen om zaken te testen. Nee dit verkeer gaat niet over VLAN's heen.. denk dat het in de custom networks zit icm docker.
  12. SFP is glasvezel, en ik persoonlijk zou dit niet door de muren gaan trekken. Dit kan tevens een vrij dure exercitie gaan worden voor dergelijke afstanden en lassen is ook een ding. Als consument zou ik dit enkel dus in de zelfde ruimte gebruiken, daarbij verwacht ik dat 10GBe beter beschikbaar gaat worden voor de consument.. Hopelijk droppen ze 2.5gbe. Persoonlijk zou ik voor een CAT6A/7 oplossing kiezen en deze kabels zelf maken van rol, en kan je inderdaad afmonteren op keystones in een media box of patchpanel bij het rack. Op de betreffende kamers kan je kiezen voor een inbouw / opbouwdoos of een media box op de muur zetten als je daar ook keystones wil hebben. Keystones zijn makkelijker. (vind ik) Verder zou ik qua kosten gewoon voor CAT7 kabel gaan, iets duurder (10euro ongeveer per 100m). Niet echt noodzakelijk, tenzij je 100meter aan een stuk door een huis trekt. Met deze oplossing kan je wel de asus nics gebruiken, let op! deze zijn niet altijd even probleemloos onder linux!! Persoonlijk zou ik kiezen voor een intel 540-t of 550-t onder unraid. https://tweakers.net/pricewatch/549619/intel-x550-t2-10gbe-network-adapter.html bijvoorbeeld nieuw. (zijn ook goed refurbished of tweedehands te krijgen voor een acceptabele prijs) Onder windows kan je goed weg komen met een asus kaart (Aquantia controller) Voorbeeld van cat7 kabel om door muur te trekken: https://www.utp-kabel.nl/danicom-cat7-s-ftp-100m-op-rol-stug-lszh-eca.html Voorbeeld connectors: https://www.utp-kabel.nl/sftp-pimf-cat6a-7-toolless-rj45-connector-10-gigabit-voor-stugge-kern.html Zonder keystones op de muur: Opbouw doos, vind ik persoonlijk makkelijker dan een inbouw doos.. keuze https://www.utp-kabel.nl/cat6a-stp-opbouwdoos-wit.html Met keystones: Mediabox waar je de keystones in stopt voor op de muur: https://www.utp-kabel.nl/keystone-media-box-2-poorts.html Mediabox 12 poorts, voor bijvoorbeeld in de berging alles af te monteren. https://www.utp-kabel.nl/keystone-media-box-12-poorts.html Eventueel kan je ook alle kabels afmonteren in het rack: https://www.utp-kabel.nl/patchpaneel-24-poorts-zonder-connectoren.html Voorbeeld keystones: https://www.utp-kabel.nl/cat6a-stp-keystone-toolless.html Switches 10gbe met minimaal 4 poorten: (volgorde is prijs oplopend) https://tweakers.net/pricewatch/1673590/tp-link-tl-sx105.html 4poort unmanaged https://tweakers.net/pricewatch/1673650/tp-link-tl-sx1008.html 8poort unmanaged https://tweakers.net/pricewatch/551161/netgear-prosafe-xs708t.html 8 poort managed Zijn nog meer opties, maar deze zijn allemaal duurder. Managed of unmanaged is wederom een keuze, afhankelijk of je netwerken wil scheiden etc. Kabels en keystones etc zijn overal wel te vinden qua sites, links zijn voorbeelden. Sites waar ik goede ervaring mee heb: https://www.utp-kabel.nl/ https://www.kabelshop.nl/ Let wel op dat je schielded kabel en connectors koopt voor bij hogere snelheden. Zelf heb ik best wat problemen gehad met mijn 10gbe netwerk qua crosstolk. Success met de investering
  13. Almost sound like your blocking dhcp on the firewall (port 67). Static ip is for me the preferred solution regarding Unraid. Glad you have a working setup now.
  14. Moeilijke manier: Selfhosters gebruiken deze template: https://github.com/selfhosters/unRAID-CA-templates/blob/master/templates/chevereto.xml Die checked vervolgens deze uit: https://hub.docker.com/r/nmtan/chevereto/ Die heeft vervolgens deze dockerfile (afhankelijk welke je gebruikt qua branche) https://github.com/tanmng/docker-chevereto/blob/master/Dockerfile Die gebruikt weer op zijn beurt de volgende php versie: 7.4-apache Dan even de source erbij pakken voor een productie php.ini als template. Die vind je hier: https://github.com/php/php-src/blob/PHP-7.4.20/php.ini-production Deze aanpassen met de volgende values: memory_limit = 256M; upload_max_filesize = 100M; post_max_size = 100M; Deze zet je vervolgens hier neer: /mnt/user/appdata/cheverator/php.ini Dan onder de container een nieuwe volume mapping maken met de volgende paden: /usr/local/etc/php/php.ini <- /mnt/user/appdata/cheverator/php.ini Dan nog in de web interface de max upload size verhogen. Je kan het ook forken maar goed, dat is een heel ander hoofdstuk. Wel uitkijken dat als de versie van php aangepast word, je met een config zit die niet update! Dit is een risico! Makelijke manier: https://hub.docker.com/r/linuxserver/chevereto/ gebruiken, is te vinden in CA apps. Deze hebben een eigen maatwerk base image met nginx webserver en configs. (gebruiken dus geen defaults) Bieden ook een mogelijkheid om de config aan te passen via volume mapping wat ik zo snel zie. Je moet dan wel nog in de config (webinterface setting) van Chev ook het limiet omhoog trekken. Succes.
  15. br0 is the bridge interface that is used by Qemu, what is the hypervisor that runs your pfsense VM. Where checking if the interface is running correctly on the host, in your case unraid. If u do in the shell of unraid: virsh iface-list You will get the list of interfaces that are used by qemu, that u can link to a vm and if its active or not. My guess its up based on the ifconfig. So its active, then its a issue is likely inside the vm. But seeing your trying to configure the interface in pfsense from the shell menu and listed down is not normal behavior. (not for me atleast, when i run pfsense) You could try and configure it in pfsense and see if it comes up then.
  16. Can you do a ifconfig br0 in the shell of unraid, see what it reports there? You could just try to do: ifconfig br0 up See if that fixes it Edit: if it's up, and issue is still there do this in the shell: virsh iface-list See if the br0 is active or not. If its active we need to check in the vm.
  17. https://github.com/selfhosters/unRAID-CA-templates/blob/master/templates/chevereto.xml <Config Name="Storage" Target="/var/www/html/images" Default="" Mode="rw" Description="Location for images" Type="Path" Display="always" Required="true" Mask="false"/> Storage path bij het aanmaken van de docker container moet je zetten naar het path binnen unraid waar je de foto's hebt staan. Voordat je in databases gaat roeren, altijd eerst een backup maken van de table Waarom wilde je de php.ini aanpassen?
  18. I wont use the Q35 untill bug 238922 in BSD (https://bugs.freebsd.org/bugzilla/show_bug.cgi?id=236922) is properly fixed, there have been commits done to fix it, but this is on BSD 13.0, and PFsense / Opnsense are still on the 12.2-STABLE train. There are indeed some workarounds to run a virtio device under q35 on a PCi bus. But i gave up on that, i had similar issues like you have and weird behavior with packet ordering under in my case opnsense. Opnsense still has the advice not to use the q35 either, so if u get it working.. dont get your hopes up it will be error free. So basicly im fallback running virtio-net (10Gbase-T) under i440fx-5.1 and have no issues getting 1GBe on my internet pipe and routing traffic over my 10GBe network with decent speeds. My personal advice will be switch to i440fx-5.1.
  19. I keep track of this link for my nginx config for nextcloud. I think you should try this first @pcking. https://docs.nextcloud.com/server/latest/admin_manual/installation/nginx.html
  20. # ------------------------------------------------- # disable haveged as we trust /dev/random # https://forums.unraid.net/topic/79616-haveged-daemon/?tab=comments#comment-903452 # ------------------------------------------------- /etc/rc.d/rc.haveged stop I have this in the go file, and works great for me. But i'm not sure if this will stop the boot delay, as i don't have that issue.
  21. When swapping my cache drive for a new one, i encountered a issue when moving data off my cache disk to the array with the mover. Lot of files did not get moved by the mover due a "does not exist" notice and No such file or directory. Workaround: I had to move the files manually in the terminal. Files where not locked, neither where there permission issues. Example: /mnt/user/appdata/linuxserver-plex/Library/Application Support/Plex Media Server/Metadata/TV Shows/8/145fa310d3a3602fe884933af4b1bb329951e0a.bundle/Contents/com.plexapp.agents.thetvdb/seasons/2/posters/d08056a72b0fb9cf1c627be9efe8d0bd1db65595 Moving from /mnt/cache to /mnt/disk2/ resulted in this logging: Jan 11 18:19:34 UnNASty root: Specified filename /mnt/disk2/appdata/linuxserver-plex/Library/Application Support/Plex Media Server/Metadata/TV Shows/8/145fa310d3a3602fe884933af4b1bb329951e0a.bundle/Contents/_combined/seasons/2/posters/com.plexapp.agents.thetvdb_d08056a72b0fb9cf1c627be9efe8d0bd1db65595 does not exist. Jan 11 18:19:34 UnNASty move: move_object: /mnt/disk2/appdata/linuxserver-plex/Library/Application Support/Plex Media Server/Metadata/TV Shows/8/145fa310d3a3602fe884933af4b1bb329951e0a.bundle/Contents/_combined/seasons/2/posters/com.plexapp.agents.thetvdb_d08056a72b0fb9cf1c627be9efe8d0bd1db65595 No such file or directory No further logging found. This happend to most files of my appdata plex docker container. My guess it has to do with the length of the path?
  22. Daarom lees ik niet de PCM, ben het dan ook niet eens met de conclusies. Dan wel zijn wat kort door de bocht.
  23. https://ark.intel.com/content/www/us/en/ark/products/199285/intel-pentium-gold-g6600-processor-4m-cache-4-20-ghz.html This is the most current Pentium, just some what faster then mine the g4600, same powerdraw and GPU onboard. Advantage i found of using these chips are powerdraw, onboard GPU (transcoding), very cheap, ECC support (never ending debate). More known (Intel core) consumer processor, draws more power then above one. For example: https://ark.intel.com/content/www/us/en/ark/products/199280/intel-core-i3-10320-processor-8m-cache-up-to-4-60-ghz.html Costs more, slight more powerdraw, no ECC support and costs about the double of the pentium. But about 20% more performance. You could go with a Mini-Itx with a soldered on CPU.. but less performance in my opinion and nearly same powerdraw. Sometimes costs more then a Pentium including motherboard, depending on your region etc.
  24. "without hindering bandwidth over ethernet." Are we talking gigabit speeds? Im running a low power NAS on a pentium chip, about 25watt idle with 6 disks incl. 1 cache SSD. The setup has a 10GBe nic, and im CPU bound speedwise, capping it on about 5GBe with 100% CPU load. Mainly shfs and smb are eating up the CPU at those speeds. With gigabit speeds there is no issue.
  25. True, I'm considering a multi staged build for it from the official to a single image. Just have to figure it out, how to do it update wise. The latest version changed some things in the decryption command, what could break the database. I need to figure out how to prevent this. The official images have some issues as well.