Ford Prefect

  • Posts

  • Joined

  • Last visited

  • Days Won


Everything posted by Ford Prefect

  1. ...please post your Are you using a Web-UI from an external PC or from booting unraid into local mode (with attached keyboard, mouse and mointor), when you try to ping What is the result of a ping ?
  2. this is in bridge-mode only (no bonding) in unraid? In that case, you might have a problem with your desktop, finding the correct IP-Route. In your desktop, what is the output of the following commands when entered into a commandline shell: ipconfig route print -4 Also, please post your unRaid ...depends.
  3. ...denke unassigned devices oder USB brauchst Du garnicht. Der Stick wird ja mit einem Device erkannt (/dev/sdXXX), das Du direkt durchreichen könntest...nicht als USB, sondern als Ort für die erste (boot) vdisk. Achtung: nicht die Partion (/dev/sdXXX1) sondern das ganze Device durchreichen. Siehe auch: oder eben, besser:
  4. ...I don't think so. The description says The TL-D800C can only be used as a separate storage pool or volume on your QNAP NAS. It cannot be combined with an existing storage pool/volume. Doesn't look like a standard USB storage, which - if it were - you could use through the unassigned devices plugin in unraid.
  5. Yes, you could do that for LAN but I'd not recommend it. Never, ever use a virtual NIC for WAN !! If the second NIC is on a PCI(e) card, why not geht a DUAL or even QUAD ... a use i350-T4 is about 50EUR from a reputable seller, as a used, server-pulled part. I'd recommend a "Fujitsu Quadport GBit Ethernet Adapter D3045-A11 GS1", which a genuine i350-T4. Don't worry, these things will come for OCD THIS +1 !! Technically yes, but the real problem here is CGN behind the WAN port. VPN client should be possible, but not a VPN-Server (at least not that easy). I'd recommend using a SDN-WAN solution, like zerotioer anyways.
  6. Es gibt den aktiven DNS Filter und den allgemeinen Firewall Filter. Solange die Fritte noch Router ist, wirst Du diese Filter nicht los. Das geht wohl erst, wenn Du einen "richtigen" Router am Start hast und dessen WAN-Port (an der Fritz) als Exposed Host definierst.
  7. ...wenn Du immer die gleiche Domain abgefagt hast, war die halt im lokalen DNS-Cache auf dem Tablet
  8. I actually did miss the most simple one...a defective patchcable, syncing to 10/100M mode. That's actually the worst of errors you could possibly think of...but there is always murphy's law then Hope you won't be hit by that beetlejuice kind of bug too early in the furure.
  9. Well, I just invented that "term", as obviously during boot/after reboot the number allocation changes. Also that error message from an initialisation script "device does not exist" during boot is suspicious. Either the device was there triggering/when the script had been started, but got lost until the script reached that part of the code (ghost device) OR that script is no longer functioning in itself. Speaking of your "tinkering" with the and network-rules.cfg....what Editor did you use from what system? Maybe there are some non-printable characters, that have found their way into the script/file. This could cause that behaviour as well, hmmm. Can you check with a "cat -vet <filename>" ... maybe its as simple as that there are come CR/LF problems, but I don't think so. Besides that, you find me clueless. 🥴
  10. In that case, link speed should not impose a problem, in general. Can you rule out the network speed/infrastructure as a root cause, maybe by directly connecting a wired client to unraid, without switch or router in between? Other "problems" that can persist are: the client/player is not capable of rendering the codec (either video , audio or both) same, but emby is doing a transcode on the fly, thus overallocation of ressources (stress) on unraid can occur the files you need to play are scattered across disks, which normally are sleeping and need to wakeup first when accessed, causing a delay and maybe timeouts on client side. client and unraid are not on the same IP network, hence your edge-router will have to do some inter-network routing (maybe NAT is applied and you are reaching a limit) same, but emby routes the traffic via another network or ressource in between emby/unraid and the client. Maybe caused by a misconfiguration in other Dockers (VPN, SWAG, wireguard, ...) your switches have gone into "green" mode, thus limiting port/link speeds to 100M (one port along the path is enough to create the bottleneck) really is hard to tell, from should try to split the problem into smaller chunks and try every one, hence ruling out part by part as a root cause.
  11. Are these wired or wireless client? A 90+Mbps stream via a 2.4GHz WiFi Link is definitely presenting a challenge, especially if other clients are connected to the same channel/AP concurrently.
  12. Think differently. There is no User in unRaid...there are named credentials for shares. Owncloud / nextcloud has its own User management. Inside owncloud/nextcloud administration you enable the use of unraid shares with unraid credentials. Then you delegate these whole or in parts, via owncloud/nextcloud own user management to your "Users". owncloud/nextclioud will first live on your local LAN, but with the addition of other Dockers, like SWAG you can enable access to your owncloud/nextcloud resources from the outside world. Again, this is not related to unraid "Users"...User Management is done via owncloud/nextcloud administration. There are several links, videos and howtos scattered around should have a look, then. But honestly, this is something you did not refer to as a wanted feature in your first post
  13. I notice with my single mellanox cards, even on windows as well, that booting/bringing them up to full state does take a substantial amount of time, much longer than with my i350-T4 cards I used to have before going 10G. If I recall correctly from your other thread, you are using DUAL Port Mellanox X3 cards. This behaviour sounds like a kind of "ghost"-port that is visible for some time, than disappears. As to why, I can only speculate. But this kind of behaviour could match what is observed. AFAIR you are only using one SFP+ port in the DUALs, aren't you. As I am running mines without a monitor, I never saw them POST. Maybe there is a BIOS on the card, that is adding to the boot-time and maybe responsible for this kind of behaviour, too. I wonder... if you could configure same parameters when entering secondary BIOS during BIOS setup/cold boot, or as it is the case with a HBA card, whether you could flash the card with firmware but without card-BIOS?
  14. ...die Sense muss sich auch nicht "einwählen"...Du hängst ja komplett hinter dem NAT der Fritz. LAN 4 der Fritz? Also hast Du das Gastnetz dort (gastnetz auf LAN4) aktiviert oder nicht? Teste doch erstmal, mit einer Linux LIVE-ISO ob die Verbindung technisch funktioniert. Also eine VM damit erstellen, die gleiche Netzwerkkarte durchreichen, welche Du in der Sense als WAN nehmen willst. stecke das Kabel in einen LAN-Port der Fritz - bekommst die VM eine IP aus dem LAN? ...dann mit dem LAN4 Gast-Port der Fritz probieren. Solange das nicht geht, ist das Problem ausserhalb von unRaid/der VM. Ich habe leider alle meine Fritten abgeschafft und habe das Gastnetz nie genutzt...evtl. musst Du da noch unbeschänkten Zugriff erlauben für Clients. Wenn Du damit meinst, die Fritz quasi nur als Modem/Brückenkopf ins I-Net zu verwenden, also WLAN aus, keine Clients, nur die Sense dran, ist es evtl. sogar besser den LAN Port der Fritz zu verwenden. Dort kannst Du dann die Sense als "exposd Host" konfigurieren....das geht im Gastnetz nicht...damit wird das NAT der Fritz beschleunigt...Du musst in der Sense dann zwar auch das NAT einschalten und die Portfreigaben dort regeln, aber das willst Du ja wohl.
  15. Naja, Du wirst irgendwo an eine Grenze stossen. 10Gbps übers Netz sind "nur" 1GB/sec auf der Disk.. eine/diese NVMe Gen3x4 schafft etwas zwischen 0.8 bis 3.2GB/s. Wie die Werte genau aussehen, musst Du ausprobieren...Dein UseCase ist schon etwas ungewöhnlich für unRaid. Das wird evtl sogar funktionieren, ist aber kein ECC-RAM ... sowas gehört sich eigentlich bei so einem grossen Storage und wertvollem Datenmaterial...sind ja keine wiederbeschaffbaren DVD oder BluRay-ISOs
  16. Ich dachte den iMac Pro hat 10GB-T Ports, also RJ45. Damit kommst Du mit dem Konverter-Kabel nicht weit. Das ist für ein SFP+ DACs. Diese DUAL-Karte hat den Vorteil, dass Du sie auch auf Ethernet in der Firmware umstellen kannst und genau diese Version auch 4x10G Ethernet kann (allerdings wird sie bei Vollast etwas weniger liefern, da sie PCIe-Gen3 und x8 ist....das reicht "nur" für ca. 72-78Gbps (siehe Wenn Du noch nicht in den Switch investieren willst würde ich für einen Client nur eine "einfache" Karte + RJ45-Modul (das kannst Du am Switch für die 40G DUAL später wiederverwenden) nehmen. Zum Beispiel: link - achte bei diesen Karten darauf für welche Slothöhe (Low-Profile oder Full-Profile) das Bracket dabei ist..bei gebrauchten gibt es oft nicht Beide....das muss zum Gehäuse passen...das Fractal hat Full-Profile Slots. Dann ein 10GB-T Modul: Da ist dann weniger Geld bei "rausgeschmissen" als mit dem QSFP+ Konverter....die 10G Karte kannst Du später immer noch recyclen oder als cold spare in den Schrank legen. Naja, es hat nur PCIe-3gen, nicht 4gen....aber 4gen gibt es nur sehr teuer mfür die Anzahl an Lanes. Ich habe die grosse ATX Version des MB rausgesucht, damit Du noch einen Slot für einen HBA hast, wenn Du mehr als 10 DIsks brauchst. Leider eben, ist dann nur entweder ein PCIe-Slot oder ein M2-Slot weniger nutzbar. Eigentlich war der Gedanke für 4 clients dann je Einem eine NVMe als Pool bereitzustellen. Das wird aber nur auf dieser Plattform klappen, solange Du den HBA noch nicht hast, also unter 11 HDDs bleibst um dann so also 2 M2 und je ein NVMe im PCIe-Adapter betreiben. Ja, die beiden NVMe passen nativ in die M2 Slots im MB. Evtl. musst Du die Kühlung ausrichten und/oder je einen Kühlkörper nachrüsten (Achte auf die Nähe zu Bauteilen und PCIe Slot, damit der Kühlkörper nicht im Weg ist)...Oder die PCIe zu M2 Karte nehmen, die einen Kühlkörper hat. Ich denke damit bist Du auf der sicheren Seite um die Performance auch über den Draht zu bringen. Ich habe einen Pool im Raid1 aus 2x 1TB NVMe und mein i8100 mit 3.6GHz läuft bei einem Scrub oder re-balance (bei 3.2GB/sec) auf etwa 25% (4 Cores) Wenn man das hochrechnet ist ein Core für die NVMe und ein Core für den 10G Link....dann hast Du immer noch 2 Cores "übrig" Hier habe ich kein Gefühl, was Du für einen Client allein wirklich brauchst. Das System läuft auch mit nur einem Modul. Nachrüsten kannst Du immer. Wenn Du aber doch ein Kit willst, schau genau dafür nach...kann billiger sein, bzw sind die aus einer Charge und sind besser untereinander "verträglich" (dafür gehen sie dann wahrscheinlicher auch gleichzeitig kaputt ) Das hat schon 9x SATA und ist vollmodular. Ich meine man kann dann SATA Strom-/Modul-Kabel nachkaufen. 550W müssten für bis zu 16Disks reichen (20-25W braucht eine HDD beim Start)...das Define R7 schafft bis zu 14x 3.5HDD und dann noch 1-2 "irgendwo". ...für die 2 HDDs auf jeden Fall...für mehr als die Standard-Anzahl an HDDs (6 Stck) kannst Du einen Zusatzkäfig für Innen optional kaufen (8 Stck). Ich würde mir die Lüfter ab Werk mal anhören...dann evtl. Weitere, leisere nachkaufen oder ersetzen, wenn die Zahl der Disks steigt. Monitor, Tastatur und Maus vorhanden? Nur für den Fall...das MB hat kein IPMI, aber die CPU einen IGP.
  17. Well, didn't you check? It sounds strange, that this has happend to you after a multiple year long "uptime". Should you go that route, I'd recommend looking into stablebit drivepool...where you can pool individual drives into a larger Array/Share and where each individual drive is still formatted in itstelf, giving you the ability to extract and mount it outside if things go fubar....quite similar to unraid, but no parity (offers duplication settings for files and folders instead). I am using it in my Win based TV recorder/server and my Win Workstation and I am also very happy with it.
  18. For 24 bays, I'd still go with a rackmounted 4HE version of a case....and up to 36 bays (like supermico CSE-847)...these are the only ones, where you can go with hotswap trays all over. You can/should upgrade/change the Fans, especially go for 120mm fans inside. Some 24x, 4HE chassis offer to mount an ATX PSU. When it comes to feature of "under the table" storage, look at the perfect rack, made by IKEA of sweden:
  19. I see, no woories. I suspect that there is something not working correctly but it is not that easy from text info remotely. Another option could be to deploy a 10G switch in between, you know...just sayin Edit: When you made sure, that the first 10G NIC connection to your ISP-Box is working (second 10G NIC not part of bridge or bond, like I suggested to start with above), try this: ...but I would not consider that a smooth scenario, as with your desktop you'll have to consider which path to take for connecting unraid.
  20. @Julian Guttzeit...denke nach erstem Überschlagen, wirst Du unter 2500EUR, eher 3000EUR nicht rauskommen, beim Endausbau mit 4 Clients. Schau mal hier: Das MB hat schon Platz für 2x NVMe...zwei Weitere über PCIe Karte Dann noch zwei gebrauchte Mellanox DUAL Edit2: stimmt so nicht, siehe unten ...und natürlich noch Gehäuse plus NT...evtl Aufrüstung auf 128GB RAM und 2TB NVMe statt 1TB. Wenn Du mehr als 8 HDDs brauchst, kommt noch ein HBA hinzu Edit: oder Du nimmst eine Karte mit QFSP+ (40G). Edit2: sehe gerade das MB hat zwar 4 PCIe-Slots, und 2x M2 aber es kann nure 2 M2, wenn einer der PCIe-x4 abgeschaltet ist. Damit hast Du mit der DUAL 40GB Karte entweder Platz für 4x NVMe oder 3 NVMe und einen HBA). Diese DUAL zB: Edit4: dieser Typ hat DUAL 40GB-Ethernet: Das sind inifiniband Karten, können aber auch auf Ethernet umgestellt werden. Dann diesen Switch: ...und pro Client ein 80m/RJ45-Modul rein (kühler), sowie 2x QSFP+ DACs. Dann hast Du 2x40Gbps Link zwischen Switch und unraid, den sich alle Clients teilen können. Du sparst eine DUAL Karte, brauchst aber noch 4 Module. Dafür kann auch der Switch mit der Leistung locker umgehen. Dann kommt es "nur" auf die Performance der NVMe an....für jeden Client eine dedizierte als Pool. da geht auf jeden Fall je 10G für 4 (oder mehr clients, wenn Du die beiden 40G Links bündelst im Switch). Edit3: ... oder Du bist erstmal mit 2x-3x NVME zufrieden und rüstest beim HBA auf SAS SSD nach: HBA: (für SATA oder SAS HDDs/SSDs).
  21. one 10G goes to the ISP box and eth0/1G is not connected at all...does unraid have Internet (do you have a keyboard/mouse/monitor directly attached so you could test by booting into local gui mode? It will only do that if there is a cable connected, i there and is the other end of that cable connected to your desktop? strange, that is does not show a link. Because the card/NIC has a loaded driver...if there is a cable or not does not matter. No, it is a bridged setup...all ports are interconnected, like with a switch. Maybe start with less complex steps. still disbale bond mode, enable bridge mode change the numbering, so that eth1 10G is connected to your ISP-box. remove eth0 and eth2 from the bridge connect the new eth1 10G to isp-box disconnect eth0 and eth2 from unraid connect 1G of desktop to ISP box. ...does this work? Change / swap eth1 for eth2.... so we can test the second 10G card in unraid this way Then swap 10G to 1G on unraid (remove eth1 and eth2 from bridge, add eth0 to bridge) and ISP-Box and connect desktop with 10G to isp-box (disconnect its 1G) Does this still work?
  22. Es ist ein Switch..der bindet alle Clients jeweils bis zu 10G transparent an. Vor allem sorgt er in Deinem Fall dafür, dass du von RJ45 auf SFP+ "wandeln" kannst. Allerdings, wenn zum unraid nur 1 oder 2 Links führen geht halt gleichzeitig auch nur soviel da durch. Du könntest also eher 2 Clients simultan ganz gut "auslasten". Du kannst auch eine 40G oder gar 100G Karte reinstecken, aber das wird sehr, sehr teurer. Hier ein Switch für sowas: Bis zu 2x10G = 2GByte/sec ist schon recht heftig....eine NVMe muss auch das erstmal schaffen und nicht nur kurzzeitig. Wenn Du keine Redundanz im Pool brauchst, könntest Du 2 NVMe nehmen und zwei Pools, wobei die clients darauf auchten sollten, nicht eben alles vom gleoichen Pool zu machen. Dann eben eine QSFP+ Karte oder 2 DUAL Karten....dann so einen Switch: Entweder 4x SFP+ (2x DUAL SFP+) oder so ein Kabel für QSFP+ Lies mal hier: Aber das wird nicht günstig...und Du brauchst pro 10G Link, neben der Power für das eigentliche NAS, in unraid einen CPU-Core extra. Du hast da schon ganz schön was vor und geht sicherlich über den Normaluser hinaus. Evtl. kann @mgutt da mehr sagen. Wenn DU wirklich 4x10G Leistung aus dem Ding rausholen willst, brauchst Du auch bei NVMe was "ordentlches", selbst wenn Du es auf 2 NVMe verteilst. Evtl wäre es sinnvoll eine PCIe-v4 Karte zu nehmen und eben da die NVMe draufzusetzen...ich denke PCIe-v3 ist evtl. schon zu langsam für Deinen Use-Case. Siehe oben..."einfach" = günstig ist die auch nicht...Du kannst ein RJ45 Modul einbauen Die ist aber nicht einfach Oben hatte ich eine Gebrauchte verlinkt...das spart Geld....2 zum Preis von einer. Allerdings wirst Du evtl. ein Board mit ,mehr Lanes brauchen...ich denke auch hier lann @mgutt mehr sagen. Vielleicht kann er DIr ein System zusammenstellen....
  23. Ah, OK. Wenn die Performance einer SATA-SSD reicht, geht das auch...und die Daten müssen nicht auch noch über den Link zum unraid. OK, dann kannst Du alles "frei fliegend" machen. OK, für einen Client könntest Du den Switch erstmal weglassen und 1:1 verbinden. Allerdings würde ich eben keine 10GB-T ()RJ45) empfehlen, sondern eben SFP+/SFP28 Ports ... da muss dann noch ein 10GB-T Modul rein. Zum Beispiel sowas: Die hast Du ja schon gefunden. Dieses Modul ist sogar auf 80m ausgelegt, statt 30m und wird mit neuerem Chipsatz wohl etwas kühler sein. theoretisch ja, aber Verfügbarkeit ist in diesen Zeiten so eine Sache... ...schönes, schallgedämmtes Gehäuse, aber evtl für 15 Platten zu klein. Schau Dir auch mal die Serie von Nanoxia an link Edit: irgendwas ging hier gerade nicht..weitere Antworten im 2ten Teil unten
  24. Settings looks OK. So, when you did not get to unraid UI, the situation was setup like this... in unraid eth1 was connected to ISP-box (10G) in unraid eth2 was connected to desktop (10G) in unraid eth0 (1g) was disconnected from ISP-box in desktop, 1G was disconnected from ISP-box ???? Did you reboot your desktop? Did you try to ping the unraid IP from your desktop? What is the output from a "arp -a" command from commandline on your desktop? When you (leave unraiud bridge settings as shown in your pic) connect desktop 1G and unraid eth0 (1G) zu your isp-box *and* disconnect 10G from desktop and eth1 (10G) from unraid.... ...does that work? If so, will it still work, when you disconnect the 1G from desktop connect desktop 10G to isp-box (so unraid only connected with eth0/1G) ????
  25. ....what you should have done, after checking the box, which states that "parity is valid", is something else. You should have first checked, if the data is still there and intact. Since read operation does not require parity you could check and even transfer/save data to a backup. After that, you should have done a parity check including the checkmark set on the box that states "write corrections to parity". Your syslog contains no errors at all. Your data disks are mounted in xfs just, is all your data there and intact?