Ford Prefect

Members
  • Posts

    4307
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by Ford Prefect

  1. ...als Ergänzung: den Cache Pool kannst Du dann aber nicht als Cache für den anderen ZFS-Pool (Deinen "Array-Ersatz") nehmen. achte darauf, wenn Du als Array Disk einen Dummy USB verwendest, dass Deine Shares mit Deinen Pools so eingestellt sind, dass sie niemals das Array als "seconday Storage" verwenden.
  2. Was wohl noch nicht getestet wurde ist der cpu gouvenor, oder? Wie ist die CPU-Last, beim iperf3 test? iperf ist nicht multi-threaded. Ist eine CPU am Anschlag oder nur "halb" belastet (sollte man im htop sehen). Hintergrund: Ich habe gerade den gleichen Effekt mit einem "kleinen RPi - 4/8-Kerner und 1Gbit USB-/Eth-Adapter" ... erst die Umstellung auf ondemand bzw Performance gouvenor brachte die 1GBit zutage.
  3. Welche der beiden NICs ist standardmässig auf eth0/br0? Versuche die Reihenfolge gfls. zu ändern (Reihung, zur MAC der Karte zu ethXX kann man in den Netzwerk-Einstellungen ändern) Also, die 1G NIC, auf die auch das S3-Plugin wirkt, als eth0 - und schicke auch das WoL Paket an diese MAC zum wecken (oder andersrum, je nachdem, was DU bisher eingestellt hast). Vermutung ist, dass beim wecken, der geweckte NIC zur eth0 wird, da aber der andere NIC bisher auf dem Slot eth0 zugewiesen ist. Zweiter, alternativer Versuch, falls Du keine Bridges nutzt, sondern "blanke" ethX: in der Netzwerk-Konfig zwei Bridges, mit je einem NIC einstellen/zuweisen.
  4. Für was willst Du das denn zuordnen...zum auswerten oder für Firewall-Regeln? MACs kann man auch leicht fälschen...für IPs ist das problematischer/nicht so einfach. ich wusste bisher nicht, das unify auch son Krampf macht, wie die Fritz oder andere kleine SoHo Router.... Auf was beziehst Du das jetzt? Das Problem liegt ja nicht bei unraid...das funktioniert...andere Router auch..das Problem haben Fritz und dann wohl auch unify... ...ist wahrscheinlich ein Problem zwischen Linux Kernel und Docker daemon. Die Welt ist gross...bei mir war macvlan nicht in Ordnung, weil eben nicht stabil. Ipvlan ist stabil...und limetech macht weder Kernel, noch Docker daemon...ipvlan ist also kein falscher Weg. Das bessere ist der Feind des Guten, sagt man ja.
  5. ...sieht gross aus, auf den Bildern, ist aber nur für 2.5" HDDs....reicht Dir das? SAS ist abwärtskompatibel zu SATA...SAS ist bi-, SATA ist uni-direktional...SAS Verbindungen reichen weiter als SATA. Mehr Strom ziehen die Controller, im Vergleich zu SATA. Edit: gehe mal von etwa 15W für so nen 8-Fach Controller aus, egal ob die Disks drehen oder nicht. Ein HBA (Host-Bus-Adapter) ist ein Controller, der mit Firmware im sogenannten IT-Mode, also kein Raid, rennt. Ideal für ein NAS mit Software-raid, wie FreeNAS oder unraid. Meist gibt es für SAS Controller beide Firmware-Varianten. Früher wurden Server ab Werk mit einem kleinen SAS Raid-Controller ausgeliefert, aber 90% der Kunden haben den rausgeschmissen und grössere reingebaut. Die "kleinen" landeten in der Bucht und man konnte die eben günstig schiessen, dann mit einer IT-Firmware Cross-Flashen (das waren noch Zeiten). Heute gibt es die aber fertig. Ich empfehle einen gebrauchten, denn neue sind meist China-Fakes....achte darauf, dass das passende Slotblech dabei ist, so wie hier
  6. ...weiter unten gibt es dieses Schaubild/Diagramm: ...guter Hinweis!
  7. @paulinus: kein schlechter Fund, aber evtl. was QNAP-Spezifisches. Basierend auf dem hier: https://www.qnap.com/de-de/product/tl-d800s ist diese Karte mit 2 ASMEDIA 1164 bestückt....ist also kein SAS-HBA, sondern "nur" SATA. Daher auch nur 1m maximale Länge, des Kabels. https://www.qnap.com/de-de/product/series/for-pc-workstations Ob es mit einem "normalen" HBA funktioniert - wie @DataCollector schon sagt - käme auf einen Versuch an...Evtl. hat es auch schon jemand getestet. Ich vermute aber stark, dass es mit einem SAS-HBA nicht geht (weil keine SAS, sondern SATA Backplane in dem Gehäuse ist). QNAP nutzt nur die physische SFF8088 Schnittstelle, also die Kabel. Den ASMEDIA 1164 Treiber für die Karte, wenn nicht eh schon vorhanden, für unraid könnte sicher @ich777 beisteuern. Vermutlich muss man das System einmal, beim booten in den JBOD Modus versetzen. Das QNAP-Tool, JBOD-Manager, wird nicht nativ laufen....evtl. möglich über ein Plugin. Klingt jetzt zunächst nicht plug&play für mich.... Edit: so wie das hier aussieht, wird JBOD der Standard sein und man braucht das xSW-Tool nur für Raid-Konfigurationen...dann könnte es mit unraid tatsächlich out-of-the-box funktionieren, wenn Treiber für den ASMEDIA 1164 da sind. Hier steht aber auch, auf S.26 oben, dass andere Schnittstelelnkarten (SAS HBA) nicht damit funktionieren.
  8. es ist nicht zfs, es ist hier der Docker-Daemon. Der erkennt, das zfs vorhanden ist und nutzt es so, siehe auch: https://docs.docker.com/storage/storagedriver/zfs-driver/#image-layering-and-sharing
  9. ..Du kannst es latürnich mit dem zusätzlichen Plugin machen...hast Du ja schon am Start. Was stört Dich jetzt an den Datasets unter ../system/? Das ist wie gesagt Standard, wenn Du Docker auf zfs aktivierst (und als Verzeichnis, nicht als Image).
  10. ...in unraid? derzeit nicht im GUI implementiert...bemühe das CLI von ZFS. ja, nein (wieso willst Du das verhindern? Wenn der Docker daemon ZFS "findet", macht er das halt)....wechsle auf BTRFS und dann gibt es auch keine Datasets....willst Du ZFS, dann ist das halt so. Ich denke es macht Ärger, wenn Du da manuell eingreifst.
  11. Nein, ne ACL ist nicht, was ich meine. VLANs sind L2, Routing ist L3. L3-Hardware-Offloading ist was ganz anderes, lies mal hier: https://help.mikrotik.com/docs/display/ROS/L3+Hardware+Offloading#L3HardwareOffloading-Introduction Dein TP-Link ist ein L2+ Switch und kann zumindest L3 static routing: https://www.tp-link.com/de/business-networking/smart-switch/tl-sg2218/#specifications ich vermute aber, er macht das mit der CPU und nicht mit dem Switch-Chip... Du könntest versuchen das zu testen, was der auf dem Level kann, wenn Du die Sense für die I-Net-Verbindung in ein getrenntes, drittes Netz legst und den Switch als Gateway für HOME und SRV verwendest. Wie Du das im Swich aber intern konfiguriert kann ich nicht sagen....wahrscheinlich brauchst Du den Omada Controller dazu. Das heisst, Du hast im unraid kein VLAN aktiviert? Siehe oben, das ist nunmal so...ein kleiner embedded Router wäre stromsparender...vor allem, wenn Du nur 50MBit I-Net hast.....wofür brauchst Du die Sense denn genau, wenn Du kein VPN nutzt? Ein 50EUR Router schafft das schon, wenn der Traffic nicht zu klein gehackt ist: https://mikrotik.com/product/RB750Gr3#fndtn-testresults und saugt nur 2-3W....und der kann auch schon wireguard, ipsec usw. Mein RB4011 macht mit der CPU etwa 7-9Gbps im Inter-VLAN-Routing auf dem 10Gbs-Link und braucht keine 7W dabei. siehe oben....Wenn die Firewall richtig konfiguriert ist, muss nicht jedes Paket da durch....sobald die Firewall weiss, dass die IP-Verbindung "erlaubt" ist, muss sie die nachfolgenden Pakete auf derselben Verbindung nicht mehr prüfen....wohlgemerkt "Verbindung", das heisst Quell- und Ziel-IP *und* Port. Bei Mikrotik heisst das fasttrack: https://help.mikrotik.com/docs/display/ROS/Basic+Concepts#BasicConcepts-FastTrack ...ob das eine Sense kann, weiss ich nicht.
  12. ...häng einen Switch mit L3-Hardware-Offloading davor. Der braucht weniger Leistung...oder die Sense gegen einen "echten" Router tauschen (der am besten noch so nen Switch-Chip drin hat, der auch L3-HW-Offloading kann), das spart gleich noch mehr Energie. Das funzt, wenn überhaupt, nur ohne VLANs und nur für Docker/VMs auf unraid, nicht für beide Netze...Clients ausserhalb unraid, die mit einem Docker kommunizieren und im anderen Netz sind, müssen immer noch über den Router, weil sie nur den als Gateway kennen. Und die Netzwerktrennung macht dann eben auch keinen Sinn mehr, ist nicht existent.
  13. ...dann ändert sich die Konfig eh und übertragen macht wenig Sinn. Einfach vorher merken (Screenshots) welche Disk(s) im verbleibenden Server Parity war(en). Dann, nachdem der Stick von Server 1 auf Server 2 umgezogen ist, einfach ein beherztes "New Config". Wenn Du die Daten-DIsks aus Server 1 im Server 2 wie bisher (gleiche Shares) einbinden willst, einfach das Array ohne die Parity(s) einmal starten. und diese dann erst im zweiten Schritt konfigurieren und neu bauen lassen.
  14. ...garnicht, die Übertragung von Lizenzen ist nicht erlaubt und auch nicht vorgesehen.
  15. ...Du nimmst den Stick von Server 2 raus und legst ihn in die Schublade. Dann steckst Du den Stick von Server 1 in den Server 2.....fertsch. Edit: Klugscheißer Mode ON: Server bei der Aktion latürnich vorher herunterfahren
  16. Edge und Chrome haben die gleiche Engine...tja, dann bin ich leider raus....evtl. mal einen Bug aufmachen?
  17. ....da gab es doch schon in der 6.12.0 einen Bug mit der Darstellung im Firefox und dem CLI-Fenster..da gingen auch underscores nicht....war ein Firefox Bug. In der 6.12.1 geht das wieder...aber wohl gefixt in Firefox, nicht unraid. Läuft es mit Chrome oder Edge?..dann würde ich auf ein ähnliches Problem mit Firefox tippen...
  18. Thanks for confirming, what I already feared to be the cause of the problems. Still, I see recent posts with tapatalk in their signature...for some folks, the (old) credentials are still lasting somehow? Tapatalk wasn't great but for using on a phone, it was good enough...more minimalistic than the Look&Feel of the Forum in a mobile Browser. I guess there are no real alternatives to it? - Yes, I did place the Browser based "Bookmark" on my Start-Screen....but not really satisfied, as I am using a phone with the smallest display/size the company would give me regards, ford
  19. ...auch bei SSD ist das Array nur so schnell wie eine Disk...bei einerm 10G oder gar 40G/100G Link ist das nicht zu schaffen...mit nem Pool auf Basis NVME und Striping dann schon.
  20. ...wie ich oben schon schrieb, zuerst die Docker und VM-Dienste unter Settings deaktivieren. Dann erst kann der Mover die Dateien verschieben, weil sie sonst von den Diensten im Zugriff sind. Das gleiche "Problem" hast Du auch mit domains (wo standardmässig Deine vdisks der VMs liegen). ...sind darunter auch Ordner und Datei(en)? Nur weil da "0 B" steht, muss das ja nicht stimmen...eine klitzekleine Datei reicht für die Warnung.
  21. ...und, nur um sicher zu sein, mal schauen, ob unter /mnt/cache das Verzeichnis appdata existiert und ob da doch was drin ist....
  22. Nein, mit der Neukonfiguration des Array ist das "Problem" weg. Wenn die Parity eingehängt und gebaut/Parity-Check durch ist, sollte das einfach nicht so sein.... Bitte nochmal schauen, wie die Einstellung des Share "appdata" ist, was Primary und Secondary Storage angeht...kannst Du einen Screenshot machen/zeigen?
  23. Wahrscheinlich sind die Daten eben (teilweise) nicht auf dem Array, sondern auf dem Cache (der nur eine, damit ungeschütze Disk, hat statt zB ein Raid1). Schau mal bei den Shares nach, mach für "appdate" ein "compute/berechne" und Du siehst, ob noch was auf Cache liegt. Wenn dem so ist, was ich vermute, dann musst Du die Docker- und VM-Dienste (unter den jeweiligen Settings) deaktivieren und dann den Mover laufen lassen. Wenn Du auf der 6.12 bist, schau vorher in den Share-Einstellungen ab "Primary = Array" ist und die Richtung, in die der Mover läuft, auch korrekt von Cache->Array steht.