Ford Prefect

Members
  • Posts

    4264
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by Ford Prefect

  1. normalerweise musst Du auf dem anderen System ein zfs export machen...wahrscheinlich einfach mal Proxmox korrekt runterfahren. Edit: ...oder einfach ein beherztes zpool -f import <pool> im Konsolen-Fenster von unraid durchführen, wie es schon im Log steht.
  2. Du sollst HomeAssistant auf custom.network, also br0 mit eigener IP umstellen....so wie Du es bei Adguard schon hast - natürlich mit anderer, bislang nicht vergebener IP ais dem gleichen (Deinem) Netzwerk. ... dann können die auch miteinander kommunizieren, auch wenn Host Access "aus" ist (dann aber eben nur nicht mit dem unraid host selbst).
  3. einfach die Docker auf custom.network mit eigener IP umkonfigurieren...dann können die auch miteinander kommunizieren. Ich nutze grundsätzlich keine Docker, die damit nicht klarkommen.
  4. ...sie ist wohl nicht super, aber mehr als 1Gbps sollte sie für eine Weile auch beim schreiben schaffen: https://www.harddrivebenchmark.net/hdd.php?hdd=INTEL SSDPEKNW512G8H Zumal das wohl ne NVMe mit PCIe Anbindung ist und keine SATA-SSD. Hast Du auf der Netzwerkkarte die flow-control auch abgeschaltet? Was sagen beide Seiten der Verbindung dazu?
  5. Jedes (V)LAN braucht ein Gateway, im Zweifel ist das Dein Router in dem jeweiligen (V)LAN. Du musst also eine IP im jeweiligen Segment und das zugehörige Gateway vergeben siehe oben. Bzgl. des Thread-Titels: die VLANs der Ethernet Schnittstellen haben nix mit dem Netzwerkmodell der Docker (macvan oder ipvlan) zu tun.
  6. Die Aufteilung ist nicht verkehrt, aber je nachdem wo die Reise hingehen soll und wenn Du den cache (secondary storage) schnell/performant haben willst, würde man die NVMe in einen Pool legen, statt ins Array. Ebenfalls würde man eher die HDDs ins Array legen statt in einen Pool, falls da noch Bedarf ist für Wachstum. Das ist später als Pool nicht einfach zu erweitern (bei zfs nur durch jeweils einen weiteren mirror) und nicht mehr umstellbar...als Array kannst Du später auch einzelne Disks "nachlegen"...musst Du also jetzt entscheiden. Sollte es aber nur bei den 2 HDDs bleiben, gäbe es auch die Option das Array nur durch einen einfachen USB-Stick aufzubauen (und dann nie wirklich zu benutzen) und eben die NVMe dann in einen Pool. Quasi alles als Secondary Storage. Gut: die externe HDD auf jeden Fall immer nur über UD verfügbar machen....bleib dabei.
  7. ...dann weg mit dem Plugin und dann ist ruh.
  8. ...und, läuft noch alles, auch nach einem reboot von unraid und der UDM? Ich bin ja nicht sicher, ob Du es einfach deaktivieren solltest...im Changelog steht, das war extra so eingestellt. ich nutze aber auch ne Bridge und ipvlans und habe keine olle UDM oder ne Fritte am Start.
  9. Ah, vhost network....also die Antwort ist ein klares Jein Soweit ich weiss/verstanden habe, haben Fritzbox und Unifi ein Probem mit ipvlan. Macvlan hatte (hat) aber ein Problem im Linux-Kernel, wenn auf ener Bridge akiviert. Seit unraid 6.12.4 gibt es diesen Workaround: https://unraid.net/blog/6-12-4 .. und weiter unten steht das Interessante unter "Technical Breakdown". Du hast kein bridging auf eth0 eingeschaltet, aber wohl Settings > Docker > Host access to custom networks = Enabled Damit bekommst Du diesen Effekt.
  10. Dann musst Du das mal rausfiinden...es müsste einer der Docker sein - oder eine VM - der mit auf der eth0 hängt. Plan B - keine Docker auf host oder bridge Modus betreiben
  11. ...wir reden hier über das untagged/native VLAN. Die ID=1 (oder ID=2) taucht da gar nicht auf Du hast den Port-7 am Switch als Hybrid-Port konfiguriert. damit landet der Traffik aus 10.18.2.0/24, der über den unraid Link auf den Switch trifft (ingress, untagged) auf VLAN-ID=2 (tagged, im Switch/hinter dem Port). Ah...OK, hab ich auf die Schnelle beim Screenshot verwechselt. ...und auf UDM Seite ist der Port identisch konfiguriert? Dann passt ja eigentlich alles...bis auf die Kleinigkeit, das der Port zwischen unraid und Switch nicht die gleiche native-ID hat auf jeder Seite. Bliebe noch der Port zwischen PC und Switch...ist der auch mit native ID = 2 konfiguriert? Warum die IP des unraid host zweimal auftaucht sollte dann nix mit VLANs zu tun haben. Welche MAC steckt jewels dahinter? Hast Du Docker im Bridge oder Hostmode auf eth0 (untagged VLAN) laufen?
  12. Weil ich es weiss...und Du es auch in Deinem Screenshot so zeigst. ...und die VLAN-ID = 1, nicht 2....oder wo hast Du VLAN ID=2 definiert? Die VLAN IDs haben mit der IP erstmal nix zu tun. VLANs sind L2, IP ist L3. Wenn Du ein VLAN mit ID2 willst, musst Du es auch anlegen. In dem IP-Netz in das Du es reinkonfiguriert mit der IP....aber eth0 ist der untagged Port und die default VLAN ID ist 1. Alle eth0.xxx sind tagged ports. Wie ganz zu Anfang schon gesagt...ich glaube Dir fehlt da noch die Kenntnis, was hinter VLANs steckt. Ob das Port 7 oder 5 ist, ist egal...es muss ein Trunk-Port sein, der die tagged VLANs korrekt weiterleitet und die korrekte Einstellung für untagged Traffik hat. "Allow all" sehe ich da nicht aktiviert, Du etwa? Ohne jetzt die unifi Dinger zu kennen, würde ich mal sagen Du hast das native VLAN (gleich untagged) auf ID=2 eingestellt...in unraid hat es aber die 1. Wie gesagt, überall alles schön symmetrisch / gleich aufbauen.
  13. VLANs sind ja dazu da um den Traffik unterschiedlicher Netze zu trennen, der auf dem gleiche Kabel läuft. In Deinem Diagramm ist das Netz 10.18.2.0/24 im VL2 ... der unraid Host ist aber mit der IP 10.18.2.2 garnicht im VL2, sondern im VL1 (auf der default ID an eth0). Du musst ihn explizit in ein VL mit ID=2 legen, analog VL5, VL6 und VL178...also dann als eth0.2 sichtbar/eingestellt. Der Port im Switch zum unraid host, muss ein Trunk-Port sein, für die IDs 2, 5, 6, 178 (alle, die im unraid definiert sind)...gleiches gilt für die Verbindung zwischen Switch und UDM...auf beiden Seiten Trunk-Port. Der Port vom Switch zum PC sollte dann ein Access-Port sein (mit PVID=2, wenn der PC den Traffik nicht tagged, wovon ich hier mal ausgehe).
  14. Die Zuweisung als Cache ist ja nicht exklusiv. Als cache wird nur der zum gegebenen zeitpunkt frei Platz verwendet und wenn der mover "durch" ist, ist der Platz wieder frei. Wenn die Datenmengen jeweils so klein sind, dass sie noch auf die NVMe passen....klar, dann kostet es Dich ja nix und bringt im Vergleich Performance. Das Array ist langsam...selbst als Mirror nur so schnell wie eine Disk...eine HDD ist immer langsamer als eine SSD/NVMe...gerade bei Fotos, wo evtl. noch bearbeitet wird hat das Vorteile, wenn dann die Datei dann noch (oder wieder) auf dem Cache ist.
  15. Nein, nur beim schreiben läuft die mit - wie bei einer "normalen" Parity...aber eben beim schreiben schneller, wie ein Mirror
  16. Das Konstrukt "pool" ist - etwas unglücklich - im Kontext unraid zusammen mit ZFS leider doppelt belegt. Du hast einen unraid pool "Unraid" und den mit einen zfs pool "unraid" befüllt, welcher ein zfs raidz2-pool ist. Damit hast Du den ZFS-Pool wieder eingehängt, aber der ist offensichtlich nicht im unraid Pool "Unraid" gelandet. Nein, sind sie nicht...die Daten sind bei raidz gestriped, also über alle Datenträger verteilt. ZFS weiss um die korrekte Reihenfolge der Datenräger. Eigentlich nicht. Die Frage ist, wieso der Import nicht stattfindet. Du solltest auf keinen Fall formatieren! Warum er den zfs pool nicht in den Unraid Pool einhängt, kann ich nicht sagen. Nach dem Crash hast Du das zfs import gemacht...der Pool ist - zumindest als zfs pool - wieder OK und vorhanden. Hast Du zwischenzeitlich/seither schon wieder mal einen Reboot gemacht un es hat trotzdem nicht geklappt? Wenn ja, mach ein "zfs export unraid" und boote dann...das export sollte den Pool für einen import bereitstellen...vielleicht kommt der dann komplett hoch.
  17. Stell Dir mal im Geiste vor, was Du da tust. Auch hier...stell Dir vor, was Du da tust. ...und da Du mit "Lokal" eben nicht "physisch Lokal" meinst, sondern einen PC in Deinem LAN...hmmm...sind unraid und PC im gleichen VLAN? IPs, DNS- und Host-Nmen, Routing inkl Inter-VLAN Routing solltest Du mal versuchen zu verstehen. Für mich sieht es so aus, als ob Du den unraid Host von Deinem Netz - logisch, nicht physisch - in der UDM abkoppelst, mit dem was Du da tust. Einmal vom I-Net und einmal vom (V)LAN bzw. Inter-VLAN-Routing. Edit: wie gesagt, male es Dir auf. Ein Bild sagt mehr als tausend Worte, heisst es ja.
  18. ...unterscheide "User" und DNS-Namen zur IP eines Systems. Wie Du in deinem letzten Screenshot siehst - ich denke der kommt aus Deiner UDM - ist dies die gleiche IP. Wieso ist das kurios? Deine UDM macht, was Du ihr sagst...Computer sind doof. Was heisst "Local" - von einem PC oder unraid gebootet im GUI Modus mit eigenem Bildschirm und Tastatur/Maus? Edit: Ah...sehe im 2ten Screenshot, Du hast VLANs aktiviert...kann also sein, dass Du Dich ausgesperrt hast Aber Themen Deiner UDM gehören jetzt nicht hier her.
  19. Ich sag es mal so: ...wenn Du es nicht identisch machst, komm bloss nicht an und frag nach Hilfe Nix für ungut, aber weisst Du, was du da tust/tun willst? Viel Hintergrundwissen zum Thema IP-Netze, Routing und Firewalls scheinst Du nicht mitzubringen.🤔 Wenn Du beim Setup von VLANs und den Firewall-Regeln in Deiner UDM was verbockst, sperrst Du Dich komplett aus! Kleiner Tipp dazu: Denke genau nach, welches Dein Managamenet-VLAN ist und reserviere einen pysischen Port an der UDM dafür....Tipp 2 - Für das Management VLAN ist NIEMALS die ID=1 zu wählen. Vielleicht machst Du Dich erstmal ein wenig schlau und baust Dir ein Diagramm, mit den Komponenten, den physichen Verbindungen, den VLAN-IDs (wenn überhaupt benötigt) und den IP-Segmenten. Dazu mal eine Liste Deiner Idee zu Firewall-Regeln, in einfacher Prosa, zB "alle Clients aus dem Heimnetz (VLANID=5) dürfen auf das Gastnetz zugreifen; Clients im Gastnetz (VLANID=99) dürfen nur auf das Internet zugreifen". Diagramm kannst Du hiermit bauen: https://app.diagrams.net/ Das ist bestimmt kein unraid Problem, sondern ein Problem von Windows. Neue IP, neue Anmeldung. Siehe das "Windows gotcha" in den Docs: https://docs.unraid.net/unraid-os/manual/shares/network-access/#share-security
  20. ...natürlich kannst Du die einstellen...in CIDR-Notation: https://de.wikipedia.org/wiki/Classless_Inter-Domain_Routing Nein, Du darfst da natürlich auch weitere VLANs nutzen, die für unraid nicht relevant sind.
  21. ..merkwürdig....und Du hast wirklich beide Dateien vom Stick gelöscht? Dann würde - zumindest netzwerkseitig - ein "jungfräuliches" unraid booten, die erste - und einzige, da die onboard vorher durch vfio nicht mehr sichtbar ist - Netzwerkkarte zu eth0 und "ganz norma" eingerichtet. Probiere das Ganze nochmal, aber vorher die onboard im BIOS deaktivieren...dann funzt zwar vfio auch nicht mehr - aber die 2.5G sollte eth0 werden. Wenn das geschafft ist, kannst Du die andere wieder im BIOS aktivieren und mittels vfio "entfernen".
  22. Lass die onboard mal im VFIO drin und lösche auf dem Stick im config ordner mal die Definition des Netzwerks (Dateien network-rules.cfg und network.cfg) komplett. Dann reboot....hilft das?
  23. Vorsicht, hier kommt es auf die Art an, wie die Disks durchgereicht werden. Wenn ein ganzer, dedizierter Controller/HBA durchgereicht wird, dann kein Problem. Ansonsten aufpassen, zumindest die S/N der Disks könnten sich ändern ...also genau nachschauen, wie die config des Array vorher war und die Disks am besten in der VM vorher mit dem UD-Plugin mal checken, Welche dann Welche ist, bevor das Array gestartet wird. Evtl. auch mal hier schauen/fragen: https://forums.unraid.net/forum/46-virtualizing-unraid/
  24. Ich nehme mal an, Du meinst für diesen Fall die identischen Daten, also dass dieselbe Datei gleichzeitig auf dem Array *und* auf dem Cache vorhanden ist? Nein, da Array (die Disk auf der die Datei liegt) und Cache (auch eine Disk) zwar jeweils ein eigenes Dateisystem haben - und damit dieselbe Datei auf theoretisch auf jedem der beiden Orte vorhanden sein könnte - aber da sie über das zusätzliche Overlay-Dateisystem zusammengeführt werden und wie ein einziges Dateisystem aussehen - und so ja auch nur ein Share für den gleichen Ort/Pfad von allen Disks existiert - geht es nicht.
  25. ...stell mal Deine Diagnostics hier rein. Sonst ist die Glaskugel eher milchig 🤣