Jump to content

telly

Members
  • Posts

    29
  • Joined

  • Last visited

Everything posted by telly

  1. Hi Leute, ich bin am verzweifeln. Habe eine Home Assistant VM unter Unraid laufen, einen Sonoff Zigbee 3.0 USB Dongle Plus (P-Variante) und bekomme mein Zigbee2MQTT Addon nicht zum Laufen. Bei der VM reicht wohl ein einfaches USB Passthrough per Checkbox nicht aus, da man den Stick als serielles Gerät mappen muss. Dazu habe ich den USB Manager in Unraid probiert, um den Stick als serielles Gerät der VM zuzuweisen und auch die xml config der VM habe ich angepasst mit folgendem Absatz (beides separat voneinander getestet): <serial type='dev'> <source path='/dev/serial/by-id/usb-ITead_Sonoff_Zigbee_3.0_USB_Dongle_Plus_4034cef8dc9ded118a5fd8a5a7669f5d-if00-port0'/> <target type='usb-serial' port='1'> <model name='usb-serial'/> </target> <address type='usb' bus='0' port='4'/> </serial> Die VM startet, unter Hardware im Home Assistant taucht der Stick auch auf: Gerätepfad /dev/ttyUSB0 DEVLINKS: /dev/serial/by-id/usb-QEMU_QEMU_USB_SERIAL_1-0000:00:07.7-4-if00-port0 /dev/serial/by-path/pci-0000:00:07.1-usb-0:2:1.0-port0 In den Addon Einstellungen habe ich alle möglichen Varianten eingetragen: serial: port: >- /dev/serial/by-id/usb-ITead_Sonoff_Zigbee_3.0_USB_Dongle_Plus_4034cef8dc9ded118a5fd8a5a7669f5d-if00-port0 oder serial: port: >- /dev/serial/by-id/usb-QEMU_QEMU_USB_SERIAL_1-0000:00:07.7-4-if00-port0 oder serial: port: /dev/ttyUSB0 Wenn ich das Addon starte, erhalte ich immer folgendes Log: [21:01:41] INFO: Preparing to start... [21:01:41] INFO: Socat not enabled [21:01:41] INFO: Starting Zigbee2MQTT... Zigbee2MQTT:info 2023-11-21 21:01:42: Logging to console and directory: '/config/zigbee2mqtt/log/2023-11-21.21-01-42' filename: log.txt Zigbee2MQTT:info 2023-11-21 21:01:42: Starting Zigbee2MQTT version 1.33.2 (commit #unknown) Zigbee2MQTT:info 2023-11-21 21:01:42: Starting zigbee-herdsman (0.21.0) Zigbee2MQTT:error 2023-11-21 21:01:52: Error while starting zigbee-herdsman Zigbee2MQTT:error 2023-11-21 21:01:52: Failed to start zigbee Zigbee2MQTT:error 2023-11-21 21:01:52: Check https://www.zigbee2mqtt.io/guide/installation/20_zigbee2mqtt-fails-to-start.html for possible solutions Zigbee2MQTT:error 2023-11-21 21:01:52: Exiting... Zigbee2MQTT:error 2023-11-21 21:01:52: undefined Der Sonoff Stick ist geflasht mit der Coordinator Firmware Z-Stack_3.x.0 coordinator 20230507 Ich bekomme es einfach nicht zum Laufen, was kann ich noch tun?
  2. Auch den VM Manager stoppen. Secondary erst auf none stellen, wenn alle Daten vom Array runter sind. Falls der Mover zu lange läuft, kann ich das Dynamix file Manager Plugin empfehlen, um die Daten zu moven.
  3. Habe aus anderen Gründen die Hardware meines Unraid Servers getauscht und eine neue VM aufgesetzt, jetzt hab ich das schnellste Windows, was ich je in den Fingern hatte
  4. Die Treiber von folgender ISO sind installiert: /mnt/user/isos/virtio-win-0.1.240-1.iso Der Gerätemanager ist sauber und zeigt keine Warnungen an. Die libvirt.IMG ist ja keine ISO und enthält soweit ich weiß keine Treiber für VMs!?
  5. So, Docker und Libvirt.img sind verschoben und die HDDs gehen schonmal in den spindown, great! Aber die VMs sind wirklich noch grottig in der Performances dafür dass Win11 16 GB RAM und 8 CPU Kerne hat. Gibt es da noch Empfehlungen zum Optimieren?
  6. allerdings liegt dort auch das system share, mit dem docker.img und dem libvirt.img. Könnte das das Problem sein?
  7. Das ist nicht der Fall, dort liegen nur meine persönlichen Shares, die auf dem Array liegen sollen. Die Festplatten machen übrigens auch keinen Spindown, wenn alle VMs ausgeschaltet sind.
  8. Hallo, meine Festplatten schalten sich nicht in den Standby und ich finde die Ursache nicht. Auf dem Array liegen eigentlich nur Dateien, Docker und VMs liegen auf der Cache SSD. Wenn ich die primäre Festplatte in den spindown schicke, läuft sie sofort wieder an, das Gleiche bei der Paritydisk. Ich hatte schon das Plugin Dynamix Active Streams getestet, das zeigt keine geöffneten Dateien an. Ein zweites Problem ist, dass meine Win 11 VM extrem träge reagiert, wenn ich mich per RDP verbinde. Es fühlt sich an, als läuft die VM im Array oder mit hoher CPU Last, was aber beides nicht zutrifft. Vielleicht hängen beide Probleme irgendwo zusammen. Was soll ich posten, damit ihr mir helfen könnt? Welche Screenshots oder Diagnosedaten? Vielen Dank schonmal.
  9. Danke für alles, da frage ich mal in den OPNsense Foren nach
  10. Richtig, ich will auf einem anderen Standort meine Daten sichern. Da ist ein Telekom Speedport Router mit Portfreigabe auf ein PiVPN vorhanden. Hatte es noch nicht hinbekommen, eine Site-to-site Verbindung zwischen dem PiVPN als Wireguard-Server und der OPNsense als Wireguard Client einzurichten. Mir geht es darum dass meine Seite die Verbindung aktiv aufbaut und nicht umgekehrt. Sollte vom Remotestandort keine Verbindung aufgebaut werden, komme ich von hier nicht mehr drauf. Deshalb baut Wireguard im Unraid die Verbindung auf und der PiVPN am Remotestandort ist quasi Wireguard Server. Das ist noch Baustelle, für Lösungsvorschläge bin ich immer offen Gibt es Verbesserungsvorschläge für die s2s-Verbindung zwischen den Standorten? Remote ist leider nur der Speedport vorhanden. Vielleicht muss auch ein anderes Produkt auf dem Raspberry anstatt PiVPN laufen? Ich denke immer, dass meine OPNsense keine Verbindung nach extern aktiv aufbauen kann, sozusagen als Client/Peer, weil sie als WG Server fungiert und Peers sich zur OPNsense verbinden.
  11. Ich hab die Ursache gefunden. Eine Wireguard Site-to-site Verbindung ist falsch konfiguriert, sobald ich den Tunnel ausschalte, läuft alles bestens. Da werde ich nochmal nachbessern. Vielen Dank für die Hilfe, ggf. komme ich wegen des Tunnels nochmal darauf zurück 😇
  12. nach downgrade auf 6.12.3 gleiches Problem, das letzte Update ist also unschuldig. Habe weiter getestet... es ist egal, ob ich aus dem VLAN30 per LAN oder WLAN (Unifi) komme, kann den Server aus dem VLAN 30 nicht erreichen. Habe nun die Opnsense Firewall im Verdacht, da wurde vor Kurzem auf 23.7.3 aktualisiert. Könnte von der Zeit her auch passen. Könntest Du bitte nochmal einen Screenshot von einer funktionierenden Routingtabelle schicken? Ist das richtig, dass beim Subnetz 2.0 Metric 1 steht?
  13. Der Switchport ist schon immer PVID untagged 2. Wie gesagt, erreiche ich die Docker über br0 mit anderen IP Adressen, wie z. B. 192.168.2.16. Habe dennoch testweise eine freie IP für VLAN 2 vergeben. Keine Änderung. Habe dann VLANs in Unraid deaktiviert, das ist vermutlich bisher unnötig gewesen, da der Switchport nur VLAN2 durchlässt. Auch nach Server-Neustart gleiches Verhalten. Unraid IP ist nicht erreichbar, Docker sind erreichbar. Vielleicht ist ein Rollback auf 6.12.3 doch eine Option, aber das löst ja das Problem für zukünftige Updates nicht.
  14. Ich kann übrigens vom Unraid Server (VLAN2) auch keine Adressen im VLAN30 erreichen. Vielleicht ist wirklich was in der lokalen Routing Tabelle des Unraid Servers fehlerhaft.
  15. ich habe noch nie einen Rollback durchgeführt und habe das auch nicht vor, wenn es vermeidbar ist. Zeitlich passt es 100%, dass das Update den Fehler mitgebracht hat. So richtig. Nein, der Unraid Server ist nur im VLAN 2 mit einer IP. Das Routing zwischen den Netzen übernimmt die OPNsense. Wenn es da Probleme gäbe, würde ich doch auch die Docker im VLAN2 vom VLAN30 aus nicht erreichen, die im gleichen VLAN und Subnetz sind, wie der Server selbst. Docker läuft mit ipvlan, der Server hat nur eine Netzwerkkarte, falls das hilft. Schonmal danke für weitere Ideen...
  16. Hallo, mein Unraid Server ist genau seit dem Update auf 6.12.4 nicht mehr aus anderen VLANs erreichbar. Die Docker Dienste jedoch schon, diese sind mit br0 im gleichen Subnetz mit eigenen IP Adressen konfiguriert. Beispiel: Unraid IP 192.168.2.20 im VLAN2 Docker IP 192.168.2.30 im VLAN2 beide erreichbar aus dem VLAN2, keine Probleme Die Server IP 192.168.2.20 ist aus anderen VLANs nicht erreichbar, kein Ping, keine WebUI. Die Docker Container jedoch schon. Routing und Firewall scheidet aus, da wurde nichts geändert, das Routing funktioniert, nur die Server IP ist von anderen VLANs nicht erreichbar. Hat jemand einen Lösungsvorschlag?
  17. same here with Unraid 6.12.3 how can I sort the docker containers without the arrows?
  18. Memtest did not found any errors overnight with 3 runs in 6 hours, so RAM should be fine. I replaced the cache drive and everything is fine. Thanks a lot for your help!!
  19. I will check this with memtest from separate usb drive these days, thank you!
  20. after moving all files to the array i could erase and reformat the cache drive with zfs instead btrfs file system. now my system share is "prefer" (since 6.12 direction cache->array). appdata is cache only and vm shares are array -> cache. since everything is working fine now, I will observe if the cache drive has to be changed. thank you for your great support!
  21. The error in log says „cannot create parent, read only file system“. I will try to move them with dynamic file manager. Thank you so far. What is the best practice to replace the cache drive when the corrupt drive is empty? Unassign, replace, format the new drive, assign the new drive? How can I set the shares to move back to the cache drive?
  22. No, the docker files under appdata only exist on the cache drive. Should I move while mover logging is enabled?
  23. I disabled docker and vm, changed all shares to direction cache->array and started mover to clear the cache drive for replacement. But all my appdata files stay on the cache drive, including my docker and vm files. Why is the mover ignoring these files?
×
×
  • Create New...