independence Posted August 19, 2023 Share Posted August 19, 2023 Servus zusammen, ich beobachte seit einiger Zeit ein komisches Verhalten von meines Unraid Server. Es hat dabei immer was mit meiner Fotosammlung zu tun. Die Fotos liegen dabei auf dem Cache, es sind ca 2,6 TB und entsprechend viele einzelne Dateien. Ich habe begonnen in Tranchen die Library über PhotoPrism zu indexieren, dabei kam es jedoch häufiger zum kompletten Einfrieren des Servers - kein Docker Container oder die GUI war dann noch erreichbar, sodass der Server immer hart neugestartet werden muss. Fehler lässt sich reproduzieren, ich habe nach ein paar Versuchen die Indexierung erst einmal auf Eis gelegt weil ich keine Zeit für die Fehlersuche hatte. Nun habe ich begonnen ein weiteres Backup der Fotosammlung auf eine externe Festplatte (angeschlossen an meinem Mac (Mac per WLAN im Netzwerk) anzulegen. Dabei kopiere ich die Dateien einfach sukzessive (meistens in 100GB Tranchen) per Drag and Drop bzw. per FreeFileSync (oder auch per "Commander One") vom Server über den Mac auf die externe SSD. Das klappt auch teilweise, aber nach fast jeder Tranche steigt der Server aus und ist dann ebenfalls nicht mehr ansprechbar und muss hart neugestartet werden. Das ist gerade eben erneut passiert und nachdem ich wieder was kopieren wollte, kommen die folgenden Fehler-/Warnmeldungen im Log (fett und unterstrichen von mir markiert): Aug 19 21:15:47 NAS kernel: docker0: port 8(veth07af23d) entered forwarding state Aug 19 21:15:47 NAS kernel: docker0: port 8(veth07af23d) entered disabled state Aug 19 21:15:48 NAS kernel: eth0: renamed from veth6ab0ca8 Aug 19 21:15:48 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth07af23d: link becomes ready Aug 19 21:15:48 NAS kernel: docker0: port 8(veth07af23d) entered blocking state Aug 19 21:15:48 NAS kernel: docker0: port 8(veth07af23d) entered forwarding state Aug 19 21:15:49 NAS rc.docker: syncthing: started succesfully! Aug 19 21:15:49 NAS kernel: docker0: port 9(veth132510f) entered blocking state Aug 19 21:15:49 NAS kernel: docker0: port 9(veth132510f) entered disabled state Aug 19 21:15:49 NAS kernel: device veth132510f entered promiscuous mode Aug 19 21:15:51 NAS kernel: eth0: renamed from veth32ef327 Aug 19 21:15:51 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth132510f: link becomes ready Aug 19 21:15:51 NAS kernel: docker0: port 9(veth132510f) entered blocking state Aug 19 21:15:51 NAS kernel: docker0: port 9(veth132510f) entered forwarding state Aug 19 21:15:51 NAS rc.docker: vaultwarden: started succesfully! Aug 19 21:15:52 NAS kernel: docker0: port 10(vethdf0b9be) entered blocking state Aug 19 21:15:52 NAS kernel: docker0: port 10(vethdf0b9be) entered disabled state Aug 19 21:15:52 NAS kernel: device vethdf0b9be entered promiscuous mode Aug 19 21:15:53 NAS kernel: eth0: renamed from veth702195a Aug 19 21:15:53 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): vethdf0b9be: link becomes ready Aug 19 21:15:53 NAS kernel: docker0: port 10(vethdf0b9be) entered blocking state Aug 19 21:15:53 NAS kernel: docker0: port 10(vethdf0b9be) entered forwarding state Aug 19 21:15:54 NAS rc.docker: WireGuard-Easy: started succesfully! Aug 19 21:15:56 NAS rc.docker: ZeroTier: started succesfully! Aug 19 21:16:00 NAS kernel: wireguard: WireGuard 1.0.0 loaded. See www.wireguard.com for information. Aug 19 21:16:00 NAS kernel: wireguard: Copyright (C) 2015-2019 Jason A. Donenfeld <[email protected]>. All Rights Reserved. Aug 19 21:17:33 NAS smbd[16977]: [2023/08/19 21:17:33.777773, 0] ../../source3/smbd/msdfs.c:170(parse_dfs_path) Aug 19 21:17:33 NAS smbd[16977]: parse_dfs_path: can't parse hostname from path NAS._smb._tcp.local Aug 19 21:17:33 NAS smbd[16977]: [2023/08/19 21:17:33.777864, 0] ../../source3/smbd/msdfs.c:180(parse_dfs_path) Aug 19 21:17:33 NAS smbd[16977]: parse_dfs_path: trying to convert NAS._smb._tcp.local to a local path Aug 19 21:17:36 NAS smbd[17142]: [2023/08/19 21:17:36.387384, 0] ../../source3/smbd/msdfs.c:170(parse_dfs_path) Aug 19 21:17:36 NAS smbd[17142]: parse_dfs_path: can't parse hostname from path NAS._smb._tcp.local Aug 19 21:17:36 NAS smbd[17142]: [2023/08/19 21:17:36.387457, 0] ../../source3/smbd/msdfs.c:180(parse_dfs_path) Aug 19 21:17:36 NAS smbd[17142]: parse_dfs_path: trying to convert NAS._smb._tcp.local to a local path Aug 19 21:20:45 NAS flash_backup: adding task: /usr/local/emhttp/plugins/dynamix.my.servers/scripts/UpdateFlashBackup update Aug 19 21:21:09 NAS kernel: ------------[ cut here ]------------ Aug 19 21:21:09 NAS kernel: WARNING: CPU: 3 PID: 9 at net/netfilter/nf_conntrack_core.c:1210 __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: Modules linked in: udp_diag wireguard curve25519_x86_64 libcurve25519_generic libchacha20poly1305 chacha_x86_64 poly1305_x86_64 ip6_udp_tunnel udp_tunnel libchacha xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle ip6table_nat iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xfrm_user xfrm_algo iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 xt_addrtype br_netfilter dm_crypt dm_mod md_mod zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) tcp_diag inet_diag it87(O) hwmon_vid ip6table_filter ip6_tables iptable_filter ip_tables x_tables efivarfs bridge stp llc bonding tls r8169 realtek x86_pkg_temp_thermal intel_powerclamp coretemp kvm_intel i915 kvm crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel drm_buddy i2c_algo_bit ttm sha512_ssse3 drm_display_helper aesni_intel drm_kms_helper crypto_simd cryptd mei_pxp mei_hdcp Aug 19 21:21:09 NAS kernel: wmi_bmof intel_rapl_msr drm intel_cstate nvme i2c_i801 i2c_smbus nvme_core video intel_gtt agpgart mei_me processor_thermal_device_pci_legacy processor_thermal_device ahci processor_thermal_rfim mei i2c_core libahci processor_thermal_mbox processor_thermal_rapl intel_rapl_common syscopyarea sysfillrect int340x_thermal_zone sysimgblt intel_soc_dts_iosf fb_sys_fops iosf_mbi thermal tpm_crb fan wmi tpm_tis backlight tpm_tis_core tpm intel_pmc_core acpi_pad button unix [last unloaded: realtek] Aug 19 21:21:09 NAS kernel: CPU: 3 PID: 9 Comm: kworker/u8:0 Tainted: P O 6.1.38-Unraid #2 Aug 19 21:21:09 NAS kernel: Hardware name: Intel Corporation Jasper Lake Client Platform/0123456789ABCDEF0123456789ABCDEF, BIOS V1.17 04/21/2022 Aug 19 21:21:09 NAS kernel: Workqueue: events_unbound macvlan_process_broadcast [macvlan] Aug 19 21:21:09 NAS kernel: RIP: 0010:__nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: Code: 44 24 10 e8 e2 e1 ff ff 8b 7c 24 04 89 ea 89 c6 89 04 24 e8 7e e6 ff ff 84 c0 75 a2 48 89 df e8 9b e2 ff ff 85 c0 89 c5 74 18 <0f> 0b 8b 34 24 8b 7c 24 04 e8 18 dd ff ff e8 93 e3 ff ff e9 72 01 Aug 19 21:21:09 NAS kernel: RSP: 0000:ffffc900001d4d98 EFLAGS: 00010202 Aug 19 21:21:09 NAS kernel: RAX: 0000000000000001 RBX: ffff8883f01ea600 RCX: 7a5b1f7aa11f5ad3 Aug 19 21:21:09 NAS kernel: RDX: 0000000000000000 RSI: 0000000000000001 RDI: ffff8883f01ea600 Aug 19 21:21:09 NAS kernel: RBP: 0000000000000001 R08: 5efd34d807be002d R09: c48f49ce371776f3 Aug 19 21:21:09 NAS kernel: R10: da6f3214641e78e8 R11: ffffc900001d4d60 R12: ffffffff82a11d00 Aug 19 21:21:09 NAS kernel: R13: 0000000000037e4e R14: ffff8885939c4a00 R15: 0000000000000000 Aug 19 21:21:09 NAS kernel: FS: 0000000000000000(0000) GS:ffff88895c180000(0000) knlGS:0000000000000000 Aug 19 21:21:09 NAS kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Aug 19 21:21:09 NAS kernel: CR2: 0000000000549f50 CR3: 0000000180fce000 CR4: 0000000000350ee0 Aug 19 21:21:09 NAS kernel: Call Trace: Aug 19 21:21:09 NAS kernel: <IRQ> Aug 19 21:21:09 NAS kernel: ? __warn+0xab/0x122 Aug 19 21:21:09 NAS kernel: ? report_bug+0x109/0x17e Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? handle_bug+0x41/0x6f Aug 19 21:21:09 NAS kernel: ? exc_invalid_op+0x13/0x60 Aug 19 21:21:09 NAS kernel: ? asm_exc_invalid_op+0x16/0x20 Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0x9e/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? nf_nat_inet_fn+0x60/0x1a8 [nf_nat] Aug 19 21:21:09 NAS kernel: nf_conntrack_confirm+0x25/0x54 [nf_conntrack] Aug 19 21:21:09 NAS kernel: nf_hook_slow+0x3a/0x96 Aug 19 21:21:09 NAS kernel: ? ip_protocol_deliver_rcu+0x164/0x164 Aug 19 21:21:09 NAS kernel: NF_HOOK.constprop.0+0x79/0xd9 Aug 19 21:21:09 NAS kernel: ? ip_protocol_deliver_rcu+0x164/0x164 Aug 19 21:21:09 NAS kernel: __netif_receive_skb_one_core+0x77/0x9c Aug 19 21:21:09 NAS kernel: process_backlog+0x8c/0x116 Aug 19 21:21:09 NAS kernel: __napi_poll.constprop.0+0x28/0x124 Aug 19 21:21:09 NAS kernel: net_rx_action+0x159/0x24f Aug 19 21:21:09 NAS kernel: __do_softirq+0x126/0x288 Aug 19 21:21:09 NAS kernel: do_softirq+0x7f/0xab Aug 19 21:21:09 NAS kernel: </IRQ> Aug 19 21:21:09 NAS kernel: <TASK> Aug 19 21:21:09 NAS kernel: __local_bh_enable_ip+0x4c/0x6b Aug 19 21:21:09 NAS kernel: netif_rx+0x52/0x5a Aug 19 21:21:09 NAS kernel: macvlan_broadcast+0x10a/0x150 [macvlan] Aug 19 21:21:09 NAS kernel: ? _raw_spin_unlock+0x14/0x29 Aug 19 21:21:09 NAS kernel: macvlan_process_broadcast+0xbc/0x12f [macvlan] Aug 19 21:21:09 NAS kernel: process_one_work+0x1a8/0x295 Aug 19 21:21:09 NAS kernel: worker_thread+0x18b/0x244 Aug 19 21:21:09 NAS kernel: ? rescuer_thread+0x281/0x281 Aug 19 21:21:09 NAS kernel: kthread+0xe4/0xef Aug 19 21:21:09 NAS kernel: ? kthread_complete_and_exit+0x1b/0x1b Aug 19 21:21:09 NAS kernel: ret_from_fork+0x1f/0x30 Aug 19 21:21:09 NAS kernel: </TASK> Aug 19 21:21:09 NAS kernel: ---[ end trace 0000000000000000 ]--- Ich hoffe ihr habt eine Idee - das permanente Neustarten kann sicherlich nicht gesund sein. Danke vorab Quote Link to comment
Archonw Posted August 19, 2023 Share Posted August 19, 2023 Habe mit ähnlichen Problemen die letzten Tage zugebracht. Bei mir war es ein Index von Nextcloud Memories, dass zu einem ähnlichen Verhalten führte. Bin also gespannt, ob jemand dir helfen kann. Ich hänge mal noch meinen log Auszug dran. Denke aber, dass es wohl nicht der gleiche Fehler sein wird. log.txt Quote Link to comment
independence Posted August 19, 2023 Author Share Posted August 19, 2023 Danke fürs Feedback. Ich bin gespannt ob jemand eine Idee hat. Nextcloud sollte es nicht sein - das war mal installiert, ist es aber im Moment nicht, da ein Update schiefgelaufen ist und ich vorerst den Container + DB entfernt habe. Quote Link to comment
alturismo Posted August 20, 2023 Share Posted August 20, 2023 7 hours ago, independence said: Ich bin gespannt ob jemand eine Idee hat. der Fehler sieht verdächtig danach aus - Fritzbox im Einsatz - macvlan aktiv in den Docker Settings (für custom:br0 und Dockers mit eigener IP und host access) - Unraid 6.12 wenn ja, Problem bekannt, kann man auch hier nachlesen in diversen Threads ... wird gerade aktiv daran gearbeitet und sieht gut aus. und wenn ja, das hängt nicht an Bildern oder sonst irgendwas, sondern am Netzwerktraffic ... sowie man Traffic verursacht kommen die Fehler bis zum Crash wenn das oben genannte nicht zutrifft (Fritz + macvlan), dann am Besten einen bug report aufmachen und zusätzlich diagnostics ergänzen. Quote Link to comment
independence Posted August 20, 2023 Author Share Posted August 20, 2023 Ja ich nutze macvlan in den Docker Einstellungen und auch Unraid in Version 6.12.x aber habe keine Fritzbox. Bei mir läuft ein Unifi System Aber der Unterschied wird da hoffentlich nicht so groß sein und das baldige Update behebt dann hoffentlich das nervige Problem Quote Link to comment
alturismo Posted August 20, 2023 Share Posted August 20, 2023 5 hours ago, independence said: Ja ich nutze macvlan in den Docker Einstellungen und auch Unraid in Version 6.12.x aber habe keine Fritzbox. Bei mir läuft ein Unifi System dann solltest du getrost auf die empfohlene IPVLAN Einstellung umstellen, die macht mit Fritz Probleme ... Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.