Snapmix Posted August 16, 2022 Share Posted August 16, 2022 (edited) Hallo in die Runde, Ich betreibe seit nem Jahr eine Windows 10 Pro VM auf einem Unraid System 6.10.3, AMD Ryzen 5 3400GE, 16 GB RAM 1TB Parity SSD 512 GB nvme Das läuft auch alles ziemlich stabil. Dazu 2 Docker Container und 9 Plugins. Der RAM ist zu ca. 70% ausgelastet die bestehende Win10-VM hat keine große Last. Es sind keine Prozessor-Zuordnungen gemacht, bzw. bei der/n VMS jeweils alle Kerne ausgewählt. Installiere ich eine zweite Win10-VM, starte diese und öffne sie über den Unraid eigenen VNC-Zugang stüzt mir die erste unvermittelt ab. Anbei einige Screenshots der Einstellungen und eben auch das Logfile, welches sich in dem Moment überschlägt. Darin enthalten der Hinweis auf "fehlenden Speicher". Kann ich davon ausgehen, dass der Fehler mit einer Verdopplung auf z.B. 32 GB RAM weg ist oder lest Ihr in meinem Setup/Logfile noch andere Fehler heraus? # Start der ersten Win10-VM: Aug 16 19:08:14 IH-Unraid kernel: br0: port 2(vnet0) entered blocking state Aug 16 19:08:14 IH-Unraid kernel: br0: port 2(vnet0) entered disabled state Aug 16 19:08:14 IH-Unraid kernel: device vnet0 entered promiscuous mode Aug 16 19:08:14 IH-Unraid kernel: br0: port 2(vnet0) entered blocking state Aug 16 19:08:14 IH-Unraid kernel: br0: port 2(vnet0) entered forwarding state Aug 16 19:08:16 IH-Unraid avahi-daemon[6990]: Joining mDNS multicast group on interface vnet0.IPv6 with address fe80::fc54:ff:fe66:1621. Aug 16 19:08:16 IH-Unraid avahi-daemon[6990]: New relevant interface vnet0.IPv6 for mDNS. Aug 16 19:08:16 IH-Unraid avahi-daemon[6990]: Registering new address record for fe80::fc54:ff:fe66:1621 on vnet0.*. Aug 16 19:08:57 IH-Unraid nmbd[6960]: [2022/08/16 19:08:57.149936, 0] ../../source3/nmbd/nmbd_become_lmb.c:398(become_local_master_stage2) Aug 16 19:08:57 IH-Unraid nmbd[6960]: ***** Aug 16 19:08:57 IH-Unraid nmbd[6960]: Aug 16 19:08:57 IH-Unraid nmbd[6960]: Samba name server IH-UNRAID is now a local master browser for workgroup WORKGROUP on subnet 192.168.122.1 Aug 16 19:08:57 IH-Unraid nmbd[6960]: Aug 16 19:08:57 IH-Unraid nmbd[6960]: ***** Aug 16 19:08:57 IH-Unraid nmbd[6960]: [2022/08/16 19:08:57.150033, 0] ../../source3/nmbd/nmbd_become_lmb.c:398(become_local_master_stage2) Aug 16 19:08:57 IH-Unraid nmbd[6960]: ***** Aug 16 19:08:57 IH-Unraid nmbd[6960]: Aug 16 19:08:57 IH-Unraid nmbd[6960]: Samba name server IH-UNRAID is now a local master browser for workgroup WORKGROUP on subnet 172.17.0.1 Aug 16 19:08:57 IH-Unraid nmbd[6960]: Aug 16 19:08:57 IH-Unraid nmbd[6960]: ***** # Guest not running or guest agent not installed # Die Angabe auf Win10 VM1 ändert sich aber sobald ich mich eingeloggt habe, dann wird hier die IP-Adresse vermerkt. RDP-Zugang funktioniert dann alles wie gehabt. # Start der 2. Win10 VM Aug 16 19:12:17 IH-Unraid kernel: br0: port 3(vnet1) entered blocking state Aug 16 19:12:17 IH-Unraid kernel: br0: port 3(vnet1) entered disabled state Aug 16 19:12:17 IH-Unraid kernel: device vnet1 entered promiscuous mode Aug 16 19:12:17 IH-Unraid kernel: br0: port 3(vnet1) entered blocking state Aug 16 19:12:17 IH-Unraid kernel: br0: port 3(vnet1) entered forwarding state Aug 16 19:12:19 IH-Unraid avahi-daemon[6990]: Joining mDNS multicast group on interface vnet1.IPv6 with address fe80::fc54:ff:fe6a:1e14. Aug 16 19:12:19 IH-Unraid avahi-daemon[6990]: New relevant interface vnet1.IPv6 for mDNS. Aug 16 19:12:19 IH-Unraid avahi-daemon[6990]: Registering new address record for fe80::fc54:ff:fe6a:1e14 on vnet1.*. # Guest not running or guest agent not installed # Wenn ich jetzt die VNC-Verbindung erhält die VM auch eine IPv4 aber die "andere, erste" VM stürzt unvermittelt ab. Das Logfile sieht dann wie folgt aus. Aug 16 19:20:07 IH-Unraid avahi-daemon[6990]: Withdrawing address record for fe80::fc54:ff:fe6a:1e14 on vnet1. Aug 16 19:20:36 IH-Unraid kernel: br0: port 3(vnet2) entered blocking state Aug 16 19:20:36 IH-Unraid kernel: br0: port 3(vnet2) entered disabled state Aug 16 19:20:36 IH-Unraid kernel: device vnet2 entered promiscuous mode Aug 16 19:20:36 IH-Unraid kernel: br0: port 3(vnet2) entered blocking state Aug 16 19:20:36 IH-Unraid kernel: br0: port 3(vnet2) entered forwarding state Aug 16 19:20:38 IH-Unraid avahi-daemon[6990]: Joining mDNS multicast group on interface vnet2.IPv6 with address fe80::fc54:ff:fed0:6c14. Aug 16 19:20:38 IH-Unraid avahi-daemon[6990]: New relevant interface vnet2.IPv6 for mDNS. Aug 16 19:20:38 IH-Unraid avahi-daemon[6990]: Registering new address record for fe80::fc54:ff:fed0:6c14 on vnet2.*. Aug 16 19:21:15 IH-Unraid kernel: CPU 4/KVM invoked oom-killer: gfp_mask=0x1100dca(GFP_HIGHUSER_MOVABLE|__GFP_ZERO), order=0, oom_score_adj=0 Aug 16 19:21:15 IH-Unraid kernel: CPU: 2 PID: 24549 Comm: CPU 4/KVM Not tainted 5.15.46-Unraid #1 Aug 16 19:21:15 IH-Unraid kernel: Hardware name: BESSTAR TECH LIMITED X300/Default string, BIOS ATB15012 03/10/2021 Aug 16 19:21:15 IH-Unraid kernel: Call Trace: Aug 16 19:21:15 IH-Unraid kernel: <TASK> Aug 16 19:21:15 IH-Unraid kernel: dump_stack_lvl+0x46/0x5a Aug 16 19:21:15 IH-Unraid kernel: dump_header+0x4a/0x1f3 Aug 16 19:21:15 IH-Unraid kernel: oom_kill_process+0x80/0xfb Aug 16 19:21:15 IH-Unraid kernel: out_of_memory+0x3e3/0x416 Aug 16 19:21:15 IH-Unraid kernel: __alloc_pages_slowpath.constprop.0+0x6f5/0x86f Aug 16 19:21:15 IH-Unraid kernel: __alloc_pages+0x10b/0x1ac Aug 16 19:21:15 IH-Unraid kernel: alloc_pages_vma+0x144/0x160 Aug 16 19:21:15 IH-Unraid kernel: __handle_mm_fault+0x7c9/0xc5c Aug 16 19:21:15 IH-Unraid kernel: ? resched_curr+0x44/0x57 Aug 16 19:21:15 IH-Unraid kernel: handle_mm_fault+0x11c/0x1e2 Aug 16 19:21:15 IH-Unraid kernel: __get_user_pages+0x2d3/0x4c9 Aug 16 19:21:15 IH-Unraid kernel: get_user_pages_unlocked+0xd0/0x212 Aug 16 19:21:15 IH-Unraid kernel: __gfn_to_pfn_memslot+0x151/0x3df [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? kvm_tdp_mmu_map+0x43a/0x467 [kvm] Aug 16 19:21:15 IH-Unraid kernel: kvm_faultin_pfn+0x9d/0x252 [kvm] Aug 16 19:21:15 IH-Unraid kernel: direct_page_fault+0x3c6/0x6b9 [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? kvm_mtrr_check_gfn_range_consistency+0x61/0xe5 [kvm] Aug 16 19:21:15 IH-Unraid kernel: kvm_mmu_page_fault+0x2a0/0x4b5 [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? __apic_update_ppr+0x2b/0x6a [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? apic_update_ppr+0x27/0x7c [kvm] Aug 16 19:21:15 IH-Unraid kernel: kvm_arch_vcpu_ioctl_run+0x1168/0x144b [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? do_futex+0x23e/0x939 Aug 16 19:21:15 IH-Unraid kernel: ? check_preempt_curr+0x29/0x4f Aug 16 19:21:15 IH-Unraid kernel: kvm_vcpu_ioctl+0x195/0x56d [kvm] Aug 16 19:21:15 IH-Unraid kernel: ? __seccomp_filter+0xa2/0x307 Aug 16 19:21:15 IH-Unraid kernel: vfs_ioctl+0x1e/0x2b Aug 16 19:21:15 IH-Unraid kernel: __do_sys_ioctl+0x51/0x74 Aug 16 19:21:15 IH-Unraid kernel: do_syscall_64+0x83/0xa5 Aug 16 19:21:15 IH-Unraid kernel: entry_SYSCALL_64_after_hwframe+0x44/0xae Aug 16 19:21:15 IH-Unraid kernel: RIP: 0033:0x151d60502067 Aug 16 19:21:15 IH-Unraid kernel: Code: 3c 1c e8 2c ff ff ff 85 c0 79 97 49 c7 c4 ff ff ff ff 5b 5d 4c 89 e0 41 5c c3 66 0f 1f 84 00 00 00 00 00 b8 10 00 00 00 0f 05 <48> 3d 01 f0 ff ff 73 01 c3 48 8b 0d d1 1d 0d 00 f7 d8 64 89 01 48 Aug 16 19:21:15 IH-Unraid kernel: RSP: 002b:0000151b5b3fcdb8 EFLAGS: 00000246 ORIG_RAX: 0000000000000010 Aug 16 19:21:15 IH-Unraid kernel: RAX: ffffffffffffffda RBX: 000000000000ae80 RCX: 0000151d60502067 Aug 16 19:21:15 IH-Unraid kernel: RDX: 0000000000000000 RSI: 000000000000ae80 RDI: 000000000000001a Aug 16 19:21:15 IH-Unraid kernel: RBP: 0000151d5e6388c0 R08: 0000560c61078c38 R09: 0000000000000000 Aug 16 19:21:15 IH-Unraid kernel: R10: 0000000000000001 R11: 0000000000000246 R12: 0000000000000000 Aug 16 19:21:15 IH-Unraid kernel: R13: 0000560c610bba03 R14: 0000000000000004 R15: 0000000000000000 Aug 16 19:21:15 IH-Unraid kernel: </TASK> Aug 16 19:21:15 IH-Unraid kernel: Mem-Info: Aug 16 19:21:15 IH-Unraid kernel: active_anon:2964689 inactive_anon:510537 isolated_anon:0 Aug 16 19:21:15 IH-Unraid kernel: active_file:31 inactive_file:1048 isolated_file:34 Aug 16 19:21:15 IH-Unraid kernel: unevictable:44 dirty:0 writeback:0 Aug 16 19:21:15 IH-Unraid kernel: slab_reclaimable:11007 slab_unreclaimable:20711 Aug 16 19:21:15 IH-Unraid kernel: mapped:36926 shmem:179324 pagetables:8044 bounce:0 Aug 16 19:21:15 IH-Unraid kernel: kernel_misc_reclaimable:0 Aug 16 19:21:15 IH-Unraid kernel: free:31352 free_pcp:62 free_cma:0 Aug 16 19:21:15 IH-Unraid kernel: Node 0 active_anon:11858756kB inactive_anon:2042148kB active_file:124kB inactive_file:4192kB unevictable:176kB isolated(anon):0kB isolated(file):136kB mapped:147704kB dirty:0kB writeback:0kB shmem:717296kB shmem_thp: 0kB shmem_pmdmapped: 0kB anon_thp: 11012096kB writeback_tmp:0kB kernel_stack:7168kB pagetables:32176kB all_unreclaimable? yes Aug 16 19:21:15 IH-Unraid kernel: Node 0 DMA free:15364kB min:72kB low:88kB high:104kB reserved_highatomic:0KB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15996kB managed:15364kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB Aug 16 19:21:15 IH-Unraid kernel: lowmem_reserve[]: 0 3054 13789 13789 Aug 16 19:21:15 IH-Unraid kernel: Node 0 DMA32 free:57712kB min:14952kB low:18688kB high:22424kB reserved_highatomic:0KB active_anon:2906472kB inactive_anon:294988kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:3357212kB managed:3268900kB mlocked:0kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB Aug 16 19:21:15 IH-Unraid kernel: lowmem_reserve[]: 0 0 10735 10735 Aug 16 19:21:15 IH-Unraid kernel: Node 0 Normal free:52332kB min:52556kB low:65692kB high:78828kB reserved_highatomic:0KB active_anon:8952284kB inactive_anon:1747420kB active_file:0kB inactive_file:4096kB unevictable:176kB writepending:0kB present:11255808kB managed:10992928kB mlocked:176kB bounce:0kB free_pcp:248kB local_pcp:0kB free_cma:0kB Aug 16 19:21:15 IH-Unraid kernel: lowmem_reserve[]: 0 0 0 0 Aug 16 19:21:15 IH-Unraid kernel: Node 0 DMA: 1*4kB (U) 0*8kB 0*16kB 0*32kB 0*64kB 0*128kB 0*256kB 0*512kB 1*1024kB (U) 1*2048kB (M) 3*4096kB (M) = 15364kB Aug 16 19:21:15 IH-Unraid kernel: Node 0 DMA32: 51*4kB (UM) 50*8kB (UM) 56*16kB (UME) 33*32kB (UME) 31*64kB (UME) 23*128kB (UME) 18*256kB (UME) 15*512kB (UME) 12*1024kB (UME) 11*2048kB (M) 1*4096kB (M) = 58684kB Aug 16 19:21:15 IH-Unraid kernel: Node 0 Normal: 402*4kB (UME) 402*8kB (UME) 395*16kB (UME) 239*32kB (UME) 134*64kB (UME) 77*128kB (UE) 40*256kB (UE) 10*512kB (UM) 0*1024kB 0*2048kB 0*4096kB = 52584kB Aug 16 19:21:15 IH-Unraid kernel: Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB Aug 16 19:21:15 IH-Unraid kernel: Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB Aug 16 19:21:15 IH-Unraid kernel: 180548 total pagecache pages Aug 16 19:21:15 IH-Unraid kernel: 0 pages in swap cache Aug 16 19:21:15 IH-Unraid kernel: Swap cache stats: add 0, delete 0, find 0/0 Aug 16 19:21:15 IH-Unraid kernel: Free swap = 0kB Aug 16 19:21:15 IH-Unraid kernel: Total swap = 0kB Aug 16 19:21:15 IH-Unraid kernel: 3657254 pages RAM Aug 16 19:21:15 IH-Unraid kernel: 0 pages HighMem/MovableOnly Aug 16 19:21:15 IH-Unraid kernel: 87956 pages reserved Aug 16 19:21:15 IH-Unraid kernel: 0 pages cma reserved Aug 16 19:21:15 IH-Unraid kernel: Tasks state (memory values in pages): Aug 16 19:21:15 IH-Unraid kernel: [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name Aug 16 19:21:15 IH-Unraid kernel: [ 722] 0 722 4609 889 53248 0 -1000 udevd Aug 16 19:21:15 IH-Unraid kernel: [ 920] 0 920 52873 1585 69632 0 0 rsyslogd Aug 16 19:21:15 IH-Unraid kernel: [ 1045] 68 1045 758 426 40960 0 0 dhcpcd Aug 16 19:21:15 IH-Unraid kernel: [ 1046] 0 1046 762 525 40960 0 0 dhcpcd Aug 16 19:21:15 IH-Unraid kernel: [ 1047] 68 1047 757 73 40960 0 0 dhcpcd Aug 16 19:21:15 IH-Unraid kernel: [ 1121] 81 1121 1418 564 45056 0 0 dbus-daemon Aug 16 19:21:15 IH-Unraid kernel: [ 1136] 0 1136 2095 715 49152 0 0 elogind-daemon Aug 16 19:21:15 IH-Unraid kernel: [ 1166] 44 1166 18791 1177 61440 0 0 ntpd Aug 16 19:21:15 IH-Unraid kernel: [ 1173] 0 1173 621 22 40960 0 0 acpid Aug 16 19:21:15 IH-Unraid kernel: [ 1187] 0 1187 636 414 45056 0 0 crond Aug 16 19:21:15 IH-Unraid kernel: [ 1191] 0 1191 657 358 45056 0 0 atd Aug 16 19:21:15 IH-Unraid kernel: [ 1305] 68 1305 762 80 40960 0 0 dhcpcd Aug 16 19:21:15 IH-Unraid kernel: [ 3532] 0 3532 645 458 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3533] 0 3533 645 457 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3534] 0 3534 645 461 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3535] 0 3535 645 448 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3536] 0 3536 645 458 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3537] 0 3537 645 467 40960 0 0 agetty Aug 16 19:21:15 IH-Unraid kernel: [ 3572] 0 3572 2272 704 57344 0 -1000 sshd Aug 16 19:21:15 IH-Unraid kernel: [ 3604] 68 3604 762 80 40960 0 0 dhcpcd Aug 16 19:21:15 IH-Unraid kernel: [ 3634] 0 3634 1103 64 45056 0 0 inetd Aug 16 19:21:15 IH-Unraid kernel: [ 3635] 0 3635 86854 1061 94208 0 0 emhttpd Aug 16 19:21:15 IH-Unraid kernel: [ 3738] 0 3738 21431 2903 155648 0 0 php-fpm Aug 16 19:21:15 IH-Unraid kernel: [ 3769] 0 3769 36797 1019 57344 0 0 nginx Aug 16 19:21:15 IH-Unraid kernel: [ 3770] 0 3770 37065 2215 77824 0 0 nginx Aug 16 19:21:15 IH-Unraid kernel: [ 5920] 0 5920 22187 7182 159744 0 0 notify_poller Aug 16 19:21:15 IH-Unraid kernel: [ 5922] 0 5922 22187 7102 159744 0 0 session_check Aug 16 19:21:15 IH-Unraid kernel: [ 5924] 0 5924 22238 7310 163840 0 0 device_list Aug 16 19:21:15 IH-Unraid kernel: [ 5926] 0 5926 993 746 40960 0 0 disk_load Aug 16 19:21:15 IH-Unraid kernel: [ 5928] 0 5928 22188 7301 159744 0 0 parity_list Aug 16 19:21:15 IH-Unraid kernel: [ 6325] 0 6325 22187 7218 159744 0 0 wg_poller Aug 16 19:21:15 IH-Unraid kernel: [ 6327] 0 6327 22187 7249 159744 0 0 update_1 Aug 16 19:21:15 IH-Unraid kernel: [ 6329] 0 6329 22205 7406 163840 0 0 update_2 Aug 16 19:21:15 IH-Unraid kernel: [ 6331] 0 6331 22233 7309 159744 0 0 update_3 Aug 16 19:21:15 IH-Unraid kernel: [ 6834] 0 6834 35840 639 61440 0 0 shfs Aug 16 19:21:15 IH-Unraid kernel: [ 6844] 0 6844 70151 1059 81920 0 0 shfs Aug 16 19:21:15 IH-Unraid kernel: [ 6955] 0 6955 20008 4019 147456 0 0 smbd Aug 16 19:21:15 IH-Unraid kernel: [ 6958] 0 6958 19624 2313 139264 0 0 smbd-notifyd Aug 16 19:21:15 IH-Unraid kernel: [ 6959] 0 6959 19622 1124 131072 0 0 cleanupd Aug 16 19:21:15 IH-Unraid kernel: [ 6960] 0 6960 16212 1553 102400 0 0 nmbd Aug 16 19:21:15 IH-Unraid kernel: [ 6970] 0 6970 639 453 40960 0 0 wsdd2 Aug 16 19:21:15 IH-Unraid kernel: [ 6973] 0 6973 18088 2636 126976 0 0 winbindd Aug 16 19:21:15 IH-Unraid kernel: [ 6976] 0 6976 18212 3160 131072 0 0 winbindd Aug 16 19:21:15 IH-Unraid kernel: [ 6990] 61 6990 1523 826 49152 0 0 avahi-daemon Aug 16 19:21:15 IH-Unraid kernel: [ 6991] 61 6991 1452 77 49152 0 0 avahi-daemon Aug 16 19:21:15 IH-Unraid kernel: [ 6999] 0 6999 670 29 40960 0 0 avahi-dnsconfd Aug 16 19:21:15 IH-Unraid kernel: [ 7071] 0 7071 426434 18899 368640 0 0 dockerd Aug 16 19:21:15 IH-Unraid kernel: [ 7089] 0 7089 404892 11143 286720 0 0 containerd Aug 16 19:21:15 IH-Unraid kernel: [ 7622] 0 7622 7811 2395 102400 0 0 virtlockd Aug 16 19:21:15 IH-Unraid kernel: [ 7627] 0 7627 7850 2647 98304 0 0 virtlogd Aug 16 19:21:15 IH-Unraid kernel: [ 7650] 0 7650 178364 4460 118784 0 1 containerd-shim Aug 16 19:21:15 IH-Unraid kernel: [ 7669] 0 7669 364529 6312 286720 0 0 libvirtd Aug 16 19:21:15 IH-Unraid kernel: [ 7702] 0 7702 1754 79 49152 0 0 iperf3 Aug 16 19:21:15 IH-Unraid kernel: [ 7899] 99 7899 1826 815 49152 0 0 dnsmasq Aug 16 19:21:15 IH-Unraid kernel: [ 7900] 0 7900 1793 89 49152 0 0 dnsmasq Aug 16 19:21:15 IH-Unraid kernel: [ 7911] 0 7911 18192 2488 126976 0 0 winbindd Aug 16 19:21:15 IH-Unraid kernel: [ 8009] 0 8009 178012 3904 114688 0 1 containerd-shim Aug 16 19:21:15 IH-Unraid kernel: [ 8030] 0 8030 187478 11833 233472 0 0 AdGuardHome Aug 16 19:21:15 IH-Unraid kernel: [ 12814] 0 12814 2567 1238 53248 0 0 ttyd Aug 16 19:21:15 IH-Unraid kernel: [ 12818] 0 12818 22177 7166 155648 0 0 run_cmd Aug 16 19:21:15 IH-Unraid kernel: [ 12820] 0 12820 625 167 40960 0 0 tail Aug 16 19:21:15 IH-Unraid kernel: [ 13143] 0 13143 1269317 1130836 10170368 0 0 qemu-system-x86 Aug 16 19:21:15 IH-Unraid kernel: [ 24532] 0 24532 2219207 2118968 17588224 0 0 qemu-system-x86 Aug 16 19:21:15 IH-Unraid kernel: [ 25136] 0 25136 616 184 40960 0 0 sleep Aug 16 19:21:15 IH-Unraid kernel: [ 25155] 0 25155 935 267 40960 0 0 sh Aug 16 19:21:15 IH-Unraid kernel: [ 25156] 0 25156 22233 7309 159744 0 0 update_3 Aug 16 19:21:15 IH-Unraid kernel: oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=vcpu4,mems_allowed=0,global_oom,task_memcg=/machine/qemu-3-STA-VM1-MX300.libvirt-qemu,task=qemu-system-x86,pid=24532,uid=0 Aug 16 19:21:15 IH-Unraid kernel: Out of memory: Killed process 24532 (qemu-system-x86) total-vm:8876828kB, anon-rss:8449800kB, file-rss:32kB, shmem-rss:26040kB, UID:0 pgtables:17176kB oom_score_adj:0 Aug 16 19:21:16 IH-Unraid avahi-daemon[6990]: Interface vnet2.IPv6 no longer relevant for mDNS. Aug 16 19:21:16 IH-Unraid avahi-daemon[6990]: Leaving mDNS multicast group on interface vnet2.IPv6 with address fe80::fc54:ff:fed0:6c14. Aug 16 19:21:16 IH-Unraid kernel: br0: port 3(vnet2) entered disabled state Aug 16 19:21:16 IH-Unraid kernel: device vnet2 left promiscuous mode Aug 16 19:21:16 IH-Unraid kernel: br0: port 3(vnet2) entered disabled state Aug 16 19:21:16 IH-Unraid avahi-daemon[6990]: Withdrawing address record for fe80::fc54:ff:fed0:6c14 on vnet2. Edited August 16, 2022 by Snapmix Quote Link to comment
alturismo Posted August 16, 2022 Share Posted August 16, 2022 45 minutes ago, Snapmix said: Kann ich davon ausgehen, dass der Fehler mit einer Verdopplung auf z.B. 32 GB RAM weg ist oder lest Ihr in meinem Setup/Logfile noch andere Fehler heraus? starte doch mal deine VM's mit weniger Ram ... was passiert da ? Bsp. beide mit 2 GB ... Quote Link to comment
mgutt Posted August 16, 2022 Share Posted August 16, 2022 Bitte kein RAM Ballooning einstellen. Min und max jeweils identisch einstellen! Siehe auch: Quote Link to comment
Snapmix Posted August 17, 2022 Author Share Posted August 17, 2022 (edited) Prima, Danke erstmal fürs flotte Feedback. Werde beides testen, geht aber erst Heute nach "Dienstschluss", die erste VM ist ja im Betrieb @mgutt: Mist, dass ist wohl die einzige Anleitung, die mir entgangen ist. Ich hatte die Doku und dann das Video von spaceinvador zur Hilfe gezogen Edited August 17, 2022 by Snapmix Quote Link to comment
Snapmix Posted August 18, 2022 Author Share Posted August 18, 2022 (edited) Hm, jetzt habe ich nach der "neuen" Anleitung ein Setup mit Win10_21H2_German_x64 und virtio-win-0.1.221 angelegt (Q35-6.2 statt i440, 3.0 quemu XHCI) und dabei den RAM auf 4 GB beschränkt und nicht 30 sondern 35 GB vergeben. Das scheint mein "Absturzproblem" beseitigt zu haben. Dafür scho mal Dank vom Herzen ABER: Ich bekomme in der neuen VM die Netzwerkkarte nicht zum laufen?! Treiber und Guest-Agent installiert wie vorgegeben, System neu gestartet, Unraid neu gestartet, MAC-Adresse geändert, Darüber hinaus innerhalb Windows das "Netzwerk resettet", br0 und vibro0 probiert virtio und virtio-net getauscht Bei der Installation gab es keinerlei Fehlermeldung, trotzdem sehe ich "nur die Weltkugel" und im Gerätemanager habe ich den Fehler "Code 56" Any idea wie ich dem beikomme?! Edited August 18, 2022 by Snapmix Quote Link to comment
alturismo Posted August 19, 2022 Share Posted August 19, 2022 6 hours ago, Snapmix said: Any idea wie ich dem beikomme?! mit etwas Suche im Forum Treiber löschen und manuell aus der mounted virtio installieren. Quote Link to comment
Solution Snapmix Posted August 20, 2022 Author Solution Share Posted August 20, 2022 @alturismo: Ich habe den Seitenhieb natürlich verstanden , nur bin ich bei meiner Suche nach "Code 56" - vor meiner Rückfrage - immer nur auf @MaggifiXXLs Thread gestoßen, der ihn nach einer Unraid-Neuinstallation gleich wieder schloss. Aber jetzt habe ich gefunden, was Du meintest und hänge ihn hier gleich nochmal dran, weil die Lösung meines Problems! Und hier im Speziellen: Deinstallieren und neu installieren OHNE Neustart! 1 Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.