Jump to content

RiDDiX

Members
  • Posts

    172
  • Joined

  • Last visited

Posts posted by RiDDiX

  1. God damn it... Other logs...

     

     

    Jul 12 16:55:25 RiDDiX-NAS kernel: CPU: 21 PID: 17732 Comm: lsof Tainted: P      D W  O      5.15.46-Unraid #1
    Jul 12 16:55:25 RiDDiX-NAS kernel: Hardware name: System manufacturer System Product Name/ROG STRIX X570-F GAMING, BIOS 4403 04/27/2022
    Jul 12 16:55:25 RiDDiX-NAS kernel: RIP: 0010:show_map_vma+0x30/0x134
    Jul 12 16:55:25 RiDDiX-NAS kernel: Code: 55 41 54 49 89 fc 55 53 48 8b ae a0 00 00 00 48 89 f3 4c 8b 6e 40 48 8b 4e 50 48 85 ed 74 1d 48 8b 45 20 4c 8b 86 98 00 00 00 <48> 8b 50 28 49 c1 e0 0c 48 8b 40 38 44 8b 4a 10 eb 08 45 31 c9 45
    Jul 12 16:55:25 RiDDiX-NAS kernel: RSP: 0018:ffffc9000416fdb8 EFLAGS: 00010286
    Jul 12 16:55:25 RiDDiX-NAS kernel: RAX: 0000000000000000 RBX: ffff8887408ca780 RCX: 0000000000000075
    Jul 12 16:55:25 RiDDiX-NAS kernel: RDX: ffff88810169d640 RSI: ffff8887408ca780 RDI: ffff88810169d618
    Jul 12 16:55:25 RiDDiX-NAS kernel: RBP: ffff88815c6c6dc0 R08: 000000000000001c R09: 000014654160f000
    Jul 12 16:55:25 RiDDiX-NAS kernel: R10: 0000000000004004 R11: 0000000000000001 R12: ffff88810169d618
    Jul 12 16:55:25 RiDDiX-NAS kernel: R13: ffff888107c46a40 R14: ffff88810169d640 R15: ffff88810169d618
    Jul 12 16:55:25 RiDDiX-NAS kernel: FS:  00001486d0f49740(0000) GS:ffff889faed40000(0000) knlGS:0000000000000000
    Jul 12 16:55:25 RiDDiX-NAS kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
    Jul 12 16:55:25 RiDDiX-NAS kernel: CR2: 0000000000000028 CR3: 0000000290726000 CR4: 0000000000350ee0
    Jul 12 16:55:25 RiDDiX-NAS kernel: Call Trace:
    Jul 12 16:55:25 RiDDiX-NAS kernel: <TASK>
    Jul 12 16:55:25 RiDDiX-NAS kernel: show_map+0xa/0xd
    Jul 12 16:55:25 RiDDiX-NAS kernel: seq_read_iter+0x258/0x347
    Jul 12 16:55:25 RiDDiX-NAS kernel: seq_read+0xfc/0x11f
    Jul 12 16:55:25 RiDDiX-NAS kernel: vfs_read+0xa8/0x108
    Jul 12 16:55:25 RiDDiX-NAS kernel: ksys_read+0x76/0xbe
    Jul 12 16:55:25 RiDDiX-NAS kernel: do_syscall_64+0x83/0xa5
    Jul 12 16:55:25 RiDDiX-NAS kernel: entry_SYSCALL_64_after_hwframe+0x44/0xae
    Jul 12 16:55:25 RiDDiX-NAS kernel: RIP: 0033:0x1486d11ec9ce
    Jul 12 16:55:25 RiDDiX-NAS kernel: Code: c0 e9 e6 fe ff ff 50 48 8d 3d 6e 42 0c 00 e8 19 00 02 00 66 0f 1f 84 00 00 00 00 00 64 8b 04 25 18 00 00 00 85 c0 75 14 0f 05 <48> 3d 00 f0 ff ff 77 5a c3 66 0f 1f 84 00 00 00 00 00 48 83 ec 28
    Jul 12 16:55:25 RiDDiX-NAS kernel: RSP: 002b:00007fffa6ed48e8 EFLAGS: 00000246 ORIG_RAX: 0000000000000000
    Jul 12 16:55:25 RiDDiX-NAS kernel: RAX: ffffffffffffffda RBX: 000000000042b2c0 RCX: 00001486d11ec9ce
    Jul 12 16:55:25 RiDDiX-NAS kernel: RDX: 0000000000001000 RSI: 000000000048bad0 RDI: 0000000000000004
    Jul 12 16:55:25 RiDDiX-NAS kernel: RBP: 00001486d12e8600 R08: 0000000000000004 R09: 0000000000000000
    Jul 12 16:55:25 RiDDiX-NAS kernel: R10: 00001486d128fac0 R11: 0000000000000246 R12: 000000000042b2c0
    Jul 12 16:55:25 RiDDiX-NAS kernel: R13: 0000000000000d68 R14: 00001486d12e7a00 R15: 0000000000000d68
    Jul 12 16:55:25 RiDDiX-NAS kernel: </TASK>
    Jul 12 16:55:25 RiDDiX-NAS kernel: Modules linked in: ipvlan vhci_hcd usbip_core xt_connmark xt_mark xt_comment iptable_raw nvidia_modeset(PO) nvidia_uvm(PO) xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack nf_conntrack_netlink nfnetlink xt_addrtype br_netfilter xfs dm_crypt dm_mod dax ip6table_nat md_mod nvidia(PO) drm backlight uvcvideo videobuf2_vmalloc videobuf2_memops videobuf2_v4l2 videobuf2_common videodev mc iptable_nat xt_MASQUERADE nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 wireguard curve25519_x86_64 libcurve25519_generic libchacha20poly1305 chacha_x86_64 poly1305_x86_64 ip6_udp_tunnel udp_tunnel libchacha ip6table_filter ip6_tables iptable_filter ip_tables x_tables bonding ixgbe mdio edac_mce_amd wmi_bmof mxm_wmi kvm_amd kvm mpt3sas crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel aesni_intel i2c_piix4 ahci ch341 input_leds raid_class crypto_simd cryptd rapl usbserial ccp
    Jul 12 16:55:25 RiDDiX-NAS kernel: i2c_core tpm_crb k10temp led_class scsi_transport_sas libahci tpm_tis nvme tpm_tis_core tpm nvme_core wmi button acpi_cpufreq [last unloaded: i2c_dev]
    Jul 12 16:55:25 RiDDiX-NAS kernel: CR2: 0000000000000028
    Jul 12 16:55:25 RiDDiX-NAS kernel: ---[ end trace c58ca40a2ea7aedd ]---
    Jul 12 16:55:25 RiDDiX-NAS kernel: RIP: 0010:show_map_vma+0x3c/0x134
    Jul 12 16:55:25 RiDDiX-NAS kernel: Code: 00 00 00 48 89 f3 4c 8b 6e 40 48 8b 4e 50 48 85 ed 74 1d 48 8b 45 20 4c 8b 86 98 00 00 00 48 8b 50 28 49 c1 e0 0c 48 8b 40 38 <44> 8b 4a 10 eb 08 45 31 c9 45 31 c0 31 c0 48 8b 53 08 50 4c 89 e7
    Jul 12 16:55:25 RiDDiX-NAS kernel: RSP: 0018:ffffc900075afdb8 EFLAGS: 00010216
    Jul 12 16:55:25 RiDDiX-NAS kernel: RAX: ffff888101185240 RBX: ffff8887408ca780 RCX: 0000000000000075
    Jul 12 16:55:25 RiDDiX-NAS kernel: RDX: 0000000000000000 RSI: ffff8887408ca780 RDI: ffff888107f7a528
    Jul 12 16:55:25 RiDDiX-NAS kernel: RBP: ffff8883f07b5218 R08: 000000000001c000 R09: 000014654160f000
    Jul 12 16:55:25 RiDDiX-NAS kernel: R10: 0000000000004004 R11: 0000000000000001 R12: ffff888107f7a528
    Jul 12 16:55:25 RiDDiX-NAS kernel: R13: ffff888107c46a40 R14: ffff888107f7a550 R15: ffff888107f7a528
    Jul 12 16:55:25 RiDDiX-NAS kernel: FS:  00001486d0f49740(0000) GS:ffff889faed40000(0000) knlGS:0000000000000000
    Jul 12 16:55:25 RiDDiX-NAS kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
    Jul 12 16:55:25 RiDDiX-NAS kernel: CR2: 0000000000000028 CR3: 0000000290726000 CR4: 0000000000350ee0
    Jul 12 16:55:30 RiDDiX-NAS kernel: BUG: kernel NULL pointer dereference, address: 0000000000000028
    Jul 12 16:55:30 RiDDiX-NAS kernel: #PF: supervisor read access in kernel mode
    Jul 12 16:55:30 RiDDiX-NAS kernel: #PF: error_code(0x0000) - not-present page
    Jul 12 16:55:30 RiDDiX-NAS kernel: PGD 276255067 P4D 276255067 PUD 3a2e2e067 PMD 0 
    Jul 12 16:55:30 RiDDiX-NAS kernel: Oops: 0000 [#2363] SMP NOPTI

     

     

    Also I cant even download Diags.... I dont know what happens. As mentioned. I tested every component without a problem.

  2. Hello,

     

    I tested nearly everything. Memtest without error. Changed ram same errors in syslog.

    Tried within safemod same error, tried it just with dockers same error.

    I am getting frustrated xD I just get these errors since 6.10.3 maybe already at the 6.10.2 but these updates where released so fast I cant tell correctly.

    I didnt changed anything to my server. Also I tried to set my ram speeds to the FAQ related once but still. Randomly these errors and at some point my system just hangs up.


     

    Jul 11 16:22:24 RiDDiX-NAS kernel: WARNING: CPU: 15 PID: 0 at net/netfilter/nf_conntrack_core.c:1192 __nf_conntrack_confirm+0xb8/0x254 [nf_conntrack]
    Jul 11 16:22:24 RiDDiX-NAS kernel: Modules linked in: xt_connmark xt_mark xt_comment iptable_raw nvidia_modeset(PO) nvidia_uvm(PO) xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack nf_conntrack_netlink nfnetlink xt_addrtype br_netfilter xfs dm_crypt dm_mod dax ip6table_nat md_mod nvidia(PO) drm backlight uvcvideo videobuf2_vmalloc videobuf2_memops videobuf2_v4l2 videobuf2_common videodev mc iptable_nat xt_MASQUERADE nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 wireguard curve25519_x86_64 libcurve25519_generic libchacha20poly1305 chacha_x86_64 poly1305_x86_64 ip6_udp_tunnel udp_tunnel libchacha ip6table_filter ip6_tables iptable_filter ip_tables x_tables bonding ixgbe mdio edac_mce_amd wmi_bmof mxm_wmi kvm_amd kvm mpt3sas crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel aesni_intel i2c_piix4 ahci ch341 input_leds raid_class crypto_simd cryptd rapl usbserial ccp i2c_core tpm_crb k10temp led_class
    Jul 11 16:22:24 RiDDiX-NAS kernel: scsi_transport_sas libahci tpm_tis nvme tpm_tis_core tpm nvme_core wmi button acpi_cpufreq [last unloaded: i2c_dev]
    Jul 11 16:22:24 RiDDiX-NAS kernel: CPU: 15 PID: 0 Comm: swapper/15 Tainted: P           O      5.15.46-Unraid #1
    Jul 11 16:22:24 RiDDiX-NAS kernel: Hardware name: System manufacturer System Product Name/ROG STRIX X570-F GAMING, BIOS 4403 04/27/2022
    Jul 11 16:22:24 RiDDiX-NAS kernel: RIP: 0010:__nf_conntrack_confirm+0xb8/0x254 [nf_conntrack]
    Jul 11 16:22:24 RiDDiX-NAS kernel: Code: 89 c6 48 89 44 24 18 e8 53 e4 ff ff 44 89 f2 44 89 ef 89 c6 89 c5 e8 2c e8 ff ff 84 c0 75 9f 49 8b 87 80 00 00 00 a8 08 74 19 <0f> 0b 89 ee 44 89 ef 45 31 e4 e8 dc df ff ff e8 ae e4 ff ff e9 71
    Jul 11 16:22:24 RiDDiX-NAS kernel: RSP: 0018:ffffc900004e8858 EFLAGS: 00010202
    Jul 11 16:22:24 RiDDiX-NAS kernel: RAX: 0000000000000188 RBX: ffffffff828e1500 RCX: 0000000000000000
    Jul 11 16:22:24 RiDDiX-NAS kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffffffffa0223c20
    Jul 11 16:22:24 RiDDiX-NAS kernel: RBP: 000000000003715d R08: 2f791cea309648c3 R09: 127962b13e3d8c35
    Jul 11 16:22:24 RiDDiX-NAS kernel: R10: c61a893cb1589f1e R11: 08aef56a65271cbe R12: 0000000000033e78
    Jul 11 16:22:24 RiDDiX-NAS kernel: R13: 0000000000033e78 R14: 0000000000000000 R15: ffff8881511bde00
    Jul 11 16:22:24 RiDDiX-NAS kernel: FS:  0000000000000000(0000) GS:ffff889faebc0000(0000) knlGS:0000000000000000
    Jul 11 16:22:24 RiDDiX-NAS kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
    Jul 11 16:22:24 RiDDiX-NAS kernel: CR2: 000036b247a02058 CR3: 00000003b2b6e000 CR4: 0000000000350ee0
    Jul 11 16:22:24 RiDDiX-NAS kernel: Call Trace:
    Jul 11 16:22:24 RiDDiX-NAS kernel: <IRQ>
    Jul 11 16:22:24 RiDDiX-NAS kernel: nf_conntrack_confirm+0x26/0x3f [nf_conntrack]
    Jul 11 16:22:24 RiDDiX-NAS kernel: nf_hook_slow+0x3e/0x93
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? ip_protocol_deliver_rcu+0x135/0x135
    Jul 11 16:22:24 RiDDiX-NAS kernel: NF_HOOK.constprop.0+0x73/0xce
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? ip_protocol_deliver_rcu+0x135/0x135
    Jul 11 16:22:24 RiDDiX-NAS kernel: ip_sabotage_in+0x4c/0x59 [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: nf_hook_slow+0x3e/0x93
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? ip_rcv_finish_core.constprop.0+0x358/0x358
    Jul 11 16:22:24 RiDDiX-NAS kernel: NF_HOOK.constprop.0+0x73/0xce
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? ip_rcv_finish_core.constprop.0+0x358/0x358
    Jul 11 16:22:24 RiDDiX-NAS kernel: __netif_receive_skb_one_core+0x79/0x9a
    Jul 11 16:22:24 RiDDiX-NAS kernel: netif_receive_skb+0xa3/0xf7
    Jul 11 16:22:24 RiDDiX-NAS kernel: br_handle_frame_finish+0x3c5/0x407
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? br_handle_local_finish+0x13/0x13
    Jul 11 16:22:24 RiDDiX-NAS kernel: br_nf_hook_thresh+0xc6/0xf7 [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? br_handle_local_finish+0x13/0x13
    Jul 11 16:22:24 RiDDiX-NAS kernel: br_nf_pre_routing_finish+0x29d/0x2c4 [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? br_handle_local_finish+0x13/0x13
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? NF_HOOK.isra.0+0xc5/0x119 [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: br_nf_pre_routing+0x226/0x236 [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? br_nf_forward_finish+0xdc/0xdc [br_netfilter]
    Jul 11 16:22:24 RiDDiX-NAS kernel: br_handle_frame+0x292/0x2da
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? br_handle_local_finish+0x13/0x13
    Jul 11 16:22:24 RiDDiX-NAS kernel: __netif_receive_skb_core.constprop.0+0x4b6/0x685
    Jul 11 16:22:24 RiDDiX-NAS kernel: __netif_receive_skb_list_core+0x81/0x112
    Jul 11 16:22:24 RiDDiX-NAS kernel: netif_receive_skb_list_internal+0x1c7/0x1fc
    Jul 11 16:22:24 RiDDiX-NAS kernel: gro_normal_list+0x22/0x3e
    Jul 11 16:22:24 RiDDiX-NAS kernel: napi_complete_done+0x7f/0x118
    Jul 11 16:22:24 RiDDiX-NAS kernel: ixgbe_poll+0xd71/0xe2c [ixgbe]
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? recalibrate_cpu_khz+0x1/0x1
    Jul 11 16:22:24 RiDDiX-NAS kernel: ? common_interrupt+0x43/0x8b
    Jul 11 16:22:24 RiDDiX-NAS kernel: __napi_poll.constprop.0+0x2a/0x114
    Jul 11 16:22:24 RiDDiX-NAS kernel: net_rx_action+0xe8/0x1f2
    Jul 11 16:22:24 RiDDiX-NAS kernel: __do_softirq+0xef/0x218
    Jul 11 16:22:24 RiDDiX-NAS kernel: __irq_exit_rcu+0x4d/0x88
    Jul 11 16:22:24 RiDDiX-NAS kernel: common_interrupt+0x73/0x8b
    Jul 11 16:22:24 RiDDiX-NAS kernel: </IRQ>
    Jul 11 16:22:24 RiDDiX-NAS kernel: <TASK>
    Jul 11 16:22:24 RiDDiX-NAS kernel: asm_common_interrupt+0x1e/0x40
    Jul 11 16:22:24 RiDDiX-NAS kernel: RIP: 0010:arch_local_irq_enable+0x7/0x8
    Jul 11 16:22:24 RiDDiX-NAS kernel: Code: a2 bc 1c 00 85 db 48 89 e8 79 03 48 63 c3 5b 5d 41 5c c3 9c 58 0f 1f 44 00 00 c3 fa 66 0f 1f 44 00 00 c3 fb 66 0f 1f 44 00 00 <c3> 0f 1f 44 00 00 55 49 89 d3 48 81 c7 b0 00 00 00 48 83 c6 70 53
    Jul 11 16:22:24 RiDDiX-NAS kernel: RSP: 0018:ffffc900001c7ea0 EFLAGS: 00000246
    Jul 11 16:22:24 RiDDiX-NAS kernel: RAX: ffff889faebebb40 RBX: 0000000000000002 RCX: 000000000000001f
    Jul 11 16:22:24 RiDDiX-NAS kernel: RDX: 000000000000000f RSI: 000000000000000f RDI: 0000000000000000
    Jul 11 16:22:24 RiDDiX-NAS kernel: RBP: ffff8881083d2800 R08: 00000000ffffffff R09: ffff889faebdeca0
    Jul 11 16:22:24 RiDDiX-NAS kernel: R10: 0000000000000020 R11: 0000000000002998 R12: ffffffff82314da0
    Jul 11 16:22:24 RiDDiX-NAS kernel: R13: 0000000000000002 R14: 000000b7afb0d960 R15: 0000000000000000
    Jul 11 16:22:24 RiDDiX-NAS kernel: cpuidle_enter_state+0x117/0x1db
    Jul 11 16:22:24 RiDDiX-NAS kernel: cpuidle_enter+0x2a/0x36
    Jul 11 16:22:24 RiDDiX-NAS kernel: do_idle+0x1b7/0x225
    Jul 11 16:22:24 RiDDiX-NAS kernel: cpu_startup_entry+0x1d/0x1f
    Jul 11 16:22:24 RiDDiX-NAS kernel: secondary_startup_64_no_verify+0xb0/0xbb
    Jul 11 16:22:24 RiDDiX-NAS kernel: </TASK>
    Jul 11 16:22:24 RiDDiX-NAS kernel: ---[ end trace c58ca40a2ea7a5a2 ]---

     

  3. Oder in unRAID bei Updates von Stable auf Next stellen. Schon bekommt man die letzte RC angezeigt und kann diese installieren. Da dies aber ein Release-Candidat ist sollte man dennoch vorsichtig sein, da das System instabil sein könnte.

    Mit der RC8 wurde meine Intel Netzwerkkarte wieder gefixed (Zum Glück wieder die Kernel-Treiber verwendet).

  4. 1 hour ago, Björn f. said:

    Das Ziel ist, alle E-Mails an einem Ort, am besten mit login.

     

    Ich arbeite viel vom handy / Tablet und PC. und möchte nicht immer alles manuell konfigurieren.

     

    BSP meine handy und Tablet APP hat vor kurzen mal wieder ein Update gekommen.

     

     

    Nun musste ich alle E-Mail Adresse wieder neu Konfigurieren, das nervt und ist zeitaufwendig ohne ende.

    Somit Dachte ich es gibt einen Docker oder ein Plugin mit welchem ich alle E-Mail abrufen kann und ggf. am Handy nur noch eine Einrichtung machen muss damit ich auf alles zugriff habe.

     

    Widerspricht leider einer anständigen Lösung. Weil du wenn nur von einem Konto aus auch E-Mails verschicken könntest.

    Wie meine Vorredner bereits angemerkt haben, gibt es sowas hauptsächlich als "Client"-Lösung. Programme wie Postbox und Mailbird fallen mir da direkt ein, mehere verschiedene Konto aber ein Posteingang. (Mailbird nutze ich selbst).

    Auf unRAID haben ich ebenfalls Thunderbird als Docker und dort ebenfalls alle Konten drin, damit falls ich mal was löschen sollte dennoch eine Kopie des Posteingangs sowie Ausgangs habe.

    Relay Server nützen dir hier ebenfalls nicht wirklich was. Es gibt zwar Webmail-PHP-Pro und Aurora vom selben Hersteller wo du die Konten einrichten kannst und dann von einem Webinterface darauf zugreifen kannnst. Kostet aber.

  5. 44 minutes ago, Holyasgard said:

    Darf ich Fragen wo man die Treiber Tools bei den CA findet ? Bin irgendwie zu doof dazu es zu finden.

    Davon ab habe ich bei der Grafikkarte kein Hacken drin und somit dürfte es ja nicht an VFIO gebunden sein ? 

     

    Such in den "Apps" nach

    "Nvidia-Driver" von ich777

     

    Eventuell hast du damit Glück. Nach dem installieren dieser "App" hast du in unRAID unter Settings -> Nvidia
    die Möglichkeit dort die Treiber zu laden. Hier aber gehört probieren angesagt. Linux bzw. Nvidia ist mit dessen Treibern unter Linux oft extrem zickig.

  6. 23 minutes ago, DataCollector said:

    Unraid aktuell stable macht das ja nur bei BTRFS.

    Würdest Du dem BTRFS in unraid einen solchen Verbund als stabilem Dauerbetrieb zutrauen?

    Ich frage, weil ich sowas ja mit vielen SSD vor habe, lese hier aber immer wieder von Problemen oder Mißtrauen in BTRFS mit Raid5/6, weshalb ich dafür regelmäßige Backups anstrebe.

     

     

    Kein RAID ist sicher. BTRFS kann, muss nicht, BIT-Fehler hervorrufen, defekte Dateien zur Folge. Kann, muss nicht, aber bei jeder HDD/SSD/NVMe so passieren.

    Ich selbst habe einen Pool mit mehrere Festplatten im RAID6 und läuft ohne Probleme. Wie gesagt, Chance besteht trotzdem, aber es kann auch von jetzt auf gleich eine normale Platte abschmieren und schlimmer direkt meine zwei Paritäts-Platten und zwei normale Array-Platten... Gott ich hoffe nicht xD

     

    Die meisten BTRFS Bugs waren / sind in altern Versionen zu finden, ich bin mir aber ziemlich sicher (ich mir gilt nicht für andere), dass es mittlerweile seltener zu Problemen kommen wird / kann / soll... Da ich es wie gesagt selbst verwende und keinerlei Probleme habe...

    Man darf auch nicht vergessen, dass BTRFS und ZFS noch nicht so alt sind. xD BTRFS aber den Vorteil bei den meisten Linux Kerneln bereits integriert zu sein. ZFS nicht überall.

    • Thanks 1
  7. Mein unRAID Server verbraucht leider wesentlich mehr Strom als nur 40W im "Idle" xD

     

    Ich messe das über einen Zeitraum von nun 12 Monaten und naja... 2020.06 KWh ist halt schon was. xD

     

    Im Schnitt pendel ich aktuel bei 120-180W. Da aber an der Steckdose noch ein FritzFon hängt sowie zwei Akkuladegeräte und meine Syn-NAS. Denke ich, dass hier so 80W vom unRAID kommen und der Rest summiert sich halt so zusammen.

    Bei mir ist halt der Nutzen so Groß, dass ich fast schon gerne 100-150€ Strom im Monat zahle. Denn mein unRAID nimmt mir so, viele "klein" Installationen in Form von mehreren Raspberrys und Standalone-Geräten ab.

    Mein System steht auch in meiner Fußnote.


    Klar könnte man hier und da bestimmt noch etwas einsparen. Hab z.B. derzeit "nur" eine GT1030 passiv gekühlt drin dafür aber eine HBA und 6 von 8 Festplatten dort angeschlossen sowie alle 6 SATA Ports des Mainboards belegt. 3 NVMes sowie 3 SATA SSDs der Rest sind 3x 6TB Toshiba NAS HDDs, 5x 16TB Toshiba MAG HDDs und 2x 8TB Seagte IronWolf HDDs.

    In Summe haufen Speicher, viele Programme in Docker ausgelagert und unRAID bzw. dessen Hardware nehmen meinen normalen Workstations viel Arbeit ab.

    Ich zocke gelegentlich auch mit meinem PC und da ist 600-800W schon normal und das nur zum "bespaßen".

    AMD Ryzen 9 3900X, 64GB RAM, 10Gbit 2Port Intel Server Netzwerkkarte, Nvidia GT1030 und die Masse an Festplatten mit der HBA frisst halt Strom.

    Ich spinne mir ja derzeit ebenfalls eine Opnsense Box zusammen, diese verbraucht aber aktuell selbst unter Last nur 20-30W aber das ist nur ein i3 10100f xD

  8. Meinst du den Webzugrifft auf deinen Server oder die GUI, welche über die Grafikkarte rauß kommt?

    Da du deine GPU wohl an den VFIO gebunden hast nutzt unRAID diese nicht mehr. Somit hast du eigentlich nur Zugriff auf die WebUI in deinem Fall laut Log 192.168.1.209

     

     

  9. Du könntest mit dem Treiber-Tools aus CA auch eine ältere Version installieren, z.B. 340.96 oder 340.93. Desweiteren wenn du aber den VFIO die Grafikkarte zugewiesen hast, mit welcher du das GUI benutzen willst wird das so nicht funktionieren. Entweder oder, also entweder per VFIO für VMs/Docker oder für unRAID / Docker ohne VFIO Binding.

  10. On 5/1/2022 at 9:02 PM, speedycxd said:

    Ok, Problem ist gefunden. 

    Der Docker hat mein Laufwerk auf das geschrieben werden soll nicht in der Location gemountet. 

    Warum das so ist verstehe ich noch nicht, weil die angaben soweit richtig sind. Ich werde mal den Supporter des Containers fragen.

     

    Vielen dank erstmal.

     

    Normal lässt sich jeder Container einfach einem Ordner zuweisen bzw. spezielle Punkte innerhalb des Containers mounten. Selbst Kritische Pfade könnte man mounten, ob die Daten dann vom Docker geschrieben werden können steht auf einem anderen Blatt.

    Du kannst ja prüfen wenn du im jeweiligen Container auf die Console gehst und guckst wo der richtige Pfad des "Ordners" liegt. Vielleicht doch nur vertippt?

     

  11. 1 hour ago, mgutt said:

    Korrekt. Der Cache hält keine Dateien bereit, die man häufiger abruft. Was im Array liegt, bleibt im Array.

     

    Die Frage ist nun was du regelmäßig benötigst. Ich habe zb meine komplette MP3 Sammlung auf dem Cache liegen, weil ich nicht möchte, dass deswegen die HDDs hochfahren.

     

    Das kommt bei mir demnächst. Sind ja nur einige TB... xD

    Wie alle anderen bereits schön erwähnt haben lohnt sich ein Cache alle mal, auch bei "nur" 1Gbit LAN.

    Der Cache kann je nach Größe über den Tag zu schreibende Daten sammeln und dann z.B. nächtlich die Daten aufs Array schreiben / verschieben. Ich mache das aber z.B. bei mir jeden zweiten Tag 3:00 Uhr Nachts. Gut 4TB SSDs regeln das schon.

     

    Hängt alles vom Faktor (Was will und brauche ich) ab. Wie gesagt overall, ist das System so einfach schneller, leiser und meist stromsparender unterwegs. Ein Kumpel hat aber ein Unraid komplett ohne SSDs nur Array mit Parität und normalen Platten, da er es ausschließlich als Datengrab und für Virtualisierung verwendet.

    Man kann VMs auch auf dem Array liegen lassen, sind halt dann etwas langsamer, einigen reicht das anderen wie mir nicht. Gut ich hab 4x 1TB SATA SSDs für meine VMs.

    Stell dir am besten einfach eine Priorisierungsliste zusammen, was dir wichtig wäre und was eher weniger und dann abwägen.

  12. 6 hours ago, mgutt said:

    Das einzige Einfallstor in dem Zusammenhang bist du mit deinem PC. Also sagen wir mal du wirst beim Surfen im Internet gehackt. Dann wird der Angreifer auch auf deinen Server kommen. Dagegen helfen nur Backups auf einem Offline-Medium.

     Oder rein im LAN ohne WAN arbeiten.

     

    Sicherheit kann keiner garantieren aber unRAID ist standardmäßig sehr sicher, wenn ein richtiges ROOT Passwort vergeben wurde und die Ports nicht außerhalb erreichbar sind.



    DISK verschlüsselung ist ebenfalls vorhanden und habe ich bereits bei allen Festplatten gemacht. Frisst kaum mehr Leistung.

    • Like 1
  13. 4 hours ago, SirNibo said:

    Ah, danke.

    Könnte ihr mir vielleicht eine Einstellung empfehlen?

     

    Ich gehe davon aus, das bei einer Änderung der Einstellungen, diese auf die Bestandsdaten nicht mehr greift sondern

    für neue gilt.

     

     

    Wenn du unbedingt eine Empfehlung willst kann ich dir zwei an Hand von Beispielen nennen.

     

     

    Überlege dir, welche Festplatten du für welches Shares verwenden willst bzw. ob du Shares hast, welche du lieber auf speziellen Platten hast: Dann High-Water. High-Water hat den Vorteil, dass eine Platte so gut es geht beschrieben wird und minimiert wie in der Beschreibung stehend die Anläufe der Festplatten, denn meist wird ja nur die eine mit den meisten Daten angeschmissen.

     

     

    Ist dir das egal welcher Share welche Platten belegt dann nimm Most-free, denn damit wird immer erst die Platte mit dem meisten freien Speicher beschrieben und somit kann man die Platten nahe zu alle "gleichmäßig" auslasten bzw. befüllen.

     

    Das sind meine zwei "Empfehlungen".

  14. Ich benutze folgenden Sync-Server / Docker:

     

    crazymax/firefox-syncserver

     

    Da dieser bei mir einfach funktioniert ohne großes Trara und Problemen.

     

    Wenn du diesen nur im localen Netz verwenden willst musst du nur deine unRAID IP angeben und den Port

    http://192.168.X.X:5000/token/1.0/sync/1.5

    X.X mit den jeweiligen Bereichen bei dir ab ändern oder eben 192.168 auch.

    Diesen Docker denke ich gibt es auch als Template direkt in den CA.

  15. Das kommt auf den zu beschreibenden Share an. Du hast dort mehrere Optionen pro Share Einstellungen vornehmen zu können:

     

    This setting determines how Unraid OS will choose which disk to use when creating a new file or directory:

    High-water Choose the lowest numbered disk with free space still above the current high water mark. The high water mark is initialized with the size of the largest data disk divided by 2. If no disk has free space above the current high water mark, divide the high water mark by 2 and choose again.

    The goal of High-water is to write as much data as possible to each disk (in order to minimize how often disks need to be spun up), while at the same time, try to keep the same amount of free space on each disk (in order to distribute data evenly across the array).

    Fill-up Choose the lowest numbered disk that still has free space above the current Minimum free space setting.

    Most-free Choose the disk that currently has the most free space.

     

    Markiert sind die jeweiligen Optionen. Um das zu ändern zu verfeinern einfach auf Shares gehen und den jeweiligen bearbeiten.

     

     

  16. Deine GUID vom USB Stick ist eine einmalige ID welche dein USB Stick seitens deines Hersteller erhalten hat. Dein Key von unRAID wird an diese GUID gebunden.

    Damit niemand schabernack damit betreiben kann sollte man die GUID immer entfernen. Damit z.B. kein Spoofing betrieben werden kann.

    Also alles wo eine GUID vorhanden ist nicht umbedingt im Internet verteilen / teilen.

     

    Eindeutige ID eines Gerätes / USB Sticks

  17. This questions arent that simple to be answered.


    First of all you should make sure which container / docker got access to which files / folders. Also you should check if these containers / dockers need "root priviledges" or not.

    Ransomwares are programms which are encrypt files when started. So you need as mentioned to cleary make a construct where you will be able to tell the "outside" to use folders xyz, where you know if someone starts a ransomware no other files should be corrupted or it isnt that big deal if these files get corrupted. Also you are able to transfer files after a upload to some other folders.

    Ransomware depends just and only on the human part. If you just start every programm which you find its your fault.

    There will be no one on the planet to tell you the perfect solution for such bad things... Just be aware of programms where you dont know they are coming from.

    As mentioned before you can run the same dockers multiple times. Just other ports and maybe different folders mounted to them. If you mount a folder to a docker like /mnt/user/docker1 and to an other docker /mnt/user/docker2, the docker1 wouldnt be able to access docker2 and vice versa.

    But if you mount like /mnt/user to one of the dockers they are able to see all files/folders within /mnt/user... Just be aware of this configuration. You should never mount all user shares to one docker which is avaiable over the internet. Because as always bad things can happen but they dont need to happen.

    You should always just configure your routers firewall or better if avaiable a "external" firewall appliance to just allow certain ports to be redirected to your wanted ones.

    Nextcloud as example should be nice to be reachable over the internet, why you would a nextcloud without the "cloud" functionality xD So will configuring nextcloud set up a share where you nextcloud files are saved like: /mnt/user/nextcloud then set up the ports for 80 use as example 12405 for https 443 use as example 12410. Then start nextcloud and tell your router to portforward 12405 to unraid and 12410 to unraid. So you are able to just use and see the nextcloud webui while the other parts of unraid are still being "secured"...

    Zero-Day Exploits and so one are mostly just be accessible if the to be exploited system is online avaiable on certain ports. If you keep an eye on what ports you allow to be used for external access you can and should be fine. But if you like as I already also told like to start every programm which you find, then the problem is still as said on the human side of life... xD

    Forgive me if there are some grammar fails. I am ill.

  18. For me I just have to say this isnt that much needed right now. Why you would ask. Simple answer.

    Unraid GUI / WebUI shouldnt be opened outside (Internet). If you just use it on your local lan why would you need 2FA? Some one here also told how to do it. But for me username and password are enough. Even when you use a "simpler" password. If you are worried already on your local lan, then you should change something immediatly.

    I would also like 2FA but just when I really want my unraid to be "public" visible. I mean no one with a Windows PC and set everything up for private network uses 2FA on Windows itself right? xD

    This can the same "problem" like unRAID without 2FA... As told and limetech also said somewhere (I just remember this), that unRAID isnt build for being visible from outside the LAN NETWORK. (unRAID GUI / WebUI).

    Why would I like to see my unRAID outside of the normal local LAN. To visit from outside to check if everything works well or trying to install new dockers and so on? Then I just use my VPN or the unRAID forum site. xD

    Even with a 12 symbol containing password if you not use words oder sentences a normal brutforce would take sometime to get in. This is why I change my password every 3 months and just change something within it. So I am still able to remember it. xD

    • Like 1
  19. 14 hours ago, limetech said:

    Sorry to say, the Intel ixgbe driver is causing problems for other people and we will have to revert to in-tree driver.

    Something on our list to implement for 6.11 is a "system plugin" feature that will let you select via CA third-party modules (drivers) to install very early in system startup, e.g., before networking is initialized.  This will permit you to install the Intel driver if that works for you.

     

     

     

    Thank you appriciate it.

    You doing a great job and I will never want to miss or have to miss unRAID ever ever again.

  20. Hey,

     

    always try this by adding this line in to your xml where <features> is located:

     

      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='1234567890ab'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <vmport state='off'/>
        <ioapic driver='kvm'/>
      </features>
      

     

    This mostly fix Error Code 43 and a few more.

  21. 10 hours ago, vrsaoc said:

    你好,想问一下我的AMD5600G,在win10安装显卡驱动,报错43,该如何调整?

    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm'>
      <name>Windows 10 2</name>
      <uuid>129c1316-3854-61d1-b930-c90312e74e6e</uuid >
      <metadata>
        <vmtemplate xmlns="unraid" name="Windows 10" icon="windows.png" os="windows10"/>
      </metadata>
      <memory unit='KiB'>5242880</memory>
      <currentMemory unit='KiB'>5242880</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>9</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='0' />
        <vcpupin vcpu='1' cpuset='6'/>
        <vcpupin vcpu='2' cpuset='1'/>
        <vcpupin vcpu='3' cpuset='2'/>
        <vcpupin vcpu='4' cpuset ='8'/>
        <vcpupin vcpu='5' cpuset='3'/>
        <vcpupin vcpu='6' cpuset='4'/>
        <vcpupin vcpu='7' cpuset='10'/>
        <vcpupin vcpu='8' cpuset ='5'/>
      </cputune>
      <os>
        <type arch='x86_64' machine='pc-i440fx-5.1'>hvm</type>
        <loader readonly='yes' type='pflash'>/usr /share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader>
        <nvram>/etc/libvirt/qemu/nvram/129c1316-3854-61d1-b930-c90312e74e6e_VARS-pure-efi.fd</nvram >
        <boot dev='hd'/>
      </os>
      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='none'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <vmport state='off'/>
        <ioapic driver='kvm' />
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='9' threads='1'/>
        <cache mode='passthrough'/>
        <feature policy='require' name='topoext'/>
      </cpu>
      <clock offset='localtime'>
        <timer name='hypervclock' present='yes'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0'模型='ich9-uhci2'>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model=' ich9-uhci3'>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <controller type='pci' index ='0' model='pci-root'/>
        <controller type='virtio-serial' index='0'>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:e8:c3:fd'/>
          <source bridge='br0'/>
          <model type ='virtio-net'/>
          <地址类型='pci'domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
        </interface>
        <serial type='pty'>
          <target type='isa-serial' port='0'>
            <型号名称='isa-serial'/>
          </target>
        </serial>
        <console type='pty'>
          <target type='serial' port='0'/>
        </console>
        <channel type='unix'>
          <target type='virtio' name ='org.qemu.guest_agent.0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='tablet' bus ='usb'>
          <address type='usb' bus='0' port='1'/>
        </input>
        <input type='mouse' bus='ps2'/>
        <input type='keyboard' bus ='ps2'/>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x0 '/>
          </source>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed ='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x1'/>
          </source>
          <address type=' pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name= 'vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x6'/>
          </source>
          <address type='pci' domain='0x0000' bus='0x00' slot= '0x06' 函数='0x0'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
    </domain>

     

     

    Maybe again in english? If you want you "APU" GPU in a VM you should atleast check if it is free to use. Maybe Unraid uses it already. Or try this:

     

    <?xml version='1.0' encoding='UTF-8'?>
    <domain type='kvm'>
      <name>Windows 10 2</name>
      <uuid>129c1316-3854-61d1-b930-c90312e74e6e</uuid >
      <metadata>
        <vmtemplate xmlns="unraid" name="Windows 10" icon="windows.png" os="windows10"/>
      </metadata>
      <memory unit='KiB'>5242880</memory>
      <currentMemory unit='KiB'>5242880</currentMemory>
      <memoryBacking>
        <nosharepages/>
      </memoryBacking>
      <vcpu placement='static'>9</vcpu>
      <cputune>
        <vcpupin vcpu='0' cpuset='0' />
        <vcpupin vcpu='1' cpuset='6'/>
        <vcpupin vcpu='2' cpuset='1'/>
        <vcpupin vcpu='3' cpuset='2'/>
        <vcpupin vcpu='4' cpuset ='8'/>
        <vcpupin vcpu='5' cpuset='3'/>
        <vcpupin vcpu='6' cpuset='4'/>
        <vcpupin vcpu='7' cpuset='10'/>
        <vcpupin vcpu='8' cpuset ='5'/>
      </cputune>
      <os>
        <type arch='x86_64' machine='pc-i440fx-5.1'>hvm</type>
        <loader readonly='yes' type='pflash'>/usr /share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader>
        <nvram>/etc/libvirt/qemu/nvram/129c1316-3854-61d1-b930-c90312e74e6e_VARS-pure-efi.fd</nvram >
        <boot dev='hd'/>
      </os>
      <features>
        <acpi/>
        <apic/>
        <hyperv>
          <relaxed state='on'/>
          <vapic state='on'/>
          <spinlocks state='on' retries='8191'/>
          <vendor_id state='on' value='1234567890ab'/>
        </hyperv>
        <kvm>
          <hidden state='on'/>
        </kvm>
        <vmport state='off'/>
        <ioapic driver='kvm'/>
      </features>
      <cpu mode='host-passthrough' check='none' migratable='on'>
        <topology sockets='1' dies='1' cores='9' threads='1'/>
        <cache mode='passthrough'/>
        <feature policy='require' name='topoext'/>
      </cpu>
      <clock offset='localtime'>
        <timer name='hypervclock' present='yes'/>
        <timer name='hpet' present='no'/>
      </clock>
      <on_poweroff>destroy</on_poweroff>
      <on_reboot>restart</on_reboot>
      <on_crash>restart</on_crash>
      <devices>
        <emulator>/usr/local/sbin/qemu</emulator>
        <controller type='usb' index='0' model='ich9-ehci1'>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/>
        </controller>
        <controller type='usb' index='0' model='ich9-uhci1'>
          <master startport='0'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/>
        </controller>
        <controller type='usb' index='0'模型='ich9-uhci2'>
          <master startport='2'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/>
        </controller>
        <controller type='usb' index='0' model=' ich9-uhci3'>
          <master startport='4'/>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/>
        </controller>
        <controller type='pci' index ='0' model='pci-root'/>
        <controller type='virtio-serial' index='0'>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
        </controller>
        <interface type='bridge'>
          <mac address='52:54:00:e8:c3:fd'/>
          <source bridge='br0'/>
          <model type ='virtio-net'/>
          <地址类型='pci'domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
        </interface>
        <serial type='pty'>
          <target type='isa-serial' port='0'>
            <型号名称='isa-serial'/>
          </target>
        </serial>
        <console type='pty'>
          <target type='serial' port='0'/>
        </console>
        <channel type='unix'>
          <target type='virtio' name ='org.qemu.guest_agent.0'/>
          <address type='virtio-serial' controller='0' bus='0' port='1'/>
        </channel>
        <input type='tablet' bus ='usb'>
          <address type='usb' bus='0' port='1'/>
        </input>
        <input type='mouse' bus='ps2'/>
        <input type='keyboard' bus ='ps2'/>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x0 '/>
          </source>
          <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed ='yes'>
          <driver name='vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x1'/>
          </source>
          <address type=' pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
        </hostdev>
        <hostdev mode='subsystem' type='pci' managed='yes'>
          <driver name= 'vfio'/>
          <source>
            <address domain='0x0000' bus='0x06' slot='0x00' function='0x6'/>
          </source>
          <address type='pci' domain='0x0000' bus='0x00' slot= '0x06' 函数='0x0'/>
        </hostdev>
        <memballoon model='none'/>
      </devices>
    </domain>

     

×
×
  • Create New...