ChatNoir

Moderators
  • Posts

    1755
  • Joined

  • Last visited

  • Days Won

    3

ChatNoir last won the day on September 4

ChatNoir had the most liked content!

1 Follower

About ChatNoir

  • Birthday January 8

Retained

  • Member Title
    Not so Advanced Member

Recent Profile Visitors

3356 profile views

ChatNoir's Achievements

Community Regular

Community Regular (8/14)

309

Reputation

  1. Et si ton check avec correction corrige bien tes 207 erreurs, je pense qu'il serait bon de relancer un check sans correction pour t'assurer qu'il n'y en a plus.
  2. Je ne connais rien de tel déjà parce qu'il n'y a pas de gestion de la veille par défaut sur Unraid à ma connaissance. Mais je vois quelques pistes à étudier, et peut-être combiner : le plugin Dynamix S3 Sleep semble pouvoir mettre le système en veille il y a une app développée par un développeur tiers, possible que tu puisses le mettre en veille avec : https://forums.unraid.net/topic/47914-controlr-androidios-app-for-unraid/ utiliser Wireguard pour te connecter à distance au serveur et peut-être utiliser le plugin ? Mais je n'utilise aucune de ces briques perso. ^^
  3. Your diagnostics might provide more details. What do you consider "failures" ? Are you sure the drives are dead or can it be only connection failures ? But so many failures on a short time look more like a HW issue. Cables, PSU, disk controller, cooling, etc.
  4. For temporary debug, you can do it on the flashdrive.
  5. De tout ce que j'ai lu, ce n'est pas le cas. En cas de gros soucis avec un disque de donnée, c'est probablement mieux de ne pas mettre à jour le disque de parité avec ces erreurs si tu veux pouvoir reconstruire ce disque. C'est pour ça qu'il est conseillé de faire tous les checks automatiques (arrêt pas propre, ou test régulier) sans écrire les corrections. Une fois le check terminé, tu peux ainsi analyser la situation et décider quoi faire : écrire les corrections revoir les connexions recontruire un disque de données défectueux Tu peux vérifier comment est configuré le check régulier dans le scheduler. J'ai aussi eu la bonne idée de le changer en "correctif" au début en pensant bien faire, avant de bien comprendre les tenants et aboutissants.
  6. Oct 16 09:39:13 Chunker kernel: ------------[ cut here ]------------ Oct 16 09:39:13 Chunker kernel: WARNING: CPU: 8 PID: 0 at net/netfilter/nf_conntrack_core.c:1120 __nf_conntrack_confirm+0x9b/0x1e6 [nf_conntrack] Oct 16 09:39:13 Chunker kernel: Modules linked in: tun xt_mark nvidia_uvm(PO) macvlan veth xt_nat xt_tcpudp xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xt_addrtype iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 br_netfilter iptable_mangle xfs md_mod nvidia_drm(PO) nvidia_modeset(PO) drm_kms_helper syscopyarea sysfillrect sysimgblt fb_sys_fops nvidia(PO) drm backlight agpgart ip6table_filter ip6_tables iptable_filter ip_tables x_tables bonding mlx4_en mlx4_core igb i2c_algo_bit edac_mce_amd kvm crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel mxm_wmi wmi_bmof aesni_intel crypto_simd cryptd glue_helper mpt3sas i2c_piix4 i2c_core rapl k10temp raid_class ccp nvme scsi_transport_sas ahci nvme_core libahci wmi button acpi_cpufreq [last unloaded: mlx4_core] Oct 16 09:39:13 Chunker kernel: CPU: 8 PID: 0 Comm: swapper/8 Tainted: P O 5.10.28-Unraid #1 Oct 16 09:39:13 Chunker kernel: Hardware name: System manufacturer System Product Name/ROG STRIX B450-F GAMING, BIOS 4402 06/28/2021 Oct 16 09:39:13 Chunker kernel: RIP: 0010:__nf_conntrack_confirm+0x9b/0x1e6 [nf_conntrack] Oct 16 09:39:13 Chunker kernel: Code: e8 dc f8 ff ff 44 89 fa 89 c6 41 89 c4 48 c1 eb 20 89 df 41 89 de e8 36 f6 ff ff 84 c0 75 bb 48 8b 85 80 00 00 00 a8 08 74 18 <0f> 0b 89 df 44 89 e6 31 db e8 6d f3 ff ff e8 35 f5 ff ff e9 22 01 Oct 16 09:39:13 Chunker kernel: RSP: 0018:ffffc90000394938 EFLAGS: 00010202 Oct 16 09:39:13 Chunker kernel: RAX: 0000000000000188 RBX: 000000000000c0bf RCX: 00000000b0198cd7 Oct 16 09:39:13 Chunker kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffffffffa0238f10 Oct 16 09:39:13 Chunker kernel: RBP: ffff8881113c2bc0 R08: 00000000fb009142 R09: 0000000000000000 Oct 16 09:39:13 Chunker kernel: R10: 0000000000000158 R11: ffff8880962fc200 R12: 0000000000005b44 Oct 16 09:39:13 Chunker kernel: R13: ffffffff8210b440 R14: 000000000000c0bf R15: 0000000000000000 Oct 16 09:39:13 Chunker kernel: FS: 0000000000000000(0000) GS:ffff88881ea00000(0000) knlGS:0000000000000000 Oct 16 09:39:13 Chunker kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Oct 16 09:39:13 Chunker kernel: CR2: 0000000000fdd120 CR3: 00000001ae75e000 CR4: 0000000000350ee0 Oct 16 09:39:13 Chunker kernel: Call Trace: Oct 16 09:39:13 Chunker kernel: <IRQ> Oct 16 09:39:13 Chunker kernel: nf_conntrack_confirm+0x2f/0x36 [nf_conntrack] Oct 16 09:39:13 Chunker kernel: nf_hook_slow+0x39/0x8e Oct 16 09:39:13 Chunker kernel: nf_hook.constprop.0+0xb1/0xd8 Oct 16 09:39:13 Chunker kernel: ? ip_protocol_deliver_rcu+0xfe/0xfe Oct 16 09:39:13 Chunker kernel: ip_local_deliver+0x49/0x75 Oct 16 09:39:13 Chunker kernel: ip_sabotage_in+0x43/0x4d [br_netfilter] Oct 16 09:39:13 Chunker kernel: nf_hook_slow+0x39/0x8e Oct 16 09:39:13 Chunker kernel: nf_hook.constprop.0+0xb1/0xd8 Oct 16 09:39:13 Chunker kernel: ? l3mdev_l3_rcv.constprop.0+0x50/0x50 Oct 16 09:39:13 Chunker kernel: ip_rcv+0x41/0x61 Oct 16 09:39:13 Chunker kernel: __netif_receive_skb_one_core+0x74/0x95 Oct 16 09:39:13 Chunker kernel: netif_receive_skb+0x79/0xa1 Oct 16 09:39:13 Chunker kernel: br_handle_frame_finish+0x30d/0x351 Oct 16 09:39:13 Chunker kernel: ? skb_copy_bits+0xe8/0x197 Oct 16 09:39:13 Chunker kernel: ? ipt_do_table+0x570/0x5c0 [ip_tables] Oct 16 09:39:13 Chunker kernel: ? br_pass_frame_up+0xda/0xda Oct 16 09:39:13 Chunker kernel: br_nf_hook_thresh+0xa3/0xc3 [br_netfilter] Oct 16 09:39:13 Chunker kernel: ? br_pass_frame_up+0xda/0xda Oct 16 09:39:13 Chunker kernel: br_nf_pre_routing_finish+0x23d/0x264 [br_netfilter] Oct 16 09:39:13 Chunker kernel: ? br_pass_frame_up+0xda/0xda Oct 16 09:39:13 Chunker kernel: ? br_handle_frame_finish+0x351/0x351 Oct 16 09:39:13 Chunker kernel: ? nf_nat_ipv4_pre_routing+0x1e/0x4a [nf_nat] Oct 16 09:39:13 Chunker kernel: ? br_nf_forward_finish+0xd0/0xd0 [br_netfilter] Oct 16 09:39:13 Chunker kernel: ? br_handle_frame_finish+0x351/0x351 Oct 16 09:39:13 Chunker kernel: NF_HOOK+0xd7/0xf7 [br_netfilter] Oct 16 09:39:13 Chunker kernel: ? br_nf_forward_finish+0xd0/0xd0 [br_netfilter] Oct 16 09:39:13 Chunker kernel: br_nf_pre_routing+0x229/0x239 [br_netfilter] Oct 16 09:39:13 Chunker kernel: ? br_nf_forward_finish+0xd0/0xd0 [br_netfilter] Oct 16 09:39:13 Chunker kernel: br_handle_frame+0x25e/0x2a6 Oct 16 09:39:13 Chunker kernel: ? br_pass_frame_up+0xda/0xda Oct 16 09:39:13 Chunker kernel: __netif_receive_skb_core+0x335/0x4e7 Oct 16 09:39:13 Chunker kernel: ? dev_gro_receive+0x55d/0x578 Oct 16 09:39:13 Chunker kernel: __netif_receive_skb_list_core+0x78/0x104 Oct 16 09:39:13 Chunker kernel: netif_receive_skb_list_internal+0x1bf/0x1f2 Oct 16 09:39:13 Chunker kernel: gro_normal_list+0x1d/0x39 Oct 16 09:39:13 Chunker kernel: napi_complete_done+0x79/0x104 Oct 16 09:39:13 Chunker kernel: mlx4_en_poll_rx_cq+0xa8/0xc7 [mlx4_en] Oct 16 09:39:13 Chunker kernel: net_rx_action+0xf4/0x29d Oct 16 09:39:13 Chunker kernel: __do_softirq+0xc4/0x1c2 Oct 16 09:39:13 Chunker kernel: asm_call_irq_on_stack+0x12/0x20 Oct 16 09:39:13 Chunker kernel: </IRQ> Oct 16 09:39:13 Chunker kernel: do_softirq_own_stack+0x2c/0x39 Oct 16 09:39:13 Chunker kernel: __irq_exit_rcu+0x45/0x80 Oct 16 09:39:13 Chunker kernel: common_interrupt+0x119/0x12e Oct 16 09:39:13 Chunker kernel: asm_common_interrupt+0x1e/0x40 Oct 16 09:39:13 Chunker kernel: RIP: 0010:native_safe_halt+0x7/0x8 Oct 16 09:39:13 Chunker kernel: Code: 60 02 df f0 83 44 24 fc 00 48 8b 00 a8 08 74 0b 65 81 25 a1 a9 95 7e ff ff ff 7f c3 e8 95 4d 98 ff f4 c3 e8 8e 4d 98 ff fb f4 <c3> 53 e8 04 ef 9d ff e8 04 76 9b ff 65 48 8b 1c 25 c0 7b 01 00 48 Oct 16 09:39:13 Chunker kernel: RSP: 0018:ffffc9000016fe78 EFLAGS: 00000246 Oct 16 09:39:13 Chunker kernel: RAX: 0000000000004000 RBX: 0000000000000001 RCX: 000000000000001f Oct 16 09:39:13 Chunker kernel: RDX: ffff88881ea00000 RSI: ffffffff820c8c40 RDI: ffff88810207d064 Oct 16 09:39:13 Chunker kernel: RBP: ffff8881056c8000 R08: ffff88810207d000 R09: 00000000000000b8 Oct 16 09:39:13 Chunker kernel: R10: 00000000000000cb R11: 071c71c71c71c71c R12: 0000000000000001 Oct 16 09:39:13 Chunker kernel: R13: ffff88810207d064 R14: ffffffff820c8ca8 R15: 0000000000000000 Oct 16 09:39:13 Chunker kernel: ? native_safe_halt+0x5/0x8 Oct 16 09:39:13 Chunker kernel: arch_safe_halt+0x5/0x8 Oct 16 09:39:13 Chunker kernel: acpi_idle_do_entry+0x25/0x37 Oct 16 09:39:13 Chunker kernel: acpi_idle_enter+0x9a/0xa9 Oct 16 09:39:13 Chunker kernel: cpuidle_enter_state+0xba/0x1c4 Oct 16 09:39:13 Chunker kernel: cpuidle_enter+0x25/0x31 Oct 16 09:39:13 Chunker kernel: do_idle+0x1a6/0x214 Oct 16 09:39:13 Chunker kernel: cpu_startup_entry+0x18/0x1a Oct 16 09:39:13 Chunker kernel: secondary_startup_64_no_verify+0xb0/0xbb Oct 16 09:39:13 Chunker kernel: ---[ end trace 906f7f9f734c7e09 ]--- This is not my area of expertise, hopefully someone can point you on the right track.
  7. You should check both elements of the FAQ section: While diagnostics with details from the issue is always preferred, any diags are better than none. If you can grab them before the issue, please attach them to your next post.
  8. Unraid in not capable to mount drives outside of Array and Pools. This is handled only via the Unassigned Devices plugin.
  9. Pour bien comprendre, tu cherches une application qui permette de mettre ton serveur en veille quand tu n'es pas chez toi ?
  10. Bonjour et bienvenue sur le forum, malgré les circonstances Avoir des erreurs de parité après un arrêt brutal est assez prévisible, mais comme tu le dis, le check est par défaut NON correctif. Oct 17 00:16:30 Nagano kernel: mdcmd (36): check nocorrect ... Oct 17 23:07:40 Nagano kernel: mdcmd (37): check nocorrect Pour ton second test, est-ce que tu avais bien coché la case :
  11. Go to your Shares tab and adjust the appdata share so it is visible on the network.
  12. Did you stop the Array first ? If so, there should be a Add Pool button on the Main page.
  13. You should probably ask in the support thread of the docker.
  14. You can only post on support threads of container. You can find the correct thread for your container from the docker page, click on the docker and then Support. If you are using the official Plex container, they do not have a support thread here, everything is on their site.
  15. Simply click on the first drive of the pool and you will have the Minimum free space field. It can only be adjusted with the Array stopped.