geromme

Members
  • Posts

    48
  • Joined

  • Last visited

Everything posted by geromme

  1. After a server restart all my schedules aren't set, but there are still in the plugins config file?!
  2. Same error for me. Not using ipvlan, but I'm not using dockers with br0 network?! Is there a conflict between VM (one uses a br0 network) and Wireshark (as it is mentioned in the logs)?! Oct 21 06:36:57 Unraid kernel: ------------[ cut here ]------------ Oct 21 06:36:57 Unraid kernel: WARNING: CPU: 4 PID: 0 at net/netfilter/nf_conntrack_core.c:1192 __nf_conntrack_confirm+0xb8/0x254 [nf_conntrack] Oct 21 06:36:57 Unraid kernel: Modules linked in: wireguard curve25519_x86_64 libcurve25519_generic libchacha20poly1305 chacha_x86_64 poly1305_x86_64 ip6_udp_tunnel udp_tunnel libchacha xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle ip6table_nat iptable_mangle vhost_net tun vhost vhost_iotlb tap xt_nat xt_tcpudp veth macvlan xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xt_addrtype iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 br_netfilter xfs nfsd auth_rpcgss oid_registry lockd grace sunrpc md_mod efivarfs ip6table_filter ip6_tables iptable_filter ip_tables x_tables e1000e igb i915 x86_pkg_temp_thermal intel_powerclamp coretemp kvm_intel kvm iosf_mbi crct10dif_pclmul crc32_pclmul ttm crc32c_intel i2c_i801 ghash_clmulni_intel gigabyte_wmi wmi_bmof intel_wmi_thunderbolt aesni_intel crypto_simd cryptd rapl intel_cstate intel_uncore i2c_smbus drm_kms_helper nvme ahci nvme_core i2c_algo_bit libahci drm intel_gtt agpgart i2c_core input_leds led_class syscopyarea sysfillrect Oct 21 06:36:57 Unraid kernel: sysimgblt fb_sys_fops intel_pch_thermal fan thermal wmi video backlight button acpi_pad [last unloaded: e1000e] Oct 21 06:36:57 Unraid kernel: CPU: 4 PID: 0 Comm: swapper/4 Not tainted 5.15.46-Unraid #1 Oct 21 06:36:57 Unraid kernel: Hardware name: Gigabyte Technology Co., Ltd. C246M-WU4/C246M-WU4-CF, BIOS F5 11/09/2021 Oct 21 06:36:57 Unraid kernel: RIP: 0010:__nf_conntrack_confirm+0xb8/0x254 [nf_conntrack] Oct 21 06:36:57 Unraid kernel: Code: 89 c6 48 89 44 24 18 e8 53 e4 ff ff 44 89 f2 44 89 ef 89 c6 89 c5 e8 2c e8 ff ff 84 c0 75 9f 49 8b 87 80 00 00 00 a8 08 74 19 <0f> 0b 89 ee 44 89 ef 45 31 e4 e8 dc df ff ff e8 ae e4 ff ff e9 71 Oct 21 06:36:57 Unraid kernel: RSP: 0018:ffffc900001d0878 EFLAGS: 00010202 Oct 21 06:36:57 Unraid kernel: RAX: 0000000000000188 RBX: ffffffff828e1500 RCX: 67065be10a194004 Oct 21 06:36:57 Unraid kernel: RDX: 0000000000000000 RSI: 0000000000000364 RDI: ffffffffa09bcfd0 Oct 21 06:36:57 Unraid kernel: RBP: 000000000002ab64 R08: 0a7cf2b5efdf6544 R09: b1949f95331757ca Oct 21 06:36:57 Unraid kernel: R10: abe558ca4fca998b R11: f3e776f728d54da3 R12: 000000000001c202 Oct 21 06:36:57 Unraid kernel: R13: 000000000001c202 R14: 0000000000000000 R15: ffff889003241040 Oct 21 06:36:57 Unraid kernel: FS: 0000000000000000(0000) GS:ffff88907c500000(0000) knlGS:0000000000000000 Oct 21 06:36:57 Unraid kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Oct 21 06:36:57 Unraid kernel: CR2: 000055866f60b1ac CR3: 000000000420a006 CR4: 00000000003726e0 Oct 21 06:36:57 Unraid kernel: Call Trace: Oct 21 06:36:57 Unraid kernel: <IRQ> Oct 21 06:36:57 Unraid kernel: nf_conntrack_confirm+0x26/0x3f [nf_conntrack] Oct 21 06:36:57 Unraid kernel: nf_hook_slow+0x3e/0x93 Oct 21 06:36:57 Unraid kernel: ? ip_protocol_deliver_rcu+0x135/0x135 Oct 21 06:36:57 Unraid kernel: NF_HOOK.constprop.0+0x73/0xce Oct 21 06:36:57 Unraid kernel: ? ip_protocol_deliver_rcu+0x135/0x135 Oct 21 06:36:57 Unraid kernel: ip_sabotage_in+0x4c/0x59 [br_netfilter] Oct 21 06:36:57 Unraid kernel: nf_hook_slow+0x3e/0x93 Oct 21 06:36:57 Unraid kernel: ? ip_rcv_finish_core.constprop.0+0x358/0x358 Oct 21 06:36:57 Unraid kernel: NF_HOOK.constprop.0+0x73/0xce Oct 21 06:36:57 Unraid kernel: ? ip_rcv_finish_core.constprop.0+0x358/0x358 Oct 21 06:36:57 Unraid kernel: __netif_receive_skb_one_core+0x79/0x9a Oct 21 06:36:57 Unraid kernel: netif_receive_skb+0xa3/0xf7 Oct 21 06:36:57 Unraid kernel: br_handle_frame_finish+0x3c5/0x407 Oct 21 06:36:57 Unraid kernel: ? br_handle_local_finish+0x13/0x13 Oct 21 06:36:57 Unraid kernel: br_nf_hook_thresh+0xc6/0xf7 [br_netfilter] Oct 21 06:36:57 Unraid kernel: ? br_handle_local_finish+0x13/0x13 Oct 21 06:36:57 Unraid kernel: br_nf_pre_routing_finish+0x29d/0x2c4 [br_netfilter] Oct 21 06:36:57 Unraid kernel: ? br_handle_local_finish+0x13/0x13 Oct 21 06:36:57 Unraid kernel: ? NF_HOOK.isra.0+0xc5/0x119 [br_netfilter] Oct 21 06:36:57 Unraid kernel: br_nf_pre_routing+0x226/0x236 [br_netfilter] Oct 21 06:36:57 Unraid kernel: ? br_nf_forward_finish+0xdc/0xdc [br_netfilter] Oct 21 06:36:57 Unraid kernel: br_handle_frame+0x292/0x2da Oct 21 06:36:57 Unraid kernel: ? br_handle_local_finish+0x13/0x13 Oct 21 06:36:57 Unraid kernel: __netif_receive_skb_core.constprop.0+0x4b6/0x685 Oct 21 06:36:57 Unraid kernel: __netif_receive_skb_list_core+0x81/0x112 Oct 21 06:36:57 Unraid kernel: netif_receive_skb_list_internal+0x1c7/0x1fc Oct 21 06:36:57 Unraid kernel: gro_normal_list+0x22/0x3e Oct 21 06:36:57 Unraid kernel: napi_complete_done+0x7f/0x118 Oct 21 06:36:57 Unraid kernel: igb_poll+0xd69/0xf96 [igb] Oct 21 06:36:57 Unraid kernel: ? ttwu_do_wakeup+0x26/0xf2 Oct 21 06:36:57 Unraid kernel: ? paravirt_write_msr+0xe/0xe Oct 21 06:36:57 Unraid kernel: __napi_poll.constprop.0+0x2a/0x114 Oct 21 06:36:57 Unraid kernel: net_rx_action+0xe8/0x1f2 Oct 21 06:36:57 Unraid kernel: __do_softirq+0xef/0x218 Oct 21 06:36:57 Unraid kernel: __irq_exit_rcu+0x4d/0x88 Oct 21 06:36:57 Unraid kernel: common_interrupt+0x73/0x8b Oct 21 06:36:57 Unraid kernel: </IRQ> Oct 21 06:36:57 Unraid kernel: <TASK> Oct 21 06:36:57 Unraid kernel: asm_common_interrupt+0x1e/0x40 Oct 21 06:36:57 Unraid kernel: RIP: 0010:arch_local_irq_enable+0x7/0x8 Oct 21 06:36:57 Unraid kernel: Code: a2 bc 1c 00 85 db 48 89 e8 79 03 48 63 c3 5b 5d 41 5c c3 9c 58 0f 1f 44 00 00 c3 fa 66 0f 1f 44 00 00 c3 fb 66 0f 1f 44 00 00 <c3> 0f 1f 44 00 00 55 49 89 d3 48 81 c7 b0 00 00 00 48 83 c6 70 53 Oct 21 06:36:57 Unraid kernel: RSP: 0018:ffffc9000010fea0 EFLAGS: 00000246 Oct 21 06:36:57 Unraid kernel: RAX: ffff88907c52bb40 RBX: 0000000000000008 RCX: 000000000000001f Oct 21 06:36:57 Unraid kernel: RDX: 0000000000000004 RSI: 0000000000000004 RDI: 0000000000000000 Oct 21 06:36:57 Unraid kernel: RBP: ffff88907c534c00 R08: 00000000ffffffff R09: ffff88907c51eca0 Oct 21 06:36:57 Unraid kernel: R10: 0000000000000020 R11: 00000000000000b8 R12: ffffffff82311d20 Oct 21 06:36:57 Unraid kernel: R13: 0000000000000008 R14: 00003ef633e85c05 R15: 0000000000000000 Oct 21 06:36:57 Unraid kernel: cpuidle_enter_state+0x117/0x1db Oct 21 06:36:57 Unraid kernel: cpuidle_enter+0x2a/0x36 Oct 21 06:36:57 Unraid kernel: do_idle+0x1b7/0x225 Oct 21 06:36:57 Unraid kernel: cpu_startup_entry+0x1d/0x1f Oct 21 06:36:57 Unraid kernel: secondary_startup_64_no_verify+0xb0/0xbb Oct 21 06:36:57 Unraid kernel: </TASK> Oct 21 06:36:57 Unraid kernel: ---[ end trace 6431775b4b1ddcc3 ]--- Or maybe because of the docker network inside the VM (I know I should move those containers to unraid, but I don't have the necessary skills to do that)?! Note: I'm not using the internal Wireguard. It's the container (which is running with bridge network):
  3. @dlandon Hi, i thought I could use my own custom script and pasted the path of the script into the field: But after hitting the button "save" two things happen: 1.) The path field becomes blank 2.) The script content is deleted (!) EDIT: Ok, now I understood the concept. but it seems to be overcomplicated to me?! You have to choose the default script and leave it for example blank and then you are able to select a user script from the user scripts plugin. 3.) Is there a specific reason why it is need to execute two scripts?! 4.) Why doesn't it generate the logs inside the users scripts plugin? This would be extremely nice.
  4. Is it possible to setup a password protection in Adminer?
  5. Hi squid, is that better unraid-diagnostics-20220816-1611.zip
  6. Hi AndrewZ activated it does not appear either. unraid-diagnostics-20220816-1448.zip
  7. Hallo vakilando, ja habe die Seagate Barracuda SSD formatiert. Ich mache ein Fehler nach dem anderen. Ich habe nur noch unter luckybackup die ordner siehe anhang gesichert. Und mit VM backup die sicherung! ist auf der dev3 Wenn mir einer konkret helfen will kann er sich gerne bei mir aufschalten, ich bin komplett überfordert!
  8. Thank you for your kind contribution elmojo. That's why the world is what it is.
  9. hi trurl, here. Thanks unraid-diagnostics-20220815-2024.zip
  10. Hallo cz13, danke für Deine Antwort. So versuche mit meinen wenigen Kenntnisse so viele Infos zu geben wie ich kann, falls was fehlen sollte einfach konkret nachfragen. Hier ein Bild hoffe das dies einiges Aussagt. Auf dem einen Bild siehst Du die Ordner die ich mit luckybackup gesichert habe , sind ca 2,2 TB. Im Moment versuche ich über den FileManager daten rüberzukopieren diese landen auf der ersten sdg HDD. Bin mir nicht sicher ob das Ok richtig ist oder ob das blödsinn ist. Daten die Fehlen, es werden mir keine Docker mehr Angezeigt auch meine Debian VM ist weg! Die Ordner sind leer. Grüße
  11. Hello friends, I'm sorry if I beg for help here, but I have harmed myself and now nothing works with me after Different try. Have opened the one or the other topic and also received partial answers but probably everything worsened than repaired. Now I have an almost empty cache that I have tried to fill with mover, but with me that does not work somehow. After three or four attempts to move my data from the old cache to the new one, I stopped myself, because everyone told me that this would not take so long. But if after two days the process is not completed then something is wrong. I did not find out what I did wrong. The result is now, the old cache is no longer there. The new cache is filled with about 32 GB but my whole Docker and my VM are gone! At least are no longer displayed. I have a Luckybackup and a VM backup of my VM. Now I thought maybe I could restore everything via Luckybackup. But I can't find a backup entry with the program, I copied the logs over but I can't select an entry! So I can't get on with luckybackup. So now I've been messing around for 5 days and have probably broken everything. Is that so???? or could someone give me a hand? Thanks for your help.
  12. Hallo Freunde, es tut mir leid wenn ich hier um Hilfe bettle, aber ich habe mir selber geschadet und nun geht bei mir nach Verschhiedenen versuchen nichts mehr. Habe das eine oder andere topic geöffnet und auch teilweise antworten erhalten aber wohl alles verschlechtert als repariert. Nun habe ich eine fast leere cache die ich mit mover versucht habe zu befüllen, doch bei mir funktioniert das irgend wie nicht. Nach drei oder vier versuchen meine daten vom alten cache auf den neuen zu verschieben habe ich das selber unterbrochen, den alle haben mir erklärt das dies nicht so lange dauern würde. Doch wenn nach zwei Tagen der Vorgang nicht abgeschlossen ist dann stimmt irgend etwas nicht. Bin nicht dahinter gekommen was ich falsch gemacht habe. Das Ergebnis ist nun, der alte Cache ist nicht mehr Da. Der neue Cache ist mit ca. 32 GB befüllt aber meine ganze Docker und meine VM sind weg! Werden zumindest nicht mehr anzeigt. Ich habe ein Luckybackup und von meiner VM ein VM Backup. Nun dachte ich mir das ich vielleicht über Luckybackup alles wieder herstellen könnte. Von wegen, ich kann über das Programm kein Sicherungseintrag finden, habe die logs rüber kopiert doch ich kann kein Eintrag auswählen! Somit komme ich mit luckybackup nicht weiter. So nun mache ich seit 5 Tagen rum und habe wohl alles kaputt gemacht. Ist das so???? oder könnte mir jemand so richtig unter die Arme greifen? Danke für Eure Hilfe.
  13. hallo alturismo, werde gleich !!!!!!!! Habe die daten vom log ins log kopiert, die daten von snap in den snap kopiert, luckybackup neugestartet! unter verwalte sicherungen wird nicht angezeigt.
  14. Hi alturismo, danke, ja finde die log dateien. Habe sie auch unter snap in den neuen luckybackup ordner snap reinkopiert! Nur wenn ich auf verwalte sicherungen gehe wird nichts angezeigt!! Sorry aber bin fertig mit der welt. Was mache ich falsch!? Danke
  15. Hallo Problem, habe wohl mein UNRAID ziemlich durch einander gebracht und da ich wenig wissen habe versuche ich zu retten was ich kann. Habe über luckybackup 2.40 TB an Daten gesichert, dummerweise habe ich aber luckybackup deinstalliert und nach dem ich luckybackup wieder installiert hatte habe ich bemerkt das er keine Sicherungseinträge hat. Bitte bitte sagt mir das es trotzdem möglich ist das Backup von luckybackup wieder herzustellen. Bitte um Unterstützung. Dank Euch im voraus. Grüße
  16. Hallo MAM59, danke für Deine Antwort. Habe das nach diesem Youtube Video gemacht! Dann ist diese Anleitung nicht ganz vollständig?, oder. Nun habe ich das Problem. Mist Frage, wie lange dauert eigentlich die Sicherung für ca. 60 GB mit mover ca? Und für den Fall das ich es nicht hinbekommen sollte wenigstens alles so zurück zu stellen, auf den Ist Zustand vor meinem Versuch, könntest Du mir helfen? Grüße
  17. Hallo, bin am verzweifeln. Brauche Hilfe und hoffe das Ihr mir helfen könnt. Wollte von meiner sdd cache auf eine andere M.2 umziehen und habe die Anleitung benutzt das mit mover zu machen. Das war vor ca. 4 Tagen! Nachdem das nach 2 Tagen immer noch nicht abgeschlossen war habe ich Unraid neu gestartet. Danach habe ich alles wieder zurück gestellt Docker , VM wieder aktiviert und den rest nun sind alle meine Docker weg und auch meine VM. Bin deshalb am Ende weil ich auf der VM meine Mail Server laufen habe. Was kann ich machen um das Problem los zu werden?? Danke
  18. Hello have a problem after finishing the vm backup. when I want to start the vm I get this as a message! Cannot access storage file '/mnt/user/appdata/Debian/vdisk1.snap' (as uid:0, gid:100): No such file or directory what can i do?? Thanks
  19. Hi dladon Diagnostics zip unraid-diagnostics-20220807-1536.zip
  20. Hi, Can someone explain to me what this hint means? and possibly how I can get rid of it? Thanks Unraid unassigned.devices: PHP Warning: file_get_contents(1): failed to open stream: No such file or directory in /usr/local/emhttp/plugins/dynamix/include/Translations.php on line 66
  21. hi mgutt, noch eine Info, vielleicht kannst Du damit was anfangen? #!/bin/bash PATH=/usr/local/sbin:/usr/sbin:/sbin:/usr/local/bin:/usr/bin:/bin ## Available variables: # ACTION : if mounting, ADD; if unmounting, UNMOUNT; if unmounted, REMOVE; if error, ERROR_MOUNT, ERROR_UNMOUNT # DEVICE : partition device, e.g. /dev/sda1 # SERIAL : disk serial number # LABEL : partition label # LUKS : if the device is encrypted, this is the partition device, e.g. /dev/sda1 # FSTYPE : partition filesystem # MOUNTPOINT : where the partition is mounted # OWNER : "udev" if executed by UDEV, otherwise "user" # PROG_NAME : program name of this script # LOGFILE : log file for this script case $ACTION in 'ADD' ) if [ "$OWNER" = "udev" ]; then # do your hotplug stuff here sleep 1 else # do your user initiated stuff here sleep 1
  22. Hi mgutt, sorry das ich mich erst jetzt melde, Meinst Du das hier? text error warn system array login Aug 7 02:01:36 Unraid kernel: sd 9:0:0:0: [sdh] Spinning up disk... Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16). Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] 7813969920 512-byte logical blocks: (4.00 TB/3.64 TiB) Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] 4096-byte physical blocks Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] Write Protect is off Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] Mode Sense: 47 00 10 08 Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] No Caching mode page found Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] Assuming drive cache: write through Aug 7 02:01:39 Unraid kernel: sdh: sdh1 Aug 7 02:01:39 Unraid kernel: sd 9:0:0:0: [sdh] Attached SCSI disk Aug 7 02:01:40 Unraid unassigned.devices: Adding partition 'sdh1'... Aug 7 02:01:40 Unraid unassigned.devices: Mounting partition 'sdh1' at mountpoint '/mnt/disks/WD_Elements_25A1'... Aug 7 02:01:40 Unraid unassigned.devices: Partition 'sdh1' is already mounted. Aug 7 02:01:42 Unraid emhttpd: read SMART /dev/sdh So sieht es im Moment siehe Bild aus. Ausserdem habe ich nochmals versucht Dein Backup script nach einer Anpassung auszuführen, bin einfach zu ....! Das bekomme ich von Unraid als Fehler angezeigt! Kann mit der Info nichts anfangen, sorry. Unraid Status: 07-08-2022 02:29 Backup failed! (/mnt/user/isos/debian-11.4.0-amd64-netinst.iso) Error: rsync: [sender] change_dir "/mnt/user/isos/debian-11.4.0-amd64-netinst.iso" failed: Not a directory (20) rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1330) [sender 3.2.3] (23)! Meine Absicht ist es nach wie vor von der vm Debian ein Backup zu machen. Falls Du mir helfen kannst wäre es Super. Grüße
  23. Hi mgutt Ja stand so. habe den regler auf aus gestellt. Nun starte ich neu. Shit das hat nichts gebracht. Was nun??