independence

Members
  • Posts

    51
  • Joined

  • Last visited

Everything posted by independence

  1. Wie siehts da mittlerweile bei Storaxxa aus? Heute ist die Kickstarter Kampagne für die Ugreen NAS Modelle gestartet und war innerhalb von wenigen Minuten schon finanziert.
  2. Perfekt - das erspart mir viel Backup-Speicher Danke
  3. Danke für die Antworten. Folgende Frage hab ich noch: Ich hab zb. ne Postgres DB laufen. Sind die Inhalte gesichert wenn ich nur Appdata backupe oder liegen die Inhalte der DB in system? Danke
  4. Eine Frage zum Backup der genannten Ordner: Über das appdata backup plugin sichere ich den Ordner appdata Dann habe ich noch geplant den Ordner system zu sichern aber da dort extrem viele kleine Dateien drin sind ist das Backup extrem zäh. Ist es wirklich notwendig den Ordner zu sichern oder reicht appdata Settings: Docker directory: /mnt/user/system/docker/installed/ Default appdata storage location: /mnt/user/appdata/
  5. Hi all, when I´m trying to add a new adlist, there is an error: "While executing: attempt to write a readonly database" Do you already know what went wrong? Thanks
  6. Ich kann mittlerweile nach über einem Monat sagen, dass ich keinerlei Abstürze und Probleme mehr habe. Läuft alles einwandfrei. Somit hat der Fix wohl für Unifi + macvlan geholfen.
  7. Ich beobachte es mal weiter und der Mirror auf den Flashspeicher war schon eingerichtet. Das Log von heute morgen kam vom Stick. Monitor habe ich nicht am Server angeschlossen. Evtl löse ich mal noch den Bond auf falls das Problem bald nochmal auftaucht. Dann schauen wir mal weiter EDIT: Jetzt habe ich noch was interessantes gesehen.. Ich wollte gerade was im Mover Schedule schauen weil ich den zeitnah manuell starten muss. Jetzt sehe ich, dass der geplant jeden Mittwoch morgen um 01:00 Uhr startet. Also lief der heute Nacht an und evtl. ist der für den Absturz verantwortlich? Kennt jemand so einen Fall? Ich kann es jetzt nicht testen, da ich ab morgen paar Tage nicht daheim sein werde und jetzt nicht riskieren kann, dass wieder alles auf die Bretter geht.
  8. ipvlan habe ich absichtlich noch nicht getestet, da ich bei meiner Unifi Hardware den vollen Funktionsumfang nutzen möchte. Daher habe ich "nur" das aus den Release Notes umgesetzt: "For those users, we have a new method that reworks networking to avoid issues with macvlan. Tweak a few settings and your Docker containers, VMs, and WireGuard tunnels should automatically adjust to use them: Settings > Network Settings > eth0 > Enable Bonding = Yes or No, either work with this solution Settings > Network Settings > eth0 > Enable Bridging = No (this will automatically enable macvlan) Settings > Docker > Host access to custom networks = Enabled Note: if you previously used the 2-nic docker segmentation method, you will also want to revert that: Settings > Docker > custom network on interface eth0 or bond0 (i.e. make sure eth0/bond0 is configured for the custom network, not eth1/bond1)"
  9. Ja, ich hab da auch keine Fehler hinsichtlich macvlan entdecken können - das Log genau zu interpretieren ist aber auch weit von meiner Kernkompetenz weg Ja, ich hab ein bond0 aktiv und nutze auch 2 NICs für den Bond.
  10. Tja, hat bei mir weniger gut funktioniert. Heute morgen war hier das komplette Netzwerk down, der Switch musste neugestartet werden und ebenfalls musste ich den unRAID Server komplett vom Strom trennen. War also nicht so erfolgreich. Ich hänge hier mal das Syslog an. Heute Nacht war das Netzwerk irgendwann nicht mehr erreichbar und heute morgen um kurz vor 8 habe ich manuell neugestartet syslog
  11. Ich hab das jetzt mal dementsprechend eingestellt und schaue mal wie sich das nun verhält. Danke für den Hinweis
  12. Ich hab 6.12.4 installiert und dennoch noch das Problem, dass ab und an in unregelmäßigen Abständen und nicht reproduzierbar der Server einfriert und per Power-Knopf hart ausgeschaltet werden muss. Ob das an macvlan/ipvlan liegt, habe ich aber noch nicht probiert, da ich sehr ungern an dem Setup rumfrickeln möchte - ist immerhin mein Produktivsystem.
  13. GIbt es hier in der Zwischenzeit was Neues? @warp760 wie hast du nun weitergemacht?
  14. Sorry, ich hab deine Nachricht erst jetzt gesehen. Die Temperaturen und die Lüftergeschwindigkeit wird erkennt, jedoch habe ich es bislang nicht geschafft eine Lüftersteuerung zum Laufen zu bringen. Der Lüfter läuft also konstant mit 700rpm (leise). Momentan dümpelt die CPU mit ca 20% Last rum und hat 78°C. Geht aber gerne mal hoch bis zu 99°C. Ob die Werte korrekt sind steht natürlich auf einem anderen Blatt. Temps meiner NVMEs bei aktuell keiner Last: - Seagate Firecude 510 2TB: 44°C - WD Black SN770 2TB: 46°C - WD 1TB (Typ hab ich gerade nicht parat): 50°C Hardware steht im HWR im Untergeschoss in der Wohnung. Dort ist es also generell nicht sooo warm. Ich muss aber sagen, dass das ganze System mit der Asustor für mich eher eine Lösung auf Zeit ist. Ich habe damals recht zeitnah nach einer Lösung gesucht für ein System und konnte einfach nicht die passenden Komponenten finden (die auch preislich vertretbar waren und zeitnah geliefert werden konnten). Es gibt auch sehr wenige (wenn überhaupt) Mainboards die Out of the box 4x M.2 Slots bieten für SSDs + 4x SATA in einem so kompakten Gehäuse. Aber hat natürlich auch ein paar Nachteile. Wärme recht hoch, nur ein freier USB Slot, Performance der CPU könnte in manchen Szenarien höher sein,....
  15. @timomatrixer welche Netzwerkhardware (Router im wesentlichen) hast du denn? Fritzbox?
  16. Ja ich nutze macvlan in den Docker Einstellungen und auch Unraid in Version 6.12.x aber habe keine Fritzbox. Bei mir läuft ein Unifi System Aber der Unterschied wird da hoffentlich nicht so groß sein und das baldige Update behebt dann hoffentlich das nervige Problem
  17. Danke fürs Feedback. Ich bin gespannt ob jemand eine Idee hat. Nextcloud sollte es nicht sein - das war mal installiert, ist es aber im Moment nicht, da ein Update schiefgelaufen ist und ich vorerst den Container + DB entfernt habe.
  18. Servus zusammen, ich beobachte seit einiger Zeit ein komisches Verhalten von meines Unraid Server. Es hat dabei immer was mit meiner Fotosammlung zu tun. Die Fotos liegen dabei auf dem Cache, es sind ca 2,6 TB und entsprechend viele einzelne Dateien. Ich habe begonnen in Tranchen die Library über PhotoPrism zu indexieren, dabei kam es jedoch häufiger zum kompletten Einfrieren des Servers - kein Docker Container oder die GUI war dann noch erreichbar, sodass der Server immer hart neugestartet werden muss. Fehler lässt sich reproduzieren, ich habe nach ein paar Versuchen die Indexierung erst einmal auf Eis gelegt weil ich keine Zeit für die Fehlersuche hatte. Nun habe ich begonnen ein weiteres Backup der Fotosammlung auf eine externe Festplatte (angeschlossen an meinem Mac (Mac per WLAN im Netzwerk) anzulegen. Dabei kopiere ich die Dateien einfach sukzessive (meistens in 100GB Tranchen) per Drag and Drop bzw. per FreeFileSync (oder auch per "Commander One") vom Server über den Mac auf die externe SSD. Das klappt auch teilweise, aber nach fast jeder Tranche steigt der Server aus und ist dann ebenfalls nicht mehr ansprechbar und muss hart neugestartet werden. Das ist gerade eben erneut passiert und nachdem ich wieder was kopieren wollte, kommen die folgenden Fehler-/Warnmeldungen im Log (fett und unterstrichen von mir markiert): Aug 19 21:15:47 NAS kernel: docker0: port 8(veth07af23d) entered forwarding state Aug 19 21:15:47 NAS kernel: docker0: port 8(veth07af23d) entered disabled state Aug 19 21:15:48 NAS kernel: eth0: renamed from veth6ab0ca8 Aug 19 21:15:48 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth07af23d: link becomes ready Aug 19 21:15:48 NAS kernel: docker0: port 8(veth07af23d) entered blocking state Aug 19 21:15:48 NAS kernel: docker0: port 8(veth07af23d) entered forwarding state Aug 19 21:15:49 NAS rc.docker: syncthing: started succesfully! Aug 19 21:15:49 NAS kernel: docker0: port 9(veth132510f) entered blocking state Aug 19 21:15:49 NAS kernel: docker0: port 9(veth132510f) entered disabled state Aug 19 21:15:49 NAS kernel: device veth132510f entered promiscuous mode Aug 19 21:15:51 NAS kernel: eth0: renamed from veth32ef327 Aug 19 21:15:51 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): veth132510f: link becomes ready Aug 19 21:15:51 NAS kernel: docker0: port 9(veth132510f) entered blocking state Aug 19 21:15:51 NAS kernel: docker0: port 9(veth132510f) entered forwarding state Aug 19 21:15:51 NAS rc.docker: vaultwarden: started succesfully! Aug 19 21:15:52 NAS kernel: docker0: port 10(vethdf0b9be) entered blocking state Aug 19 21:15:52 NAS kernel: docker0: port 10(vethdf0b9be) entered disabled state Aug 19 21:15:52 NAS kernel: device vethdf0b9be entered promiscuous mode Aug 19 21:15:53 NAS kernel: eth0: renamed from veth702195a Aug 19 21:15:53 NAS kernel: IPv6: ADDRCONF(NETDEV_CHANGE): vethdf0b9be: link becomes ready Aug 19 21:15:53 NAS kernel: docker0: port 10(vethdf0b9be) entered blocking state Aug 19 21:15:53 NAS kernel: docker0: port 10(vethdf0b9be) entered forwarding state Aug 19 21:15:54 NAS rc.docker: WireGuard-Easy: started succesfully! Aug 19 21:15:56 NAS rc.docker: ZeroTier: started succesfully! Aug 19 21:16:00 NAS kernel: wireguard: WireGuard 1.0.0 loaded. See www.wireguard.com for information. Aug 19 21:16:00 NAS kernel: wireguard: Copyright (C) 2015-2019 Jason A. Donenfeld <[email protected]>. All Rights Reserved. Aug 19 21:17:33 NAS smbd[16977]: [2023/08/19 21:17:33.777773, 0] ../../source3/smbd/msdfs.c:170(parse_dfs_path) Aug 19 21:17:33 NAS smbd[16977]: parse_dfs_path: can't parse hostname from path NAS._smb._tcp.local Aug 19 21:17:33 NAS smbd[16977]: [2023/08/19 21:17:33.777864, 0] ../../source3/smbd/msdfs.c:180(parse_dfs_path) Aug 19 21:17:33 NAS smbd[16977]: parse_dfs_path: trying to convert NAS._smb._tcp.local to a local path Aug 19 21:17:36 NAS smbd[17142]: [2023/08/19 21:17:36.387384, 0] ../../source3/smbd/msdfs.c:170(parse_dfs_path) Aug 19 21:17:36 NAS smbd[17142]: parse_dfs_path: can't parse hostname from path NAS._smb._tcp.local Aug 19 21:17:36 NAS smbd[17142]: [2023/08/19 21:17:36.387457, 0] ../../source3/smbd/msdfs.c:180(parse_dfs_path) Aug 19 21:17:36 NAS smbd[17142]: parse_dfs_path: trying to convert NAS._smb._tcp.local to a local path Aug 19 21:20:45 NAS flash_backup: adding task: /usr/local/emhttp/plugins/dynamix.my.servers/scripts/UpdateFlashBackup update Aug 19 21:21:09 NAS kernel: ------------[ cut here ]------------ Aug 19 21:21:09 NAS kernel: WARNING: CPU: 3 PID: 9 at net/netfilter/nf_conntrack_core.c:1210 __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: Modules linked in: udp_diag wireguard curve25519_x86_64 libcurve25519_generic libchacha20poly1305 chacha_x86_64 poly1305_x86_64 ip6_udp_tunnel udp_tunnel libchacha xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle ip6table_nat iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xfrm_user xfrm_algo iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 xt_addrtype br_netfilter dm_crypt dm_mod md_mod zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) tcp_diag inet_diag it87(O) hwmon_vid ip6table_filter ip6_tables iptable_filter ip_tables x_tables efivarfs bridge stp llc bonding tls r8169 realtek x86_pkg_temp_thermal intel_powerclamp coretemp kvm_intel i915 kvm crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel drm_buddy i2c_algo_bit ttm sha512_ssse3 drm_display_helper aesni_intel drm_kms_helper crypto_simd cryptd mei_pxp mei_hdcp Aug 19 21:21:09 NAS kernel: wmi_bmof intel_rapl_msr drm intel_cstate nvme i2c_i801 i2c_smbus nvme_core video intel_gtt agpgart mei_me processor_thermal_device_pci_legacy processor_thermal_device ahci processor_thermal_rfim mei i2c_core libahci processor_thermal_mbox processor_thermal_rapl intel_rapl_common syscopyarea sysfillrect int340x_thermal_zone sysimgblt intel_soc_dts_iosf fb_sys_fops iosf_mbi thermal tpm_crb fan wmi tpm_tis backlight tpm_tis_core tpm intel_pmc_core acpi_pad button unix [last unloaded: realtek] Aug 19 21:21:09 NAS kernel: CPU: 3 PID: 9 Comm: kworker/u8:0 Tainted: P O 6.1.38-Unraid #2 Aug 19 21:21:09 NAS kernel: Hardware name: Intel Corporation Jasper Lake Client Platform/0123456789ABCDEF0123456789ABCDEF, BIOS V1.17 04/21/2022 Aug 19 21:21:09 NAS kernel: Workqueue: events_unbound macvlan_process_broadcast [macvlan] Aug 19 21:21:09 NAS kernel: RIP: 0010:__nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: Code: 44 24 10 e8 e2 e1 ff ff 8b 7c 24 04 89 ea 89 c6 89 04 24 e8 7e e6 ff ff 84 c0 75 a2 48 89 df e8 9b e2 ff ff 85 c0 89 c5 74 18 <0f> 0b 8b 34 24 8b 7c 24 04 e8 18 dd ff ff e8 93 e3 ff ff e9 72 01 Aug 19 21:21:09 NAS kernel: RSP: 0000:ffffc900001d4d98 EFLAGS: 00010202 Aug 19 21:21:09 NAS kernel: RAX: 0000000000000001 RBX: ffff8883f01ea600 RCX: 7a5b1f7aa11f5ad3 Aug 19 21:21:09 NAS kernel: RDX: 0000000000000000 RSI: 0000000000000001 RDI: ffff8883f01ea600 Aug 19 21:21:09 NAS kernel: RBP: 0000000000000001 R08: 5efd34d807be002d R09: c48f49ce371776f3 Aug 19 21:21:09 NAS kernel: R10: da6f3214641e78e8 R11: ffffc900001d4d60 R12: ffffffff82a11d00 Aug 19 21:21:09 NAS kernel: R13: 0000000000037e4e R14: ffff8885939c4a00 R15: 0000000000000000 Aug 19 21:21:09 NAS kernel: FS: 0000000000000000(0000) GS:ffff88895c180000(0000) knlGS:0000000000000000 Aug 19 21:21:09 NAS kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Aug 19 21:21:09 NAS kernel: CR2: 0000000000549f50 CR3: 0000000180fce000 CR4: 0000000000350ee0 Aug 19 21:21:09 NAS kernel: Call Trace: Aug 19 21:21:09 NAS kernel: <IRQ> Aug 19 21:21:09 NAS kernel: ? __warn+0xab/0x122 Aug 19 21:21:09 NAS kernel: ? report_bug+0x109/0x17e Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? handle_bug+0x41/0x6f Aug 19 21:21:09 NAS kernel: ? exc_invalid_op+0x13/0x60 Aug 19 21:21:09 NAS kernel: ? asm_exc_invalid_op+0x16/0x20 Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? __nf_conntrack_confirm+0x9e/0x2b0 [nf_conntrack] Aug 19 21:21:09 NAS kernel: ? nf_nat_inet_fn+0x60/0x1a8 [nf_nat] Aug 19 21:21:09 NAS kernel: nf_conntrack_confirm+0x25/0x54 [nf_conntrack] Aug 19 21:21:09 NAS kernel: nf_hook_slow+0x3a/0x96 Aug 19 21:21:09 NAS kernel: ? ip_protocol_deliver_rcu+0x164/0x164 Aug 19 21:21:09 NAS kernel: NF_HOOK.constprop.0+0x79/0xd9 Aug 19 21:21:09 NAS kernel: ? ip_protocol_deliver_rcu+0x164/0x164 Aug 19 21:21:09 NAS kernel: __netif_receive_skb_one_core+0x77/0x9c Aug 19 21:21:09 NAS kernel: process_backlog+0x8c/0x116 Aug 19 21:21:09 NAS kernel: __napi_poll.constprop.0+0x28/0x124 Aug 19 21:21:09 NAS kernel: net_rx_action+0x159/0x24f Aug 19 21:21:09 NAS kernel: __do_softirq+0x126/0x288 Aug 19 21:21:09 NAS kernel: do_softirq+0x7f/0xab Aug 19 21:21:09 NAS kernel: </IRQ> Aug 19 21:21:09 NAS kernel: <TASK> Aug 19 21:21:09 NAS kernel: __local_bh_enable_ip+0x4c/0x6b Aug 19 21:21:09 NAS kernel: netif_rx+0x52/0x5a Aug 19 21:21:09 NAS kernel: macvlan_broadcast+0x10a/0x150 [macvlan] Aug 19 21:21:09 NAS kernel: ? _raw_spin_unlock+0x14/0x29 Aug 19 21:21:09 NAS kernel: macvlan_process_broadcast+0xbc/0x12f [macvlan] Aug 19 21:21:09 NAS kernel: process_one_work+0x1a8/0x295 Aug 19 21:21:09 NAS kernel: worker_thread+0x18b/0x244 Aug 19 21:21:09 NAS kernel: ? rescuer_thread+0x281/0x281 Aug 19 21:21:09 NAS kernel: kthread+0xe4/0xef Aug 19 21:21:09 NAS kernel: ? kthread_complete_and_exit+0x1b/0x1b Aug 19 21:21:09 NAS kernel: ret_from_fork+0x1f/0x30 Aug 19 21:21:09 NAS kernel: </TASK> Aug 19 21:21:09 NAS kernel: ---[ end trace 0000000000000000 ]--- Ich hoffe ihr habt eine Idee - das permanente Neustarten kann sicherlich nicht gesund sein. Danke vorab
  19. Could you tell us which fan you installed? (the temp of the CPU could be a bit lower in my opinion)
  20. Same here. I disconnected the LCD, but I was not able to disconnect the LEDs so that the green and blue LED (one of them) constantly flashes
  21. Hi, everything looks good at the moment. The CPU usage was pretty high last weeks but that was related to my Backup job which ran 24/7. In general I can say that the CPU Power is not that high but I hope that it is enough for my needs.
  22. independence

    Error 403

    Hier zitiere ich mich mal noch selbst. Ich habe die gleiche NVMe SSD nun in ein Asustor Lockerstor 4 Gen 2 eingebaut und ich bekomme keine Fehlermeldungen im Log angezeigt. Also mag es nicht ausschließlich an der SN750 liegen sondern eher am Zusammenspiel mit der CPU und/oder dem Mainboard.
  23. Servus zusammen, ich habe mir mal eine Fertiglösung von Asus besorgt und versuche das ganze jetzt einmal aufzusetzen um dann zu entscheiden ob das eine langfristige Lösung für mich ist. Ich bin einfach an einem kompakten Gerät interessiert und die Möglichkeit hier nativ 4 3,5" HDDs (oder 2,5" HDDs/SSDs) und zusätzlich noch 4 NVMe SSDs anzuschließen hat mich einfach überzeugt. Im Selbstbau kommt es mir aktuell (auch aufgrund der Lieferengpässe einiger Mainboards) sehr schwer vor, ein solches Setup in einem ähnlichen Formfaktor zu realisieren. Ob mir die CPU Performance ausreicht kann ich jetzt noch nicht sagen. Das sollte auch ein wesentlicher Bestandteil sein - wobei ich schon sagen muss, dass ich im NAS-Umfeld da nicht sonderlich große Ansprüche habe da ich maximal eine Linux und eine Win VM parallel laufen lasse (die allerdings auch nicht massiv ausgelastet sind). Im englischen Teil des Forum gibt es schon ein ähnliches Thema, aber evtl ist es auch für den ein oder anderen interessant. Verbrauch mit folgenden Komponenten zu den jeweiligen Phasen des Projekts (gemessen mit einem Shelly Plug S (Tasmota und kalibriert): 1. Beim initialen Login mit 1x32GB und 1x 4GB DDR4 Arbeitsspeicher, 1x NVMe 1TB SN750 Black: 10-11W im Idle 2. Beim zweiten Start waren dann neben der Konfig aus "1" noch zusätzlich 2x 3,5" HDD mit je 500GB (1x Parity, 1x Array) eingebaut (extrem alte Festplatten): 20-21W im Idle 3. Wie "2" nur mit hochgefahrenem Array und den Platten im Spindown: 12-13W im Idle 4. Immer noch wie "2" aber nun mit 5 Containern am Laufen (+Spindown vom Array): 13-14W im Idle (CPU Last liegt bei ca. 5%) 5. Wie "4" jedoch mit einer Win11 VM: im Idle: 19-21W; unter Last (ca. 50%): 23-25W (1 von 2 Platten aus dem Array bleibt nicht dauerhaft im Spindown, daher ist der Wert inkl. einer aktiven Festplatte) Ich habe nun die Werte in die boot/config/go eingefügt wie in dem folgenden Threat beschrieben: Im Vergleich zu Schritt "4" gibt das nochmals eine Ersparnis von ca. 2W Ich versuche den Post halbwegs aktuell zu halten.
  24. Thanks for sharing your experience. Some months ago I thought that I need an Win10or11 VM 24/7 but I started to use docker a bit more extensively and now I only use the Win VM some hours per week. I think that the n5105 is sufficient enough to run 10-20 containers 24/7 and the VM sometimes. I like the form factor of the Asustor and the 4x NVMe option that much that I will give it a try