derjp Posted June 24 Share Posted June 24 Moin moin, Ich habe es ab und an mal, dass sich der Server scheinbar irgendwie aufhängt und nicht mehr erreichbar ist. Kann mir vielleicht jemand sagen warum? Ich werde da nicht ganz schlau draus. jarvis-diagnostics-20240624-1736.zip Quote Link to comment
alturismo Posted June 24 Share Posted June 24 39 minutes ago, derjp said: Ich werde da nicht ganz schlau draus. mal abgesehen davon dass dies noch nicht umgesetzt ist ich schätze mal du bist Fritz user, hast bonding (Verbund mehrerer Netzwerkkarten) und Bridging aktiv siehe dazu im Anleitungs Part den Thread zu macvlan call Traces und passe das mal alles entsprechend an. Ergebnis aus deinem log (Anfang vom freeze ...) Jun 24 17:27:42 jarvis kernel: ------------[ cut here ]------------ Jun 24 17:27:42 jarvis kernel: WARNING: CPU: 4 PID: 91 at net/netfilter/nf_conntrack_core.c:1210 __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack] Jun 24 17:27:42 jarvis kernel: Modules linked in: xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle ip6table_nat iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xfrm_user xfrm_algo iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 xt_addrtype br_netfilter xfs md_mod tcp_diag inet_diag ip6table_filter ip6_tables iptable_filter ip_tables x_tables efivarfs bridge stp llc bonding tls zfs(PO) i915 zunicode(PO) x86_pkg_temp_thermal zzstd(O) intel_powerclamp drm_buddy coretemp i2c_algo_bit ttm kvm_intel drm_display_helper zlua(O) kvm zavl(PO) icp(PO) drm_kms_helper drm crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel sha512_ssse3 sha256_ssse3 sha1_ssse3 processor_thermal_device_pci aesni_intel zcommon(PO) crypto_simd processor_thermal_device cryptd processor_thermal_rfim znvpair(PO) rapl intel_cstate spl(O) mei_hdcp mei_pxp intel_rapl_msr gigabyte_wmi wmi_bmof intel_gtt processor_thermal_mbox Jun 24 17:27:42 jarvis kernel: intel_uncore i2c_i801 agpgart processor_thermal_rapl mei_me nvme i2c_smbus syscopyarea intel_rapl_common ahci int340x_thermal_zone sysfillrect r8125(O) sysimgblt nvme_core i2c_core mei libahci iosf_mbi fb_sys_fops thermal fan video wmi int3400_thermal backlight acpi_thermal_rel intel_pmc_core acpi_pad acpi_tad button unix Jun 24 17:27:42 jarvis kernel: CPU: 4 PID: 91 Comm: kworker/u24:2 Tainted: P O 6.1.79-Unraid #1 Jun 24 17:27:42 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023 Jun 24 17:27:42 jarvis kernel: Workqueue: events_unbound macvlan_process_broadcast [macvlan] ... .. . ich meine jedoch dir das bereits mal als Anhaltspunkt gegeben zu haben in einem anderen Thread, egal ... --- anderes Beispiel ... 2000 + Fehlereinträge nur hierzu ... wer ist ...22 und versucht mit Gewalt auf Port 8080 Dashboard zu connecten, da läuft was im Hintergrund ... Jun 24 11:19:52 jarvis nginx: 2024/06/24 11:19:52 [error] 7532#7532: *451636 limiting requests, excess: 20.073 by zone "authlimit", client: 192.168.178.22, server: , request: "GET /login HTTP/1.1", host: "jarvis:8080", referrer: "http://jarvis:8080/Dashboard" ... .. . Jun 24 11:40:32 jarvis nginx: 2024/06/24 11:40:32 [error] 7532#7532: *463732 limiting requests, excess: 20.034 by zone "authlimit", client: 192.168.178.22, server: , request: "GET /login HTTP/1.1", host: "jarvis:8080", referrer: "http://jarvis:8080/login" dann hast du danach einen zfs call trace Jun 24 13:21:40 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000) Jun 24 13:21:40 jarvis kernel: Showing stack for process 8003 Jun 24 13:21:40 jarvis kernel: CPU: 0 PID: 8003 Comm: metaslab_group_ Tainted: P O 6.1.79-Unraid #1 Jun 24 13:21:40 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023 Jun 24 13:21:40 jarvis kernel: Call Trace: Jun 24 13:21:40 jarvis kernel: <TASK> Jun 24 13:21:40 jarvis kernel: dump_stack_lvl+0x44/0x5c Jun 24 13:21:40 jarvis kernel: vcmn_err+0x86/0xc3 [spl] Jun 24 13:21:40 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs] Jun 24 13:21:40 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf ... .. . welche sich hier nochmals zeigen Jun 24 17:27:25 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000) Jun 24 17:27:25 jarvis kernel: Showing stack for process 7967 Jun 24 17:27:25 jarvis kernel: CPU: 6 PID: 7967 Comm: metaslab_group_ Tainted: P O 6.1.79-Unraid #1 Jun 24 17:27:25 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023 Jun 24 17:27:25 jarvis kernel: Call Trace: Jun 24 17:27:25 jarvis kernel: <TASK> Jun 24 17:27:25 jarvis kernel: dump_stack_lvl+0x44/0x5c Jun 24 17:27:25 jarvis kernel: vcmn_err+0x86/0xc3 [spl] Jun 24 17:27:25 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs] Jun 24 17:27:25 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf Jun 24 17:27:25 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs] Jun 24 17:27:25 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf Jun 24 17:27:25 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs] Jun 24 17:27:25 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs] Jun 24 17:27:25 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs] Jun 24 17:27:25 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs] Jun 24 17:27:25 jarvis kernel: ? zio_wait+0x1ee/0x1fd [zfs] Jun 24 17:27:25 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs] Jun 24 17:27:25 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs] ... .. . @JorgeB may some hints howto solve those ? finde vor allem die massiven login Versuche raus ... Quote Link to comment
JorgeB Posted June 24 Share Posted June 24 1 hour ago, alturismo said: may some hints howto solve those ? If it still mounts suggest backing up and re-formatting, if it doesn't, see if it mounts read-only, and if yes, backup and re-format: zpool import -o readonly=on pool_name 1 Quote Link to comment
derjp Posted June 25 Author Share Posted June 25 @alturismo Ok ich werde mal schauen wie ich bonding und bridging auf no stelle. Die 22 ist mein PC, da habe ich Tagsüber das Dashboard und homarr auf, daher vielleicht die vielen Anfragen, weil es ständig aktualisiert wird? Zu den anderen Fehlermeldungen muss ich mal schauen, noch sagen die mir nichts, werde ich mal versuchen herauszufinden. Quote Link to comment
derjp Posted June 25 Author Share Posted June 25 Ich habe nun anhand dieser Anleitung: https://docs.unraid.net/unraid-os/release-notes/6.12.4/#fix-for-macvlan-call-traces folgendes übernommen: ich werde mal schauen ob es nun besser läuft. Quote Link to comment
derjp Posted June 27 Author Share Posted June 27 @alturismo Gestern und heute morgen ist der Server wieder eingefroren gewesen. Es ist also gefühlt durch die Umstellung schlimmer geworden. Er läuft den ganzen Tag ohne Probleme und morgens ist er dann wieder nicht erreichbar. Ich werde nur aus den Logs nicht wirklich schlau, vielleicht kannst du dir die nochmal anschauen?jarvis-diagnostics-20240627-0819.zip Quote Link to comment
alturismo Posted June 27 Share Posted June 27 1 hour ago, derjp said: Es ist also gefühlt durch die Umstellung schlimmer geworden. naja, du hast keine macvlan call traces mehr, was gut ist das war aber nur 1 Punkt von oben ... was immer noch da ist, zfs ... traces ... Jun 26 07:16:59 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000) Jun 26 07:16:59 jarvis kernel: Showing stack for process 26063 Jun 26 07:16:59 jarvis kernel: CPU: 1 PID: 26063 Comm: metaslab_group_ Tainted: P O 6.1.79-Unraid #1 Jun 26 07:16:59 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023 Jun 26 07:16:59 jarvis kernel: Call Trace: Jun 26 07:16:59 jarvis kernel: <TASK> Jun 26 07:16:59 jarvis kernel: dump_stack_lvl+0x44/0x5c Jun 26 07:16:59 jarvis kernel: vcmn_err+0x86/0xc3 [spl] Jun 26 07:16:59 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs] Jun 26 07:16:59 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf Jun 26 07:16:59 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs] Jun 26 07:16:59 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf Jun 26 07:16:59 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs] Jun 26 07:16:59 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs] Jun 26 07:16:59 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs] Jun 26 07:16:59 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs] Jun 26 07:16:59 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs] Jun 26 07:16:59 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs] Jun 26 07:16:59 jarvis kernel: ? spa_stats_destroy+0x16c/0x16c [zfs] Jun 26 07:16:59 jarvis kernel: space_map_load_length+0x93/0xcb [zfs] Jun 26 07:16:59 jarvis kernel: metaslab_load+0x33b/0x6e3 [zfs] Jun 26 07:16:59 jarvis kernel: ? _raw_spin_unlock_irqrestore+0x24/0x3a Jun 26 07:16:59 jarvis kernel: ? __wake_up_common_lock+0x88/0xbb Jun 26 07:16:59 jarvis kernel: metaslab_preload+0x4c/0x97 [zfs] Jun 26 07:16:59 jarvis kernel: taskq_thread+0x266/0x38a [spl] Jun 26 07:16:59 jarvis kernel: ? wake_up_q+0x44/0x44 Jun 26 07:16:59 jarvis kernel: ? taskq_dispatch_delay+0x106/0x106 [spl] Jun 26 07:16:59 jarvis kernel: kthread+0xe4/0xef Jun 26 07:16:59 jarvis kernel: ? kthread_complete_and_exit+0x1b/0x1b Jun 26 07:16:59 jarvis kernel: ret_from_fork+0x1f/0x30 Jun 26 07:16:59 jarvis kernel: </TASK> Jun 27 07:27:42 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023 Jun 27 07:27:42 jarvis kernel: Call Trace: Jun 27 07:27:42 jarvis kernel: <TASK> Jun 27 07:27:42 jarvis kernel: dump_stack_lvl+0x44/0x5c Jun 27 07:27:42 jarvis kernel: vcmn_err+0x86/0xc3 [spl] Jun 27 07:27:42 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs] Jun 27 07:27:42 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf Jun 27 07:27:42 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs] Jun 27 07:27:42 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf Jun 27 07:27:42 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs] Jun 27 07:27:42 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs] Jun 27 07:27:42 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs] Jun 27 07:27:42 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs] Jun 27 07:27:42 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs] Jun 27 07:27:42 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs] Jun 27 07:27:42 jarvis kernel: ? spa_stats_destroy+0x16c/0x16c [zfs] Jun 27 07:27:42 jarvis kernel: space_map_load_length+0x93/0xcb [zfs] Jun 27 07:27:42 jarvis kernel: metaslab_load+0x33b/0x6e3 [zfs] Jun 27 07:27:42 jarvis kernel: ? _raw_spin_unlock_irqrestore+0x24/0x3a Jun 27 07:27:42 jarvis kernel: ? __wake_up_common_lock+0x88/0xbb Jun 27 07:27:42 jarvis kernel: metaslab_preload+0x4c/0x97 [zfs] Jun 27 07:27:42 jarvis kernel: taskq_thread+0x266/0x38a [spl] Jun 27 07:27:42 jarvis kernel: ? wake_up_q+0x44/0x44 Jun 27 07:27:42 jarvis kernel: ? taskq_dispatch_delay+0x106/0x106 [spl] Jun 27 07:27:42 jarvis kernel: kthread+0xe4/0xef Jun 27 07:27:42 jarvis kernel: ? kthread_complete_and_exit+0x1b/0x1b Jun 27 07:27:42 jarvis kernel: ret_from_fork+0x1f/0x30 Jun 27 07:27:42 jarvis kernel: </TASK> und da bin ich raus, bin kein Freund der pools mit btrfs oder zfs ... in Summe fahre ich mit single drive und backup Strategie besser hilft ja aber nichts, Lösungsansatz, siehe oben, sichern, formatieren, neu machen, ... er mountet ja ... On 6/24/2024 at 8:19 PM, JorgeB said: If it still mounts suggest backing up and re-formatting, if it doesn't, see if it mounts read-only, and if yes, backup and re-format: was mich etwas wundert, sieht ja fast "gewollt" aus ... Jun 27 07:16:39 jarvis init: Switching to runlevel: 0 Jun 27 07:16:44 jarvis shutdown[27778]: shutting down for system halt Quote Link to comment
derjp Posted June 27 Author Share Posted June 27 @alturismo Also im Log kann ich auch nicht sehen, dass er irgendwie Probleme hatte, der Server muss ja irgendwann heute Nacht nicht mehr erreichbar gewesen sein, aber ich kann im folgenden Log nichts feststellen. Das shutting down von heute morgen war gewollt, da habe ich den ja über den Powerknopf am Server ausgemacht, weil er ja nicht mehr erreichbar war. Was genau bringt mir das re-formatting? Der Cache startet ja und kann ja gelesen werden. Ich hatte es ja auch schon, dass er den Cache nicht mounten konnte und er hing bei starting array. Dann musste ich den Cache löschen und neu anlegen und dann die Backups wieder einspielen. Oder meint ihr der sollte dann nicht zfs haben? Was sollten die dann haben? Möchte ja gerne einen 4TB Cache haben. Mein Cache besteht ja aus 2x 2TB NVME. Ich weiß halt nicht ob die Call Traces das Problem sind, oder ob die aus einem anderen Problem entstehen. Der Server scheint ja schon vorher nicht mehr erreichbar zu sein, bevor es zu diesen Call Traces kommt. Daher ist halt die Frage, was dazu führt, dass der Server nicht mehr erreichbar ist und sich aufhängt und wenn das Problem behoben ist, ob die Call Traces dann überhaupt noch kommen. Quote Link to comment
alturismo Posted June 27 Share Posted June 27 11 minutes ago, derjp said: Was genau bringt mir das re-formatting? Der Cache startet ja und kann ja gelesen werden. ja, aber produziert Fehler, wenn du das so belassen willst, lass es, ist aber der einzige "Fehler" in deinem log wo ich noch sehe ... macvlan call traces - erl. irre Anfragen von ... - erl. zfs call traces - offen und vorhanden. 12 minutes ago, derjp said: Oder meint ihr der sollte dann nicht zfs haben? Was sollten die dann haben? Möchte ja gerne einen 4TB Cache haben. bleib dabei, aber "harte Shutdowns", Bsp. 5 Sekunden power Knopf mögen weder btrfs noch zfs ... (eigentlich keine FS, aber im Raid sind die dann anfälliger), damit muss man leben wenn es nicht rund läuft und sollte immer Backups haben was du ja hast. Diese Konstellation bedarf in solchen Fällen (leider) immer Pflege, egal auf welchem System, ich persönlich nutze weder noch, btrfs zu anfällig, zfs overhyped und zu wartungsintensiv ... daher nutze ich nur single drive caches (2 x 2tb), verteile, mache backups, fertig, seither auch 0 issues mehr mit dem Thema FS ... aber das muss und kann jeder für sich entscheiden, ist ja das Schöne, freie Wahl Quote Link to comment
derjp Posted June 27 Author Share Posted June 27 8 minutes ago, alturismo said: ja, aber produziert Fehler, wenn du das so belassen willst, lass es, ist aber der einzige "Fehler" in deinem log wo ich noch sehe ... macvlan call traces - erl. irre Anfragen von ... - erl. zfs call traces - offen und vorhanden. bleib dabei, aber "harte Shutdowns", Bsp. 5 Sekunden power Knopf mögen weder btrfs noch zfs ... (eigentlich keine FS, aber im Raid sind die dann anfälliger), damit muss man leben wenn es nicht rund läuft und sollte immer Backups haben was du ja hast. Diese Konstellation bedarf in solchen Fällen (leider) immer Pflege, egal auf welchem System, ich persönlich nutze weder noch, btrfs zu anfällig, zfs overhyped und zu wartungsintensiv ... daher nutze ich nur single drive caches (2 x 2tb), verteile, mache backups, fertig, seither auch 0 issues mehr mit dem Thema FS ... aber das muss und kann jeder für sich entscheiden, ist ja das Schöne, freie Wahl Ja okay, also würdest du vorschlagen, lieber 2 Caches zu mit jeweils einer NVME zu erstellen. Welches Format dann, wenn nicht btrfs und zfs? Ich will ja auch nicht das sich die Kiste dauernd aufhängt, das nervt natürlich auch. Und oft habe ich ja dann keine andere Wahl als den hart auszuschalten und neu zu starten. Und oft geht dann alles wieder, aber ich hatte es dann auch schon 2 mal, dass er den Cache nicht mehr mounten konnte und ich den neu anlegen und Backups einspielen musste. Ist natürlich auch nicht das gelbe vom Ei. Ziel ist natürlich, dass das nicht mehr passiert und er lange ohne Probleme läuft. Was ich nur nicht verstehe ist, dass der Server sich ja scheinbar vorher aufhängt und die Traces ja irgendwann danach kommen. Also sind die Traces ja nicht am aufhängen schuld, sondern kommen weil sich der Server aufhängt. Und wenn der sich nicht aufhängen würde, dann würde die auch nicht kommen. Dann ist ja die Frage, warum der sich aufhängt. Dann muss da doch noch eine andere Ursache sein. Oder bin ich da auf dem Holzweg und habe das einfach überhaupt nicht verstanden? Und vielen Dank für deine Mühen Quote Link to comment
alturismo Posted June 27 Share Posted June 27 Just now, derjp said: Ja okay, also würdest du vorschlagen, lieber 2 Caches zu mit jeweils einer NVME zu erstellen. Welches Format dann, wenn nicht btrfs und zfs? ich nutze ausschließlich xfs, ist aber meine persönliche Meinung bevor es "Glaubensfragen" gibt 1 minute ago, derjp said: Oder bin ich da auf dem Holzweg und habe das einfach überhaupt nicht verstanden? rein von den logs betrachtet und was deine Erfahrung ist, würde ich zustimmen, nichts desto trotz müssen erstmal die offensichtlichen Fehler beseitigt werden um dies auszuschließen, die Fehlerbeschreibung passt ja zu 100 % auf die macvlan Thematik, ist erledigt, bleibt jetzt noch das zfs Thema ... ob du jetzt umstellst auf 2x single (xfs) oder zum Test (raidX zfs) mit korrekten bond / bridge settings, deine Entscheidung Quote Link to comment
derjp Posted June 27 Author Share Posted June 27 1 minute ago, alturismo said: ob du jetzt umstellst auf 2x single (xfs) oder zum Test (raidX zfs) mit korrekten bond / bridge settings, deine Entscheidung Naja momentan ist es ja auf zfs mit raid0 eingestellt. Demnach hätte ich ja nur eine Möglichkeit das zu testen und die wäre 2x single mit xfs Vielleicht werde ich das mal ausprobieren, auch wenn das für mich noch nicht ganz schlüssig ist, wenn das einfrieren vorher passiert und die traces daraus resultieren. Dann müsste das Problem ja wo anders liegen. Oder ich habe da einfach zu wenig Ahnung von um das zu verstehen. Quote Link to comment
Teckware Posted June 29 Share Posted June 29 Ich hab zwar keine Lösung, aber das gleiche Problem. Hab jetzt schon zweimal bei Null angefangen. Wirklich viel läuft bei mir nicht. Irgendwann friert mein unraid ein und ich muss einen hardreset machen. Hatte schon meine Hardware im Verdacht. Nutze einen Intel N305 CPU mit 16 GB RAM. Meine Docker: heimdall, Nextcloud, MariaDB, cloudflared, Adguard... Wenn sich mein Server verabschiedet, dann sehe ich das auch an einem sehr hohen Stromverbrauch... Normalerweise brauche ich 8 Watt im idle. Quote Link to comment
alturismo Posted June 30 Share Posted June 30 11 hours ago, Teckware said: Ich hab zwar keine Lösung, aber das gleiche Problem. dann vielleicht mal einen Thread eröffnen mit zumindest ner diagnostics <<click<< anbei ? dann könnte man ggf. helfen Quote Link to comment
Teckware Posted June 30 Share Posted June 30 Danke für das Angebot, ich hab jetzt mal die Diagnostik eingeschaltet. Bisher konnte ich meine Hardware noch nicht ausschließen (Zeitmangel). Wenn ich allerdings die Posts in den Foren sehe, ist das wohl gerade ein Problem, was viele trifft. Zudem ist mir mein Server schon beim installieren des Deutschen Sprachpaketes eingefroren. Daher vermute ich mal eher kein Konfigurationsproblem, sondern ein Software-Bug. Ich werde mal ein anderes Betriebssystem installieren und verschiedene Benchmark-Tests laufen lassen, um zu sehen, ob es die Hardware (RAM) ist. Danach würde ich dein Angebot auf Hilfe gerne in Anspruch nehmen. Quote Link to comment
SteveAusPuchheim Posted July 3 Share Posted July 3 Stecke deinen Stick mal an einen anderen USB 2.0 Anschluss Quote Link to comment
Teckware Posted July 4 Share Posted July 4 Guten Morgen, mein Problem hat sich gelöst. Leider kann ich nicht sagen, woran es liegt. Mir ist tatsächlich mein USB-Stick kaputt gegangen. Mit dem neuen Stick bin ich aber auch auf unraid 7 Beta umgestiegen (noch ist mein System eine Bastellösung). Unraid 7 bringt eine bessere Unterstützung für Intel ARC mit, ich könnte mir gut vorstellen, dass das die Lösung ist, kann aber meinen defekten USB-Stick nicht ganz ausschließen. Quote Link to comment
derjp Posted July 5 Author Share Posted July 5 Mal ein kleines Update zu meine Server. Ich habe ja wie oben gesagt die 3 Einstellungen geändert. Dann habe ich den Cache gelöscht, neu angelegt und formatiert. Nutze weiterhin ZFS. Zudem habe ich auch den Docker Homarr nicht mehr aktiv (habe ihn eh nicht genutzt und er hat auch bei anderen Usern sehr oft Anfragen gesendet an den Server). Der Server läuft jetzt seit 7,5 Tagen ohne einfrieren und ohne Probleme. Ich vermute fast, dass sich mein Problem gelöst hat, aber wir wollen uns noch nicht zu früh freuen. Ich denke nicht das Homarr irgendwas damit zu tun hatte, wollte es aber trotzdem erwähnen. Was genau bei mir immer das einfrieren ausgelöst hat, kann ich nicht sagen. Aber nachdem ich wie gesagt die 3 Einstellungen geändert und den Cache nochmals neu angelegt habe, scheint es zu laufen... bis jetzt. 1 Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.