Jump to content

Server hängt sich auf und ist nicht mehr erreichbar bis neustart.


Recommended Posts

39 minutes ago, derjp said:

Ich werde da nicht ganz schlau draus.

mal abgesehen davon dass dies noch nicht umgesetzt ist

 

ich schätze mal du bist Fritz user, hast bonding (Verbund mehrerer Netzwerkkarten) und Bridging aktiv

 

image.png.d564b16ae49ea9b34ff5d4e79539863b.png

 

siehe dazu im Anleitungs Part den Thread zu macvlan call Traces und passe das mal alles entsprechend an.

 

Ergebnis aus deinem log (Anfang vom freeze ...)

 

Jun 24 17:27:42 jarvis kernel: ------------[ cut here ]------------
Jun 24 17:27:42 jarvis kernel: WARNING: CPU: 4 PID: 91 at net/netfilter/nf_conntrack_core.c:1210 __nf_conntrack_confirm+0xa4/0x2b0 [nf_conntrack]
Jun 24 17:27:42 jarvis kernel: Modules linked in: xt_CHECKSUM ipt_REJECT nf_reject_ipv4 ip6table_mangle ip6table_nat iptable_mangle vhost_net tun vhost vhost_iotlb tap macvlan veth xt_nat xt_tcpudp xt_conntrack xt_MASQUERADE nf_conntrack_netlink nfnetlink xfrm_user xfrm_algo iptable_nat nf_nat nf_conntrack nf_defrag_ipv6 nf_defrag_ipv4 xt_addrtype br_netfilter xfs md_mod tcp_diag inet_diag ip6table_filter ip6_tables iptable_filter ip_tables x_tables efivarfs bridge stp llc bonding tls zfs(PO) i915 zunicode(PO) x86_pkg_temp_thermal zzstd(O) intel_powerclamp drm_buddy coretemp i2c_algo_bit ttm kvm_intel drm_display_helper zlua(O) kvm zavl(PO) icp(PO) drm_kms_helper drm crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel sha512_ssse3 sha256_ssse3 sha1_ssse3 processor_thermal_device_pci aesni_intel zcommon(PO) crypto_simd processor_thermal_device cryptd processor_thermal_rfim znvpair(PO) rapl intel_cstate spl(O) mei_hdcp mei_pxp intel_rapl_msr gigabyte_wmi wmi_bmof intel_gtt processor_thermal_mbox
Jun 24 17:27:42 jarvis kernel: intel_uncore i2c_i801 agpgart processor_thermal_rapl mei_me nvme i2c_smbus syscopyarea intel_rapl_common ahci int340x_thermal_zone sysfillrect r8125(O) sysimgblt nvme_core i2c_core mei libahci iosf_mbi fb_sys_fops thermal fan video wmi int3400_thermal backlight acpi_thermal_rel intel_pmc_core acpi_pad acpi_tad button unix
Jun 24 17:27:42 jarvis kernel: CPU: 4 PID: 91 Comm: kworker/u24:2 Tainted: P           O       6.1.79-Unraid #1
Jun 24 17:27:42 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023
Jun 24 17:27:42 jarvis kernel: Workqueue: events_unbound macvlan_process_broadcast [macvlan]
...
..
.

 

ich meine jedoch dir das bereits mal als Anhaltspunkt gegeben zu haben in einem anderen Thread, egal ...

 

---

anderes Beispiel ... 2000 + Fehlereinträge nur hierzu ... wer ist ...22 und versucht mit Gewalt auf Port 8080 Dashboard zu connecten, da läuft was im Hintergrund ...

 

Jun 24 11:19:52 jarvis nginx: 2024/06/24 11:19:52 [error] 7532#7532: *451636 limiting requests, excess: 20.073 by zone "authlimit", client: 192.168.178.22, server: , request: "GET /login HTTP/1.1", host: "jarvis:8080", referrer: "http://jarvis:8080/Dashboard"
...
..
.
Jun 24 11:40:32 jarvis nginx: 2024/06/24 11:40:32 [error] 7532#7532: *463732 limiting requests, excess: 20.034 by zone "authlimit", client: 192.168.178.22, server: , request: "GET /login HTTP/1.1", host: "jarvis:8080", referrer: "http://jarvis:8080/login"

 

dann hast du danach einen zfs call trace

 

Jun 24 13:21:40 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000)
Jun 24 13:21:40 jarvis kernel: Showing stack for process 8003
Jun 24 13:21:40 jarvis kernel: CPU: 0 PID: 8003 Comm: metaslab_group_ Tainted: P           O       6.1.79-Unraid #1
Jun 24 13:21:40 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023
Jun 24 13:21:40 jarvis kernel: Call Trace:
Jun 24 13:21:40 jarvis kernel: <TASK>
Jun 24 13:21:40 jarvis kernel: dump_stack_lvl+0x44/0x5c
Jun 24 13:21:40 jarvis kernel: vcmn_err+0x86/0xc3 [spl]
Jun 24 13:21:40 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs]
Jun 24 13:21:40 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf
...
..
.

 

welche sich hier nochmals zeigen

 

Jun 24 17:27:25 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000)
Jun 24 17:27:25 jarvis kernel: Showing stack for process 7967
Jun 24 17:27:25 jarvis kernel: CPU: 6 PID: 7967 Comm: metaslab_group_ Tainted: P           O       6.1.79-Unraid #1
Jun 24 17:27:25 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023
Jun 24 17:27:25 jarvis kernel: Call Trace:
Jun 24 17:27:25 jarvis kernel: <TASK>
Jun 24 17:27:25 jarvis kernel: dump_stack_lvl+0x44/0x5c
Jun 24 17:27:25 jarvis kernel: vcmn_err+0x86/0xc3 [spl]
Jun 24 17:27:25 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs]
Jun 24 17:27:25 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf
Jun 24 17:27:25 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs]
Jun 24 17:27:25 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf
Jun 24 17:27:25 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs]
Jun 24 17:27:25 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs]
Jun 24 17:27:25 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs]
Jun 24 17:27:25 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs]
Jun 24 17:27:25 jarvis kernel: ? zio_wait+0x1ee/0x1fd [zfs]
Jun 24 17:27:25 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs]
Jun 24 17:27:25 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs]
...
..
.

 

@JorgeB may some hints howto solve those ?

 

finde vor allem die massiven login Versuche raus ...

Link to comment
1 hour ago, alturismo said:

may some hints howto solve those ?

If it still mounts suggest backing up and re-formatting, if it doesn't, see if it mounts read-only, and if yes, backup and re-format:

 

zpool import -o readonly=on pool_name

 

  • Like 1
Link to comment

@alturismo

 

Ok ich werde mal schauen wie ich bonding und bridging auf no stelle.

 

Die 22 ist mein PC, da habe ich Tagsüber das Dashboard und homarr auf, daher vielleicht die vielen Anfragen, weil es ständig aktualisiert wird?

 

 

Zu den anderen Fehlermeldungen muss ich mal schauen, noch sagen die mir nichts, werde ich mal versuchen herauszufinden.

Link to comment
1 hour ago, derjp said:

Es ist also gefühlt durch die Umstellung schlimmer geworden.

naja, du hast keine macvlan call traces mehr, was gut ist ;) das war aber nur 1 Punkt von oben ...

 

was immer noch da ist, zfs ... traces ...

 

Jun 26 07:16:59 jarvis kernel: PANIC: zfs: adding existent segment to range tree (offset=1034d45000 size=28a6000)
Jun 26 07:16:59 jarvis kernel: Showing stack for process 26063
Jun 26 07:16:59 jarvis kernel: CPU: 1 PID: 26063 Comm: metaslab_group_ Tainted: P           O       6.1.79-Unraid #1
Jun 26 07:16:59 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023
Jun 26 07:16:59 jarvis kernel: Call Trace:
Jun 26 07:16:59 jarvis kernel: <TASK>
Jun 26 07:16:59 jarvis kernel: dump_stack_lvl+0x44/0x5c
Jun 26 07:16:59 jarvis kernel: vcmn_err+0x86/0xc3 [spl]
Jun 26 07:16:59 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs]
Jun 26 07:16:59 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf
Jun 26 07:16:59 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs]
Jun 26 07:16:59 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf
Jun 26 07:16:59 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs]
Jun 26 07:16:59 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs]
Jun 26 07:16:59 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs]
Jun 26 07:16:59 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs]
Jun 26 07:16:59 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs]
Jun 26 07:16:59 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs]
Jun 26 07:16:59 jarvis kernel: ? spa_stats_destroy+0x16c/0x16c [zfs]
Jun 26 07:16:59 jarvis kernel: space_map_load_length+0x93/0xcb [zfs]
Jun 26 07:16:59 jarvis kernel: metaslab_load+0x33b/0x6e3 [zfs]
Jun 26 07:16:59 jarvis kernel: ? _raw_spin_unlock_irqrestore+0x24/0x3a
Jun 26 07:16:59 jarvis kernel: ? __wake_up_common_lock+0x88/0xbb
Jun 26 07:16:59 jarvis kernel: metaslab_preload+0x4c/0x97 [zfs]
Jun 26 07:16:59 jarvis kernel: taskq_thread+0x266/0x38a [spl]
Jun 26 07:16:59 jarvis kernel: ? wake_up_q+0x44/0x44
Jun 26 07:16:59 jarvis kernel: ? taskq_dispatch_delay+0x106/0x106 [spl]
Jun 26 07:16:59 jarvis kernel: kthread+0xe4/0xef
Jun 26 07:16:59 jarvis kernel: ? kthread_complete_and_exit+0x1b/0x1b
Jun 26 07:16:59 jarvis kernel: ret_from_fork+0x1f/0x30
Jun 26 07:16:59 jarvis kernel: </TASK>

 

Jun 27 07:27:42 jarvis kernel: Hardware name: Gigabyte Technology Co., Ltd. B760M DS3H DDR4/B760M DS3H DDR4, BIOS F16 12/14/2023
Jun 27 07:27:42 jarvis kernel: Call Trace:
Jun 27 07:27:42 jarvis kernel: <TASK>
Jun 27 07:27:42 jarvis kernel: dump_stack_lvl+0x44/0x5c
Jun 27 07:27:42 jarvis kernel: vcmn_err+0x86/0xc3 [spl]
Jun 27 07:27:42 jarvis kernel: ? zfs_btree_insert_core_impl.isra.0+0x35/0x65 [zfs]
Jun 27 07:27:42 jarvis kernel: ? memcg_slab_free_hook+0x20/0xcf
Jun 27 07:27:42 jarvis kernel: ? zfs_btree_insert_into_leaf+0x2ae/0x47d [zfs]
Jun 27 07:27:42 jarvis kernel: ? slab_free_freelist_hook.constprop.0+0x3b/0xaf
Jun 27 07:27:42 jarvis kernel: ? bt_grow_leaf+0xc3/0xd6 [zfs]
Jun 27 07:27:42 jarvis kernel: ? zfs_btree_find_in_buf+0x4c/0x94 [zfs]
Jun 27 07:27:42 jarvis kernel: zfs_panic_recover+0x6b/0x86 [zfs]
Jun 27 07:27:42 jarvis kernel: range_tree_add_impl+0x99/0x4db [zfs]
Jun 27 07:27:42 jarvis kernel: space_map_load_callback+0x61/0x79 [zfs]
Jun 27 07:27:42 jarvis kernel: space_map_iterate+0x2d3/0x324 [zfs]
Jun 27 07:27:42 jarvis kernel: ? spa_stats_destroy+0x16c/0x16c [zfs]
Jun 27 07:27:42 jarvis kernel: space_map_load_length+0x93/0xcb [zfs]
Jun 27 07:27:42 jarvis kernel: metaslab_load+0x33b/0x6e3 [zfs]
Jun 27 07:27:42 jarvis kernel: ? _raw_spin_unlock_irqrestore+0x24/0x3a
Jun 27 07:27:42 jarvis kernel: ? __wake_up_common_lock+0x88/0xbb
Jun 27 07:27:42 jarvis kernel: metaslab_preload+0x4c/0x97 [zfs]
Jun 27 07:27:42 jarvis kernel: taskq_thread+0x266/0x38a [spl]
Jun 27 07:27:42 jarvis kernel: ? wake_up_q+0x44/0x44
Jun 27 07:27:42 jarvis kernel: ? taskq_dispatch_delay+0x106/0x106 [spl]
Jun 27 07:27:42 jarvis kernel: kthread+0xe4/0xef
Jun 27 07:27:42 jarvis kernel: ? kthread_complete_and_exit+0x1b/0x1b
Jun 27 07:27:42 jarvis kernel: ret_from_fork+0x1f/0x30
Jun 27 07:27:42 jarvis kernel: </TASK>

 

und da bin ich raus, bin kein Freund der pools mit btrfs oder zfs ... in Summe fahre ich mit single drive und backup Strategie besser ;)

 

hilft ja aber nichts, Lösungsansatz, siehe oben, sichern, formatieren, neu machen, ... er mountet ja ...

 

On 6/24/2024 at 8:19 PM, JorgeB said:

If it still mounts suggest backing up and re-formatting, if it doesn't, see if it mounts read-only, and if yes, backup and re-format:

 

 

was mich etwas wundert, sieht ja fast "gewollt" aus ...

 

Jun 27 07:16:39 jarvis init: Switching to runlevel: 0
Jun 27 07:16:44 jarvis shutdown[27778]: shutting down for system halt

 

Link to comment

@alturismo

 

Also im Log kann ich auch nicht sehen, dass er irgendwie Probleme hatte, der Server muss ja irgendwann heute Nacht nicht mehr erreichbar gewesen sein, aber ich kann im folgenden Log nichts feststellen.

 

image.png.791d8fca9b429bf96b41abd2d4870186.png

 

Das shutting down von heute morgen war gewollt, da habe ich den ja über den Powerknopf am Server ausgemacht, weil er ja nicht mehr erreichbar war.

 

Was genau bringt mir das re-formatting? Der Cache startet ja und kann ja gelesen werden. Ich hatte es ja auch schon, dass er den Cache nicht mounten konnte und er hing bei starting array. Dann musste ich den Cache löschen und neu anlegen und dann die Backups wieder einspielen.

 

Oder meint ihr der sollte dann nicht zfs haben? Was sollten die dann haben? Möchte ja gerne einen 4TB Cache haben.

 

Mein Cache besteht ja aus 2x 2TB NVME. 

image.thumb.png.68064da81fea4aab4c2dfb0e34c33d11.png

 

Ich weiß halt nicht ob die Call Traces das Problem sind, oder ob die aus einem anderen Problem entstehen. Der Server scheint ja schon vorher nicht mehr erreichbar zu sein, bevor es zu diesen Call Traces kommt.

 

Daher ist halt die Frage, was dazu führt, dass der Server nicht mehr erreichbar ist und sich aufhängt und wenn das Problem behoben ist, ob die Call Traces dann überhaupt noch kommen.

 

 

Link to comment
11 minutes ago, derjp said:

Was genau bringt mir das re-formatting? Der Cache startet ja und kann ja gelesen werden.

ja, aber produziert Fehler, wenn du das so belassen willst, lass es, ist aber der einzige "Fehler" in deinem log wo ich noch sehe ...

 

macvlan call traces - erl.

irre Anfragen von ... - erl.

zfs call traces - offen und vorhanden.

 

12 minutes ago, derjp said:

Oder meint ihr der sollte dann nicht zfs haben? Was sollten die dann haben? Möchte ja gerne einen 4TB Cache haben.

 

bleib dabei, aber "harte Shutdowns", Bsp. 5 Sekunden power Knopf mögen weder btrfs noch zfs ... (eigentlich keine FS, aber im Raid sind die dann anfälliger), damit muss man leben wenn es nicht rund läuft und sollte immer Backups haben ;) was du ja hast.

 

Diese Konstellation bedarf in solchen Fällen (leider) immer Pflege, egal auf welchem System, ich persönlich nutze weder noch, btrfs zu anfällig, zfs overhyped und zu wartungsintensiv ... daher nutze ich nur single drive caches (2 x 2tb), verteile, mache backups, fertig, seither auch 0 issues mehr mit dem Thema FS ... aber das muss und kann jeder für sich entscheiden, ist ja das Schöne, freie Wahl ;)

Link to comment
8 minutes ago, alturismo said:

ja, aber produziert Fehler, wenn du das so belassen willst, lass es, ist aber der einzige "Fehler" in deinem log wo ich noch sehe ...

 

macvlan call traces - erl.

irre Anfragen von ... - erl.

zfs call traces - offen und vorhanden.

 

bleib dabei, aber "harte Shutdowns", Bsp. 5 Sekunden power Knopf mögen weder btrfs noch zfs ... (eigentlich keine FS, aber im Raid sind die dann anfälliger), damit muss man leben wenn es nicht rund läuft und sollte immer Backups haben ;) was du ja hast.

 

Diese Konstellation bedarf in solchen Fällen (leider) immer Pflege, egal auf welchem System, ich persönlich nutze weder noch, btrfs zu anfällig, zfs overhyped und zu wartungsintensiv ... daher nutze ich nur single drive caches (2 x 2tb), verteile, mache backups, fertig, seither auch 0 issues mehr mit dem Thema FS ... aber das muss und kann jeder für sich entscheiden, ist ja das Schöne, freie Wahl ;)

Ja okay, also würdest du vorschlagen, lieber 2 Caches zu mit jeweils einer NVME zu erstellen. Welches Format dann, wenn nicht btrfs und zfs?

Ich will ja auch nicht das sich die Kiste dauernd aufhängt, das nervt natürlich auch. Und oft habe ich ja dann keine andere Wahl als den hart auszuschalten und neu zu starten. Und oft geht dann alles wieder, aber ich hatte es dann auch schon 2 mal, dass er den Cache nicht mehr mounten konnte und ich den neu anlegen und Backups einspielen musste. Ist natürlich auch nicht das gelbe vom Ei.

Ziel ist natürlich, dass das nicht mehr passiert und er lange ohne Probleme läuft.

 

Was ich nur nicht verstehe ist, dass der Server sich ja scheinbar vorher aufhängt und die Traces ja irgendwann danach kommen. Also sind die Traces ja nicht am aufhängen schuld, sondern kommen weil sich der Server aufhängt. Und wenn der sich nicht aufhängen würde, dann würde die auch nicht kommen. Dann ist ja die Frage, warum der sich aufhängt. Dann muss da doch noch eine andere Ursache sein.

 

Oder bin ich da auf dem Holzweg und habe das einfach überhaupt nicht verstanden?

 

Und vielen Dank für deine Mühen :)

Link to comment
Just now, derjp said:

Ja okay, also würdest du vorschlagen, lieber 2 Caches zu mit jeweils einer NVME zu erstellen. Welches Format dann, wenn nicht btrfs und zfs?

ich nutze ausschließlich xfs, ist aber meine persönliche Meinung bevor es "Glaubensfragen" gibt ;)

 

1 minute ago, derjp said:

Oder bin ich da auf dem Holzweg und habe das einfach überhaupt nicht verstanden?

 

rein von den logs betrachtet und was deine Erfahrung ist, würde ich zustimmen, nichts desto trotz müssen erstmal die offensichtlichen Fehler beseitigt werden um dies auszuschließen, die Fehlerbeschreibung passt ja zu 100 % auf die macvlan Thematik, ist erledigt, bleibt jetzt noch das zfs Thema ...

 

ob du jetzt umstellst auf 2x single (xfs) oder zum Test (raidX zfs) mit korrekten bond / bridge settings, deine Entscheidung ;)

Link to comment
1 minute ago, alturismo said:

ob du jetzt umstellst auf 2x single (xfs) oder zum Test (raidX zfs) mit korrekten bond / bridge settings, deine Entscheidung ;)

Naja momentan ist es ja auf zfs mit raid0 eingestellt.

image.thumb.png.7ea99ae5677f8ba095ab8f6e38ab0e88.png

 

Demnach hätte ich ja nur eine Möglichkeit das zu testen und die wäre 2x single mit xfs

 

Vielleicht werde ich das mal ausprobieren, auch wenn das für mich noch nicht ganz schlüssig ist, wenn das einfrieren vorher passiert und die traces daraus resultieren. Dann müsste das Problem ja wo anders liegen. Oder ich habe da einfach zu wenig Ahnung von um das zu verstehen.

Link to comment

Ich hab zwar keine Lösung, aber das gleiche Problem. 

Hab jetzt schon zweimal bei Null angefangen. Wirklich viel läuft bei mir nicht. 

Irgendwann friert mein unraid ein und ich muss einen hardreset machen. 

Hatte schon meine Hardware im Verdacht. Nutze einen Intel N305 CPU mit 16 GB RAM. Meine Docker: heimdall, Nextcloud, MariaDB, cloudflared, Adguard... 

Wenn sich mein Server verabschiedet, dann sehe ich das auch an einem sehr hohen Stromverbrauch... Normalerweise brauche ich 8 Watt im idle. 

Link to comment

Danke für das Angebot, ich hab jetzt mal die Diagnostik eingeschaltet. 

Bisher konnte ich meine Hardware noch nicht ausschließen (Zeitmangel).

Wenn ich allerdings die Posts in den Foren sehe, ist das wohl gerade ein

Problem, was viele trifft.

Zudem ist mir mein Server schon beim installieren des Deutschen Sprachpaketes

eingefroren. Daher vermute ich mal eher kein Konfigurationsproblem, sondern 

ein Software-Bug. Ich werde mal ein anderes Betriebssystem installieren und

verschiedene Benchmark-Tests laufen lassen, um zu sehen, ob es die Hardware (RAM) ist.

Danach würde ich dein Angebot auf Hilfe gerne in Anspruch nehmen.

Link to comment

Guten Morgen, mein Problem hat sich gelöst.

Leider kann ich nicht sagen, woran es liegt.

Mir ist tatsächlich mein USB-Stick kaputt gegangen.

Mit dem neuen Stick bin ich aber auch auf unraid 7 Beta

umgestiegen (noch ist mein System eine Bastellösung).

Unraid 7 bringt eine bessere Unterstützung für Intel ARC mit,

ich könnte mir gut vorstellen, dass das die Lösung ist,

kann aber meinen defekten USB-Stick nicht ganz ausschließen.

Link to comment

Mal ein kleines Update zu meine Server.

 

Ich habe ja wie oben gesagt die 3 Einstellungen geändert.

Dann habe ich den Cache gelöscht, neu angelegt und formatiert. Nutze weiterhin ZFS.

Zudem habe ich auch den Docker Homarr nicht mehr aktiv (habe ihn eh nicht genutzt und er hat auch bei anderen Usern sehr oft Anfragen gesendet an den Server).

 

Der Server läuft jetzt seit 7,5 Tagen ohne einfrieren und ohne Probleme. Ich vermute fast, dass sich mein Problem gelöst hat, aber wir wollen uns noch nicht zu früh freuen.

 

Ich denke nicht das Homarr irgendwas damit zu tun hatte, wollte es aber trotzdem erwähnen.

 

Was genau bei mir immer das einfrieren ausgelöst hat, kann ich nicht sagen. Aber nachdem ich wie gesagt die 3 Einstellungen geändert und den Cache nochmals neu angelegt habe, scheint es zu laufen... bis jetzt.

 

  • Like 1
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...