Jump to content

derjp

Members
  • Posts

    180
  • Joined

  • Last visited

Everything posted by derjp

  1. Hallo, ich hoffe ihr könnt mir helfen. Ich weiß aktuell nicht wie ich das Problem lösen soll. Ich hatte vor einer Weile noch das Problem, das mein Server alle paar Tage eingefroren ist und ich ihn hart neustarten musste. Daraufhin habe ich einige Einstellungen geändert, da sich diese mit der Fritzbox wohl nicht vertragen und dies den Server immer zum einfrieren bringt. Unter anderem wurde mir empfohle das bridging zu disablen. Hier mehr dazu: So nun zum aktuellen Problem. Ich habe VMs aufgesetzt, nun kann ich diesen ja keine eigene IP geben um sie erreichbar zu machen, da bridging ja disabled ist und ich somit als Network Source virbr0 auswählen muss und kein br0 auswählen kann. Ich kann die VMs natürlich über VNC über unraid erreichen und auch von einem anderen PC über realvnc üebr die ip vom server und den port den ich unter "VM" finde erreichen. Wenn ich mir in der VM nun anzeigen lassen, was für eine "IP" diese hat wird mir angezeigt: 192.168.122.243 wo mein unraid folgende IP hat: 192.168.178.87 Die VM wollte ich nutzen um Gameserver laufen zu lassen. Nun habe ich in der VM dafür ein Panel installiert, welches ich in der VM unter 192.168.122.243:8080 natürlich erreiche, aber von außerhalb von der VM nicht. Somit kann ein Docker der direkt auf unraid läuft dieses Panel nicht erreichen und ich weiß nicht wie ich das umsetzen kann. Gibt es keine Möglichkeit außer bridging zu enablen, denn dann könnte mein Server ja wieder einfrieren. Oder habt ihr Tipps wie ich das umsetzen kann? Da hier Gameserver drauf laufen sollen, muss ich für die VM ja dann auch Ports mappen oder läuft das anders als bei dockern? Und so kann ich in der Fritzbox ja auch keine Ports für diese VM freigeben, da sie ja keine eigene IP hat.
  2. Mal ein kleines Update zu meine Server. Ich habe ja wie oben gesagt die 3 Einstellungen geändert. Dann habe ich den Cache gelöscht, neu angelegt und formatiert. Nutze weiterhin ZFS. Zudem habe ich auch den Docker Homarr nicht mehr aktiv (habe ihn eh nicht genutzt und er hat auch bei anderen Usern sehr oft Anfragen gesendet an den Server). Der Server läuft jetzt seit 7,5 Tagen ohne einfrieren und ohne Probleme. Ich vermute fast, dass sich mein Problem gelöst hat, aber wir wollen uns noch nicht zu früh freuen. Ich denke nicht das Homarr irgendwas damit zu tun hatte, wollte es aber trotzdem erwähnen. Was genau bei mir immer das einfrieren ausgelöst hat, kann ich nicht sagen. Aber nachdem ich wie gesagt die 3 Einstellungen geändert und den Cache nochmals neu angelegt habe, scheint es zu laufen... bis jetzt.
  3. Naja momentan ist es ja auf zfs mit raid0 eingestellt. Demnach hätte ich ja nur eine Möglichkeit das zu testen und die wäre 2x single mit xfs Vielleicht werde ich das mal ausprobieren, auch wenn das für mich noch nicht ganz schlüssig ist, wenn das einfrieren vorher passiert und die traces daraus resultieren. Dann müsste das Problem ja wo anders liegen. Oder ich habe da einfach zu wenig Ahnung von um das zu verstehen.
  4. Ja okay, also würdest du vorschlagen, lieber 2 Caches zu mit jeweils einer NVME zu erstellen. Welches Format dann, wenn nicht btrfs und zfs? Ich will ja auch nicht das sich die Kiste dauernd aufhängt, das nervt natürlich auch. Und oft habe ich ja dann keine andere Wahl als den hart auszuschalten und neu zu starten. Und oft geht dann alles wieder, aber ich hatte es dann auch schon 2 mal, dass er den Cache nicht mehr mounten konnte und ich den neu anlegen und Backups einspielen musste. Ist natürlich auch nicht das gelbe vom Ei. Ziel ist natürlich, dass das nicht mehr passiert und er lange ohne Probleme läuft. Was ich nur nicht verstehe ist, dass der Server sich ja scheinbar vorher aufhängt und die Traces ja irgendwann danach kommen. Also sind die Traces ja nicht am aufhängen schuld, sondern kommen weil sich der Server aufhängt. Und wenn der sich nicht aufhängen würde, dann würde die auch nicht kommen. Dann ist ja die Frage, warum der sich aufhängt. Dann muss da doch noch eine andere Ursache sein. Oder bin ich da auf dem Holzweg und habe das einfach überhaupt nicht verstanden? Und vielen Dank für deine Mühen
  5. @alturismo Also im Log kann ich auch nicht sehen, dass er irgendwie Probleme hatte, der Server muss ja irgendwann heute Nacht nicht mehr erreichbar gewesen sein, aber ich kann im folgenden Log nichts feststellen. Das shutting down von heute morgen war gewollt, da habe ich den ja über den Powerknopf am Server ausgemacht, weil er ja nicht mehr erreichbar war. Was genau bringt mir das re-formatting? Der Cache startet ja und kann ja gelesen werden. Ich hatte es ja auch schon, dass er den Cache nicht mounten konnte und er hing bei starting array. Dann musste ich den Cache löschen und neu anlegen und dann die Backups wieder einspielen. Oder meint ihr der sollte dann nicht zfs haben? Was sollten die dann haben? Möchte ja gerne einen 4TB Cache haben. Mein Cache besteht ja aus 2x 2TB NVME. Ich weiß halt nicht ob die Call Traces das Problem sind, oder ob die aus einem anderen Problem entstehen. Der Server scheint ja schon vorher nicht mehr erreichbar zu sein, bevor es zu diesen Call Traces kommt. Daher ist halt die Frage, was dazu führt, dass der Server nicht mehr erreichbar ist und sich aufhängt und wenn das Problem behoben ist, ob die Call Traces dann überhaupt noch kommen.
  6. @alturismo Gestern und heute morgen ist der Server wieder eingefroren gewesen. Es ist also gefühlt durch die Umstellung schlimmer geworden. Er läuft den ganzen Tag ohne Probleme und morgens ist er dann wieder nicht erreichbar. Ich werde nur aus den Logs nicht wirklich schlau, vielleicht kannst du dir die nochmal anschauen?jarvis-diagnostics-20240627-0819.zip
  7. Ich habe nun anhand dieser Anleitung: https://docs.unraid.net/unraid-os/release-notes/6.12.4/#fix-for-macvlan-call-traces folgendes übernommen: ich werde mal schauen ob es nun besser läuft.
  8. @alturismo Ok ich werde mal schauen wie ich bonding und bridging auf no stelle. Die 22 ist mein PC, da habe ich Tagsüber das Dashboard und homarr auf, daher vielleicht die vielen Anfragen, weil es ständig aktualisiert wird? Zu den anderen Fehlermeldungen muss ich mal schauen, noch sagen die mir nichts, werde ich mal versuchen herauszufinden.
  9. Moin moin, Ich habe es ab und an mal, dass sich der Server scheinbar irgendwie aufhängt und nicht mehr erreichbar ist. Kann mir vielleicht jemand sagen warum? Ich werde da nicht ganz schlau draus. jarvis-diagnostics-20240624-1736.zip
  10. This was the problem. I updated the plugin and after this I was able to update. Thanks a lot.
  11. Dann muss ich nochmal schauen wo und wie ich diesen Befehl rausnehme. Ja ich bin auf meinem Server mit diesem Forum Account angemeldet.
  12. Diese hier? jarvis-diagnostics-20240618-1202.zip
  13. Hallo, ich habe soeben das Unraid OS auf 6.12.9 geupdated. Nun wollte ich das update auf 6.12.10 durchführen, aber mehr als auf dem Screenshot unten wird nicht gemacht. Neugestartet habe ich schon mehrfach, aber aus irgend einem Grund führt er das Update scheinbar nicht durch. Jemand eine Idee woran das liegen kann, oder was ich tun kann?
  14. Ich habe nun scheinbar das Problem, dass unraid bei starting array hängt und den cache nicht mounten kann. Jemand ne Idee was ich nun machen kann?
  15. Moin, ich habe heute morgen über den Dockertab einige Docker geupdated. Nach dem Update von meinem Nextcloud docker läuft die nextcloud nicht mehr und im Log zeigt er mir folgendes an: Und bei einigen Docker die ich updaten wollte wurde mir folgendes angezeigt: Meine Idee wäre es nun gewesen, den Dockerdienst auszustellen, das Docker Image zu löschen, den Dockerdienst wieder anzustellen und dann über Apps/Previous Apps alle Docker neu ausrollen. Wäre das eine hilfreich, oder hätte jemand einen anderen/besseren Vorschlag?
  16. @Sycotix how would i add a password for redis in this template? my redis is set up with a password so i need to add it to the template:
  17. Ja ich lasse es normalerweise immer Nachts um 4 Uhr laufen, hat bis jetzt immer geklappt. Hatte es heute morgen dann nochmal manuell probiert. Aber wenn es eh nicht nötig ist vom image ein Backup zu machen, dann werde ich es rausnehmen. Danke für die Hilfe
  18. Okay, die ganzen letzten Tage gab es damit kein Problem das zu sichern. Aber okay, wenn es eh keinen Sinn macht das zu sichern, dann werde ich das rausnehmen. Die Appdata werden bei mir gesichert. Wundert mich trotzdem, dass es vorher damit nie Probleme gab und nun auf einmal doch. Aber danke für deine Antwort
  19. @mgutt Heute tauchte folgende Fehlermeldung beim sichern auf. Ist das ein Fehler der Platte wo die Quelle liegt? Kannst du da vielleicht etwas zu sagen?
  20. Dann ist das Problem vermutlich nur, das der Ordner groß geschrieben ist oder?
  21. Hallo, nutze das Script nun seit 2-3 Tage zum testen und heute Nacht hat er dann 4 Backups gemacht und 3 davon failed. Kann mir jemand sagen warum er 3 mal gefailed ist? log.txt
  22. ah great, worked. thanks a lot
  23. Hey, i just tried this plugin today and at the end of it i got: An error occurred during backup! RETENTION WILL NOT BE CHECKED! Please review the log and the folder shows like this: could someone tell me what went wrong here? backup.debug.log
  24. scheint nur ein ordner ohne inhalt zu sein. dann sollte ich die ja nu tauschen können oder?
  25. habe nun nur noch 9B von appdata auf dem cache. wie bekomme ich das rüber und wie bekomme ich raus, was das ist? docker und VMs sind disabled.
×
×
  • Create New...