shaker

Members
  • Posts

    14
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

shaker's Achievements

Noob

Noob (1/14)

1

Reputation

  1. Hallo zusammen, Darf ich zu dem Thema nochmal was fragen? Ich mache jetzt seit über 2 Tagen an der Einrichtung meiner VLANs und Unraid rum. Folgender Stand: Ich habe mein ursprüngliches Netz auf nun 5 VLANs aufgeteilt. Im Prinzip gibt es auch kein Netz mehr ohne VLAN. VLAN5, 10, 20, 30, 40 Auf dem Unraid laufen folgende hauptsächlichen Anwendungen: Fileserver über die Shares --> sollte später in VLAN10 verfügbar sein Nginx Proxy erreichbar von außen --> sollte in VLAN5 laufen Nextcloud hinter dem Proxy --> VLAN5 Vaultwarden hinter dem Proxy --> VLAN5 ioBroker nur nach intern --> VLAN30 Mein Server hat 2 Ethernetports. Aktuell laufen die im LAG und alles auf eine Adresse. Dahinter ist ein Router von Mikrotik der alles unterstützt. Ich habe nun diverse Versuche unternommen, dieser Anleitung oben gefolgt usw. Am Ende klappts einfach nicht. Wer kann helfen und mir ein Beispielsetup zeigen? @ullibelgie scheint als hättest du ähnliches vor gehabt... 1. große Hürde für mich: Welche Adresse kriegt der Server generell? Scheinbar kann ich da kein VLAN setzen, sondern muss einen Port untagged setzen. Verliere ich dann die Option des LAG? 2. große Hürde: Wenn der Port untagged ist, dann kann ich ja nicht noch VLANs taggen. Also hab ich den Ether2 benutzt, hat am Ende auch nicht funktioniert. Probleme: Entweder Dienste von außen nicht erreichbar, für mich momentan nicht erklärbar, oder oder oder, bin am verzweifeln. So schwer ist das doch nicht. Aber momentan nervt es mich so, dass ich meine Liebe zu Unraid in Frage stelle... Wer hat Lösungen für mich? Am besten Beispiele, die wirklich helfen. DANKE DANKE DANKE
  2. Oh ich glaube es läuft. Bin einen Schritt weiter. Hatte mich etwas selbst um die Nase herum geführt. Mit dem Mapping hat es geklappt. Der Fehler den ich dann noch hatte, lag daran, dass mein Wechselrichter keine 2 Modbus TCP Verbindungen zulässt. Hab die andere getrennt, jetzt scheint es zu laufen, erst mal. Muss mich jetzt noch um die weitere Peripherie kümmern. Vielen Dank
  3. Ja bin mittendrin. Die Recherche hab ich auch schon durch. Die Empfehlung "Es ist sinnvoll die gesamte Konfiguration zunächst ohne Docker-Umgebung nativ auf dem Zielsystem zu testen um grundlegende Fehler in der evcc-Konfiguration und Probleme mit der angebundenen Infrastruktur auszuschließen." kann man eigentlich getrost in der Pfeife rauchen, um es mal noch nett auszudrücken. Darum geht es ja gar nicht, es geht ja um Docker. Alles andere ist kaum eine Aufgabe. Ich habe das System bereits als Demo in Docker am laufen. "Demo" heißt, dass sich das System zunächst mal eine Standard Config (evcc.yaml) schnappt und läuft. Über die Console des Dockers lässt sich mit "evcc configure" auch eine eigene config erstellen. Diese liegt dann im root. Ich bekomme die Datei aber nicht an die richtige Stelle gemappt, um sie aktiv zu verwenden. Da hänge ich grade und finde auch wenig bis keine Doku. Brauch jetzt erst mal eine Pause...
  4. Hallo zusammen, Ich bin gerade dran den evcc Docker zu installieren. Hat das einer von euch schon erfolgreich zum laufen gebracht? Wäre nett, wenn jemand die Einstellungen für den Docker teilen könnte. Danke
  5. Es lohnt sich ja kaum hier noch zu antworten. Da kam wohl was völlig falsch rüber. Eigentlich hätte ein "ja genau so ist es" auch gereicht. Leider ist das Thema, wie ein Update eingespielt wird, bei sehr wenigen Containern gut beschrieben. Ist ja gut, wenn bei dir alles wunderbar klappt. Ich hatte da eben schon einige Probleme. Vielleicht hatte ich bei anderen Dingen dafür keine. Und mit Autoupdate hat das wenig zu tun, in diesem Fall. Weil selbst manuell kommt es ja zu Problemen. Es freut mich, wenn diese in Zukunft der Vergangenheit angehören. Aber davon auszugehen, dass jeder User auf irgendwelchen Wegen jede komische Doku liest, ist im Jahr 2023 komplett falsch gedacht. Und ich weiß von was ich rede, ich arbeite selbst im Software Testmanagement. Nun denn, wie dem auch sei. Es leben saubere Backups! PS: Und bitte jetzt keinen Kommentar von wegen, dann benutze doch Consumer Lösungen... das ist unnötig! 😊
  6. Hallo zusammen, Mir hat diese Info auf diesem Wege auch gerade geholfen. Forum Suche lässt grüßen, nachdem ich im Updater Error 404 lesen konnte. Vielleicht dazu noch eine Frage: Ich hatte vor kurzem das Update von Nextcloud 25 auf 27 durchgeführt. Damals allerdings über Docker pull. Das hat dazu geführt, dass Daten der MariaDB Datenbank nicht sauber geupdatet wurden und die Nextcloud erstmal nicht mehr lauffähig war. Da ich nicht allzu viel Daten, Nutzer, Einstellungen usw. hab, hab ich sie neu und direkt auf 27 aufgebaut. Der Fehler lag damals wohl an der Art und Weise des Updates. Ich hätte es sinnvoller über den Updater machen sollen. Nun die Frage. Ist das damit passé. Heißt ab sofort Updates nur noch über Docker pull und damit auch keine Probleme mehr mit solchen DB Kompatibilitäten? Würde das immer funktionieren, auch wenn Major Versionen übersprungen werden würden, wie im obigen Fall? Ich weiß, die Frage ist etwas mit Zunkunftsblick, man kann ja nie wissen, aber ich hatte eben obige Erfahrung und will da nichts mehr falsch machen. I hate this update stuff. Mal über Docker pull, mal in der Anwendung selber... jeder macht es wie er will und am Ende funktioniert es nicht mehr.
  7. Sorry, ich dachte da würde was nicht stimmen. Andere Kommentare in Foren haben zu Verwirrung geführt. Danke
  8. Hi, Ich wollte gerade eine Custom VM aufsetzen, sehe dort aber nur ein großes XML Fenster. Nachdem ich google gefragt habe, habe ich festgestellt, dass ich auf Forms umstellen muss, mit einem Toogle Button der oben rechts angezeigt wird. Egal wo ich in Unraid unterwegs bin, da ist keiner. Finde auch keine Setting und google hat nicht mehr zu bieten. Was ist mein Problem?
  9. Wollte hier noch kurz Rückmeldung geben über den Stand der Dinge. Also seit dem Neubau des Caches läuft alles wieder. Es ging gar nichts verloren, und alle Systeme konnten wieder anlaufen, als wäre nichts geschehen. Rettung hat also geklappt. unBALANCE kann ich übrigens empfehlen, das hat mir sehr geholfen und wahrscheinlich auch datentechnisch den Arsch gerettet. Ich habe mich aber gefragt, wie es eigentlich dazu kam. Hierzu folgende Gedanken: Der Fehler ist passiert, als ich das Array gestoppt habe. Dort hat es irgendwas im System vom Cache zerschossen. Die NVMes konnten anschließend nicht mehr sauber gelesen werden und wurden auch nicht mehr als Raid1 erkannt. Das hat sich angefühlt, als würde man während einem Zugriff ein Gerät vom PC entfernen, ähnlich beim abstecken einen USB Datenträgers. Auf den NVMes laufen meine Docker, da gibt es eine InfluxDB und ioBroker mit meinem Smarthome. Da werden nun auch einige Dinge aufgezeichnet, oder eben überwacht usw. Ist es möglich, dass wenn ich das Array abschaltet, dort ggf. in Schreibprozesse eingreife und diese dann gefährlich auf das Dateisystem reagieren könnten? Wäre es sinnvoller erst manuell die Docker abzuschalten, dann das Array zu stoppen? Ich kenne so eine Thematik auch von geschäftlicher Seite. Dort betreiben wir SSDs in einer Industrieumgebung in Hardware ohne USV im Dauerbetrieb. Damit dies möglich ist und auch bei Stromausfall eine Festplatte nicht zerstört wird oder Speicherzellen schädigt, schützen wir diese über spezielle Kommandos direkt in den Treiber vor den Speicherzellen. Ich weiß nun nicht, wie das beim Abschalten eines Arrays bei Unraid läuft, und wie da mit laufenden Schreibprozessen umgegangen wird. Vielleicht weiß da einer mehr. Beim nächsten Mal, werde ich jedenfalls mal vorsichtshalber auch erst die Docker stoppen.
  10. Also die Shares sind wieder da. Neustart hat geholfen. Vielleicht hatte der SMB-Service einen Fehler. Danke, ja das stimmt. Hab sie nun auf "Yes" gesetzt und den Mover gestartet. Also das Problem war, dass das Cache drive immer wieder nicht ordentlich gemountet hat. Ich habe es nun mit dem Plugin unBALANCE leer geräumt, weil ich meine Docker nicht mehr starten konnte, und es per Mover meiner Meinung nach auch nicht richtig geklappt hat. Dann habe ich den kompletten Cache neu aufgebaut. Raid1 ist jetzt wieder aktiv und ist habe die shares zum Teil wieder auf "Prefer" gesetzt. Mover gestartet und jetzt hat er mir wieder alles herbeigeschaufelt. Nun muss ich schauen, was alles noch läuft oder auch nicht. Docker usw. Aktuell ist das noch alles offline. Danke schonmal.
  11. Ja das hatte ich gemacht. Aber ich gehe davon aus, dass der Mover nie seinen Job machen konnte, weil mit dem Cache drive etwas nicht stimmt. Da gab es Meldungen wie canot write to cache - cache full. Aber voll war es eigentlich ganz und gar nicht. Nun stehe ich aber in einer Sackgasse. Weil die shares weg sind und ich nun nicht weiß, wie ich vorgehe, um das zu retten.
  12. Hallo nochmal. Sorry, ich komme hier einfach nicht weiter. Mache alles nur noch schlimmer. Ich hatte erneut viele Probleme mit den Cache Drives. Verstehe nicht, warum sie nicht sauber funktionieren. Errors werden keine angezeigt. Aber die Balance steht immer auf Single, nicht auf Raid1. Am Ende dachte ich nun dran, den Cache aufzulösen und grundlegend neu zu erstellen. Dazu wollte ich die Shares auf Cache "no" stellen und den Mover einsetzen und dann bei leerem Cache die NVmes neu aufsetzen. Beim Einstellen auf "no" vom ersten Share "appdata" waren alle shares plötzlich weg. War das nun ein Denkfehler? Nun geht eigentlich gar nichts mehr. Keine Shares, keine Docker, nur die Files sind noch auf dem Cache und dem Array. Aber ich sehe nun den Weg nicht mehr. Kann ja nun nicht mal mit Krusader oder so die Daten manuell umziehen. Kann irgendjemand helfen?
  13. Es gibt News. Hab nun noch einmal neu gestartet. Jetzt läuft es plötzlich wieder. Beide sind wieder da. Die erste läuft normal, die 2. ist Teil des Pools. Wird sie nun automatisch wieder aufgebaut / gebalanced, oder muss ich da was leisten? Erst mal schauen, dass sich wieder alles normalisiert... Aber ich habe dieses Topic entdeckt Das ist ja nun wirklich nicht sehr vielversprechend. Ich sollte also mittelfristig an dem Setup was verändern, wenn ich auf der sicheren Seite sein möchte.
  14. Hallo, Ich hab ein Problem mit meinen Cache-Drives und weiß nicht mehr weiter. Folgendes ist passiert: Mein System lief ohne Probleme und nennenswerte Ereignisse. Alles war online. Ich hab an ein paar Einstellungen meiner SMB shares gearbeitet. Dazu musste ich das Array dann auch stoppen. In dem Moment, als ich das tat, verabschiedete sich eine meiner beiden Cache Drives aus Unraid. Wurde nicht mehr angezeigt. Ich hab das Array wieder versucht zu starten, das klappte auch. Zunächst hat das gar nicht viel ausgemacht, läuft ja als Spiegelung. Aber dann gab es ein paar Fehler. Ich habe zunächst mal den Mover manuell aktiviert und vom bestehenden Cache alles hochschieben lassen. Soweit sogut. Dann habe ich das System neugestartet. Keine Veränderung - Cache 2 war tot. Ich habe das System ins Bios gebootet, um zu prüfen, ob dort die NVMe gefunden werden konnte. Das tat es auch, alles schien normal. Keine Änderungen durchgeführt. Nochmal in Unraid gestartet. Nun sind beide Caches wieder da, grün, erkannt. Aber leider sind nun BEIDE nicht mehr initialisiert und es zeigt die Meldung "Unmountable: No file system". Auf beiden. Das ist nun ein riesen Problem, denn meine Docker sind auf den Drives. Diese sind nun gerade weg. Kann sein, dass dies nicht 100% so eine gute Idee war, aber meine Informationen nach, sollte das ja machbar sein mit einem physischen Raid 1, oder? Ich dachte ja nie im Leben, dass 2 Probleme gleichzeitig auftauchen. Nun mache ich erst mal gar nichts, und frage hier nach. Verstehe gerade nicht, was da nun passiert ist. Im Prinzip hab ich genau GAR nichts gemacht, bis auf einen Mover Befehl und 2 Neustarts. WTF? Hat jemand Ideen?