Rockikone

Members
  • Posts

    150
  • Joined

  • Last visited

About Rockikone

  • Birthday October 12

Converted

  • Gender
    Male
  • Location
    Bavaria

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Rockikone's Achievements

Apprentice

Apprentice (3/14)

40

Reputation

2

Community Answers

  1. Den Fehler kann ich auch bestätigen: Nach dem Update auf 28 habe ich einen Hash Fehler und der Zähler der Error Werte läuft hoch. Protokollierung funktioniert nicht! Hab den Fehler auf der Github Seite auch bestätigt. Bin wieder auf 27 zurück. Dort keinerlei Probleme. Also warten, bis Linuxserver eine fehlerbehobene Version veröffentlicht. Grüße
  2. Hey, auf meinem Unraid läuft seit langer Zeit die gleiche Konfiguration. 2 VM's (1x HomeAssistant und 1x Raspmatic) Auf die VM Raspmatic habe ich eine externe Datenantenne per USB durchgereicht, welche mit den Homeatic Geräten (gehen normale und IP Geräte) kommuniziert. Ich hatte damals auch Probleme mit der HA CCU Integration. Deshalb hab ich mir das VM Image von Raspmatic herunter geladen und lasse es als eigene VM laufen. Hier hatte ich niemals Probleme und kann es dir nur raten! Denk evtl. daran das du in der configuration.yaml in HA bei Homeatic und Homeatic IP Geräten unterschiedliche Ports eintragen musst. Siehe hierzu meinen Code Schnipsel aus meiner Config. Das Passwort habe ich ausgeblendet! Anbei mal ein paar Screenshots meiner Configs
  3. @mgutt Da muss ich jetzt widersprechen. Ich habe zwei Unraidserver. Beide mit Zfs als Cache Dateiformat. Mit dem Script von Spaceinvader werden Snapshots Local UND gleichzeit auf dem Unraid BackUP Server abgelegt. Somit habe ich komplette Datensätze, welche auf dem BackUP Server vorhanden sind und wieder eingespielt werden können. Ich finde ZFS als Pool Dateiformat super. Beispielsweise hat es mir erst kürzlich bei einer Dockeraktualisierung meinen MariaDB Docker zerlegt. Alle Datenbanken korrupt. Docker angehalten und per Snapshot wieder hergestellt. War ein Ding von 30 sec. Danach wie gehabt weiter gelaufen 🙂 Ja, mit Btrfs sind auch Snapshots möglich. Aber ZFS ist jetzt schon besser in die GUI über ZFS Master integriert. Einfach in der Gui unter SnapshotAdmin den jeweiligen Snapshot wieder herstellen. Daumen hoch von meiner Seite.
  4. Hallo, ich habe gerade aufgrund neugierde den EVCC Docker bei mir in Unraid erstellt. Läuft super Hier einmal mein Template Quelle: evcc/evcc:latest Registry URL: https://hub.docker.com/r/evcc/evcc Symbol-URL: https://www.gravatar.com/avatar/14b654a20bd78ab95c1a985e0faed369?s=120&r=g&d=404 WebUI: http://[IP]:[PORT:7070] Mapping 1&2 Ports auf tcp Mapping 3&4 Ports auf udp Pfad 1: Container: /etc/evcc.yaml Unraid (bei mir): /mnt/user/appdata/evcc/config/evcc.yaml Pfad 2: Container: /root/.evcc Unraid (bei mir): /mnt/user/appdata/evcc/root/.evcc Wünsche viel Spaß Gruß Thomas
  5. Danke für die Rückmeldung. Soweit ich weiß, brauchst du den VLAN Tag, um mit einem VLAN verbunden werden zu können. Heißt, ich habe auf der Unifi ein VLAN für Docker/VM'S schon vor längerer Zeit angelegt. Die "virtuellen Maschinen/Docker" sollen dort sein und nicht im Default Netzwerk 192.168.100.* sondern im 10.10.4.* Netz. Ich bezog hier meine Aussage nicht auf das macVLAN, sondern auf eines meiner VLANS im Unifi Ökosystem.
  6. Die Kernel Fehlermeldungen kamen bei mir auch noch bei aktivierter Netzwerkbrücke unter 6.12.4. Laut Changelog müssen ja die Netzwerkbrücken deaktiviert werden. Es müssen ja auch mehrere Sachen eingestellt werden (Changelog nicht ganz ersichtlich). Darum meine Anleitung. Grüße
  7. Hallo, evtl. kann ich dem einen oder anderen mit meinem Weg dabei helfen Docker mit macvlan in einem separaten VLAN einzurichten. Ich habe selbst jetzt etliche Stunden gebraucht, um es funktionsfähig zu bekommen. Hintergrund war, dass die Portweiterleitung von meiner Unifi Dreammachine Pro auf den Docker Nginx Reverse Proxy im VLAN nicht funktionierte. Aufrufe der nach außen gehosteten Docker (Nextcloud, Bitwarden, Baikal ....) waren nur im internen Netzwerk möglich, aber nicht über eine DNS Adresse. Inzwischen funktioniert alles und läuft stabil. Wo der Hund begraben war, kann ich nicht sagen. Ich habe auch keine Kernel Fehlermeldungen aufgrund macvlan. Um die Einstellungen durchzuführen, müsst ihr das Array stoppen. Da z.B. beim Netzwerk dieses nur beim gestoppten Array möglich ist. Ich habe eine zweite Netzwerkkarte verbaut eth2 , welche nur für das Docker/VM VLAN zuständig ist. 1. Wichtig ist, dass ihr auf allen euren Netzwerkenkarten eth0,eth1......... die Netzwerkbrückung deaktiviert. Bei mir läuft macvlan über eth2. Sobald jedoch z.B. in eth0 die Brückung aktiviert war, bekam ich die Kernel Fehlermeldungen. HIer nun die Einstellungen meiner im Betrieb befindlichen Netzwerkkarten. Solltet ihr die Docker in einem separaten VLAN haben wollen (bei mir der Fall in eth2) müsst ihr dort das benötigte VLAN eintragen. 2. Unter den Dockereinstellungen müsst ihr nun unten das optionale Netzwerk (beim mir eth2.25 aufgrund VLAN) anklicken. Alle anderen Netzwerke könnte ihr unten unchecken. Auch müsst ihr nun hier die Einstellung für den Netzwerkmodus ipvlan auf macvlan umstellen. Auf dem Screenshot ist die Einstellung nicht ersichtlich, da bei deaktivierter Netzwerkbrückung und eingestellten macvlan das Auswahlfeld verschwunden ist. Es ist bei aktivierten ipvlan aber ganz sicher da 3. Nun könnt ihr das Array starten und müsste nun natürlich alle Docker bzgl. Netzwerk anpassen. Hier z.B. bei mir der Nginx reverse Proxy 4. Da ihr ja die Brückung in den Netzwerkeinstellungen deaktiviert habt, müsste ihr in den VM Einstellung und VM's auch noch Einstellungen ändern. In den VM Einstellungen habe ich vhost0 eingestellt, du kannst aber auch andere Netzwerkkarten auswählen. Ich habe ja alle Docker und VM's über die eth2 laufen. Es wird dann auch z.B. vhost2 und vhost2.25 (VLAN) angeboten. Eure virtuellen Maschinen müsste ihr unter Bearbeitung bzgl Netzwerkeinstellungen auch ändern. Bei mir war hier noch z.B. die Brückung br0 eingetragen, obwohl diese nicht mehr existiert. Hier nun die geänderte Netzwerkeinstellung meiner Homeassistant VM. Die VM ist danach im VLAN für Docker/VM's und kommuniziert über den eth2 Port. 5. Nun natürlich noch die Portweiterleitung in eurer Unifi konfigurieren. Der Server läuft bei mir hiermit seit 2 Tagen stabil und ich habe keinerlei Kernel Fehlermeldungen aufgrund macvlan. Wünsche gutes Gelingen. Grüße aus Bayern Thomas
  8. @mgutt Hallo zusammen, danke für die überarbeitet Version 1.6 deines Scripts. Evtl kann ich dir einen Fehler melden Version 1.5 funktioniert bei mir seit Monaten (bis auf /mnt/cache/appdata aufgrund des ZFS Shares) Unter Version 1.6 habe ich nun folgendes Problem. Die BackUP Destination und das Ziel ist gleich wie bei 1.5. Es hat sich daran nichts geändert. Unter 1.5 funktioniert es, nur der Appdata Ordner ist auskommentiert. Beim 1.6 wird beim Start des Scripts z.B. der Ordner /mnt/cache/Frigate gesichert, obwohl dieser im Script gar nicht definiert ist. In diesem sind die Records der Kameras gesichert. Das Script legt beim Start einen versteckten Ordner .Datum........ in der Root Oberfläche unter / an. Dieser wird solange befüllt, bis mein Hauptspeicher voll ist und dann bricht das Script ab. Ich hänge dir einmal mehrere Screenshots mit an. Der BackUP Server ist ein Unraid Server. Hier wird direkt auf die Array Platten (xfs) gesichert, ohne den cache zu nutzen. Danke für evtl Hilfe
  9. Hey, ich betreibe die Nextcloud Version von Linuxserver seit Jahren ohne große Probleme. Jetzt mit ZFS könnte man sogar ohne große Probleme wieder bei einem fehlgeschlagenen Update auf die vorherige Version (Snapshot) zurück. Was du genau bisher gemacht hast, weiß ich nicht. Also am besten von Linuxserver den Mariadb Docker installieren. Dort per phpmyadmin einen User und zugehörige Datenbank erzeugen. In Nextcloud dann IP_Adresse_der_MariaDB oder des Servers:3306 Username Passwort Datenbankname eintragen. Gruß
  10. Hey, my Unraid server has hung after 1 day under version 6.12.2. IPVlan was set as docker network. After a hard reboot I switched to MACVlan. Here I get a kernel error. Furthermore, the dashboard still shows me the ZFS storage at 100%. Have two pools each 2x 1 TB with (mirror). ZFS memory is allocated 8 GB. Hope you can do something with it. I go back to 6.12. There the server ran without problems! homeserver-diagnostics-20230701-1309.zip
  11. @mgutt Das ist genau der Fehler, welchen ich dir bereits vor Monaten schon gemeldet habe bzgl Docker. Kann also bestätigen, dass mit deinem Script bei ZFS die Docker Container nicht mehr starten. Aktuell habe ich die appdata Sicherung deaktiviert und warte auf ein Upgrade. Soll jetzt aber bitte nicht als Anspruchsdenken interpretiert werden. Bin wirklich dankbar, was du auf die Beine stellst!
  12. Okay, I have now created a Docker template that runs Tidal-dl. However, I can only set the quality, login and download via the console of the Docker container using the tidal-dl command. A nice graphical gui would be much better, of course. Here is my Docker template. The setting for config is not needed
  13. @cz13 Asche auf mein Haupt bzgl kurz googeln. Der Befehl von dir funktioniert einwandfrei mit Anpassung auf meine Pools/Freigabe. Dankeschön
  14. Hallo, evtl könnte mir von euch einer beim Erstellen eines Scripts helfen, welches mir automatisch nach Zeitplan (Cron) per Userscripts Snapshots von gewissen Freigaben erstellt, welche auf ZFS Pools liegen. Als Beispiel habe ich in "/mnt/zfs-data/Musik" meine Musik liegen. Hier würde ich gerne wöchentlich Snapshots erstellen. Ausführen über Cron in Userscripts etc ist klar. Das Script an sich, wäre vermutlich auch kurz. Wie würde dann der ZFS Befehl heißen, um von Musik einen Snapshot zu erstellen, welcher von der Namensgebung z.B. nach dem @ im Snapshotnamen das aktuelle Datum hinzufügt. z.B. musik@25042023 Das Erstellen der Snapshots funktioniert mit dem Plugin von Steini sehr gut, aber leider nicht zeitgesteuert und wiederkehrend. Danke schon einmal für evtl. Hilfe! Grüße Thomas