Jump to content

Mainfrezzer

Members
  • Posts

    434
  • Joined

  • Last visited

Posts posted by Mainfrezzer

  1. On 6/8/2023 at 1:11 PM, binhex said:

     

    I also have a final piece of work around this (not done yet), which is to refresh IP addresses for endpoints on each disconnect/reconnect cycle, further reducing the possibility of getting stuck on defunct servers.

    Is that already implemented? Only working for openvpn or still an upcoming feature?

    Im currently using the container to connect to a wireguard server thats behind a dynamic ip and its been a bit of a hassle to restart the container each time the endpoint has a new ip assigned (which happends either once every 24h or, if the telekom decides to be muppets again, 20 times a day)

  2. Klingt stark nach Host Access enabled. Da müsste man manuell den Adapter ändern in der wireguard config.

     

    Mit dem neuen System in 12.4 hab ich's noch nicht ausprobiert, in den vorherigen Versionen musste man in der config von z.b. br0 die 4 Einträge auf shim-br0 ändern. Problem dass da auftreten kann ist allerdings dass wenn der Server mal Probleme hat und das Array nicht läuft, man nicht mehr drauf kommt. Kann natürlich gelöst werden indem man 2 Verbindungen einrichtet und nur einen davon auf das shim Interface wechselt. Dann hat man nen Backup. Im Notfall. Hatte das hier auch Mal ins Forums gepostet vor Ner ganzen Weile für 6.11.5 glaube ich.

     

    Für 6.12.4 müsste ich tatsächlich Mal später gucken. Stecke gerade noch im Zug fest



    Update:

    6.12.4 ist das selbe, schimpft sich jetzt nur vhost0 statt eth0 (bei macvlan setups, was ich hier jetzt mal ganz stark annehme)

     

    • Like 1
  3. 13 hours ago, MSMusixs said:

    Hey, das ist nicht was du suchst?
    image.thumb.png.c683f44684d30fffc64cab3e290ef08a.png

     

    hab eigentl. nicht die Expertise um mitzureden, ist aber genau das selbe Thema an dem ich gerade "wurschtel"....

    Verstehe ich was  falsch oder sind das nicht die fixen prefixe ipv6 im heimnetz!?

     

     

     

     

     


     

     

     

    Es gibt Local-link (fe80::) ULA (unique local address fd00:: z.b.) und GUA (Global unicast address), welches die öffentliche Adresse der Maschine ist.

     

     

    Prefix beziehen sich nur auf die GUA. Der Rest ist alles intern.

     

     

    Das sinnvollste ist ne Mac Adresse zu vergeben und die Zuweisung dem Router zu überlassen. Alles andere ist auf dynamischen Zuweisungen nur Arbeit die man sich sparen kann.

     

     

    Im Fall vom DNS Server kann man einfach die fe80:: Adresse angeben.

     

    Achtung für Fritzbox Nutzer mit fritzos 7.50 oder höher, wenn das pihole oder sonstige bei Internet->Zugangsdaten->DNS eingetragen wird, muss die ula genommen werden. Die Fritzbox sind mit dem 7.50 Update verschlimmbessert worden und die können keine fe80 Adressen mehr erreicht.

    • Like 1
  4. You can either change the checksum or delete the compatibility check. Works on 12.4


     

    # -------------------------------------------------
    # RAM-Disk for Docker json/log files v1.6 for 6.12.4
    # -------------------------------------------------
    
    # check compatibility
    echo -e "45361157ef841f9a32a984b056da0564 /etc/rc.d/rc.docker\n9f0269a6ca4cf551ef7125b85d7fd4e0 /usr/local/emhttp/plugins/dynamix/scripts/monitor" | md5sum --check --status && compatible=1
    if [[ $compatible ]]; then
    
      # create RAM-Disk on starting the docker service
      sed -i '/nohup/i \
      # move json/logs to ram disk\
      rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\
      mountpoint -q /var/lib/docker/containers || mount -t tmpfs tmpfs /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be mounted!\
      rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\
      logger -t docker RAM-Disk created' /etc/rc.d/rc.docker
    
      # remove RAM-Disk on stopping the docker service
      sed -i '/tear down the bridge/i \
      # backup json/logs and remove RAM-Disk\
      rsync -aH --delete /var/lib/docker/containers/ ${DOCKER_APP_CONFIG_PATH%/}/containers_backup\
      umount /var/lib/docker/containers || logger -t docker Error: RAM-Disk could not be unmounted!\
      rsync -aH --delete ${DOCKER_APP_CONFIG_PATH%/}/containers_backup/ /var/lib/docker/containers\
      logger -t docker RAM-Disk removed' /etc/rc.d/rc.docker
    
      # Automatically backup Docker RAM-Disk
      sed -i '/^<?PHP$/a \
      $sync_interval_minutes=30;\
      if ( ! ((date("i") * date("H") * 60 + date("i")) % $sync_interval_minutes) && file_exists("/var/lib/docker/containers")) {\
        exec("\
          [[ ! -d /var/lib/docker_bind ]] && mkdir /var/lib/docker_bind\
          if ! mountpoint -q /var/lib/docker_bind; then\
            if ! mount --bind /var/lib/docker /var/lib/docker_bind; then\
              logger -t docker Error: RAM-Disk bind mount failed!\
            fi\
          fi\
          if mountpoint -q /var/lib/docker_bind; then\
            rsync -aH --delete /var/lib/docker/containers/ /var/lib/docker_bind/containers && logger -t docker Success: Backup of RAM-Disk created.\
            umount -l /var/lib/docker_bind\
          else\
            logger -t docker Error: RAM-Disk bind mount failed!\
          fi\
        ");\
      }' /usr/local/emhttp/plugins/dynamix/scripts/monitor
    
    else
      logger -t docker "Error: RAM-Disk Mod found incompatible files: $(md5sum /etc/rc.d/rc.docker /usr/local/emhttp/plugins/dynamix/scripts/monitor | xargs)"
    fi

     

    • Like 3
  5. Die Frage die sich mir stellt ist, warum der "Jdownloader-Nic" in nem ganz anderen Subnetz sein muss. 

    Dass man ihn einen dedizierten Nic für den vollen Transfer zur Verfügung stellen möchte, das ist verständlich. Ist ja auch einfach realisiert. Jedoch nicht warum man gleich nen anderes Subnetz braucht. 

    Plex auf eth0 und Jdownloader auf eth1 festzusetzen ist doch schon genug oder umgekehrt. (sofern der Switch die Datenraten beider nics zusammen schafft)
     

  6. Der Dockerhost kann bei design nicht mit dem Dockercontainer kommunizieren wenn dieser über ipvlan oder macvlan läuft. (Umgekehrt natürlich auch)

    Entweder man stellt in den Dockereinstellungen "Host access to custom networks" auf ein oder man benutzt das LXC Plugin fürs Pihole.

    (alternativ kann man natürlich auch den DNS Server fürs Unraidsystem auf die üblichen verdächtigen setzen (i.e. 8.8.8.8, 1.1.1.1, 9.9.9.9) dann hat sich das Problem auch erledigt. Abgesehen von der lokalen Namensauflösung. Da müsste dann allerdings noch ein statischer Eintrag ins Pihole eingetragen werden da das Pihole ja nix von dem Host weiß, bzw nichts wissen darf. Für die Clients aber unerheblich.)

  7. 1 hour ago, alturismo said:

    und ich hab das zum Spaß nachgestellt, durch den Befehlt mit Pfad auf einen existierenden Ordner geht nichts kaputt ... daher auch die o.g. Meldung, was hast du danach noch gemacht außer ... Media gelöscht und co ... und vor allem, wie ;)

     

     

    auf die if= Pfade achten. Da steht nicht /dev/zero

  8. 52 minutes ago, ich777 said:

    Please keep in mind that this can also be an issue with the disk since it seems like it fails when it tries to download the new files.

    The container all run on the same ssd.

    The container that threw the error is #1

    #1 didnt update, but did download and update all the gamefiles, that were supposed to be updated.
    #2 just started fine and worked fine, same with #3 

    (all container run of the same shared files)

    I only noticed because the version of that server was wrong, while the others were fine. And then i did the digging. seems to be a steam related issue since i did find alot of github mentiones of it. Pinning it to a singlethread did work (threw another error but idk why that came up since i dont use any workshop content). Ultimately i did deleted all steam files and started anew.

    • Thanks 1
  9. 21 hours ago, Mainfrezzer said:

    Ive just noticed following syslog. First time ive seen that
     

    Has been the Ark variant. Might be worth keeping an eye on. since it killed all running docker that used that image


    I did find out what caused itmhmm.thumb.PNG.66717847fcb8f6bc1d0b749b006899c1.PNG

    Bit odd that this particular container threw the error while the other ones, using the same files(this one is the update hub etc), worked fine.

    So far i havent been able to get this particular container running properly again but im working on it.


    *Took the axe approach, working again^^

    • Like 1
  10. 58 minutes ago, sasbro97 said:

    Ok it didnt helped. 2 days and logs are shown as 100%. I try to pull out the bluetooth adapter but I don't think it is the only reason.

    the nginx logs are very miniscule compared to the well over 100000 entries of your bluetooth issue within the first couple scrolls of the log. the nginx logs only appear if there is a browser session running, so if no one opens the webpage, its gone.


    Regarding the nginx crash itself. it does seem to be browser dependent. On Microsoft Edge, it looks like this

    1756972233_logissue.thumb.PNG.097b6eb010b19af66982ade7c2502271.PNG


    If im on my Android Phone and use Chrome, i absolutely cant get the Webui to work properly at all. The Terminal is broken, the Log popup is broken. The page freezes horribly and i get worker exit message, as you do.

    I havent gotten around to test it with Firefox yet. it might fare better, but the only real solution is a downgrade to 6.11.5 or wait for 6.12.4.

  11. A quick and dirty fix is to disable the sata ports in the bios or just shutdown the server, unplug enough sata cables, fire the system back up, upgrade and then re-enable the sata ports / plug the cables back in.

    Alternatively, just boot the usb key on a different pc and upgrade that way

  12. Docker stoppen. In den Docker Einstellungen das "Docker directory:" löschen. Docker starten, die Apps(Docker-Container) aus dem Community App Store wieder installieren. 

    Man kann Docker selbst nicht einfach 1:1 über verschiedene Dateisysteme kopieren. XFS benutzt overlay2, Btrfs irgendwas und zfs benutzt zfs.

    Der Appdata share beinhaltet die permanenten Daten, die wichtig sind. Alles im /system/docker ist absolut verwerfbar (bis eventuell auf die Netzwerkkonfiguartionsdatei)

  13. 3 minutes ago, ich777 said:

    This is not the first time I see this, however it should not kill all Docker containers which are using that image but I'm not sure how you mean that.

     

    I do have to correct myself, It didnt "kill" the running containers, i just checked the logs and it roughly happend at the exact time a update was distributed by steam. Still very odd since been runing fine for ages. Who knows what Gabe did.

    • Haha 1
  14. Ive just noticed following syslog. First time ive seen that
     

    Quote

    Aug 14 20:10:42 Magnon-Box kernel: IPC:CSteamEngin[23103]: segfault at 4 ip 00000000277e677a sp 0000000029bb18e0 error 4 in steamclient.so[27600000+2304000] likely on CPU 2 (core 2, socket 0) Aug 14 20:10:42 Magnon-Box kernel: Code: 5b 5e 5f 5d c3 8d 76 00 8d 87 d0 0b 00 00 89 44 24 0c 8d b6 00 00 00 00 8d 2c 76 c1 e5 03 8d 04 2a 8b 48 14 80 79 2d 00 74 66 <8b> 48 04 83 f9 ff 75 3e 8b 40 08 89 f1 89 c6 eb 15 8d 74 26 00 90

    Has been the Ark variant. Might be worth keeping an eye on. since it killed all running docker that used that image

×
×
  • Create New...