Jump to content

Crovaxon

Members
  • Posts

    46
  • Joined

  • Last visited

Posts posted by Crovaxon

  1. On 3/13/2024 at 4:32 PM, UNRA1DUser said:

    Hallo zusammen,

     

    kann mir eventuell einer erklären wann und wie man PUID, PGID und UMASK für Docker Templates verwendet?

    Reicht das Flag "--user=99:100" in den ExtraParams oder lieber doch die Variablen dem Docker mitgeben? Gibt es da einen unterschied? Kann man die Variablen immer mit geben oder muss das Image diese auch zulassen?

     

    <Config Name="PUID" Target="PUID" Default="99" Mode="" Description="UID for permissions. Do not change unless you know what you're doing." Type="Variable" Display="advanced" Required="true" Mask="false"/>
      <Config Name="PGID" Target="PGID" Default="100" Mode="" Description="GID for permissions. Do not change unless you know what you're doing." Type="Variable" Display="advanced" Required="true" Mask="false"/>
      <Config Name="UMASK" Target="UMASK" Default="022" Mode="" Description="UMASK for newly created files. Do not change unless you know what you're doing." Type="Variable" Display="advanced" Required="false" Mask="false"/>

     

    Manchmal setzte ich das Flag "--user=99:100" und der Container funktioniert nicht. Nur ohne Flag funktioniert dieser. Manchmal muss ich auch nur die Variablen mitgeben. Manchmal beides. Ich verstehe das nicht so ganz.

     

    Danke!

    Ich bin da auch noch etwas Grün hinter den Ohren, aber soweit wie ich es verstanden habe, hängt dies gänzlich davon ab, wie das Image des Containers aufgebaut ist, den man da starten möchte.


    Gerade für so ziemlich alle Docker, die es in den Community Applications gibt, sind diese bereits so aufgebaut, dass sie auf die PUID und PGID Variablen horchen (und häufig auch UMASK, wenn die Software im Container mit Dateien rumhantiert, damit man die Berechtigungen auf den erstellten Dateien steuern kann).

    Wofür die Variablen dann genutzt werden, hängt dann davon ab, was im ausführenden Code des Dockers passiert. Z.B. könnte ein dockerfile vorsehen, dass die PUID und PGID Umgebungsvariablen dazu genutzt werden, um eben die Benutzer- und Gruppen-ID eines Linux Users fest vorzugeben, der innerhalb des Containers erstellt wird und darin weitere Prozesse ausführt.

    Gerade, wenn Volumes vom Host System zum Container als persistenter Speicher durchgereicht werden, werden alle Dateien die dieser Linux User im Container innerhalb der durchgereichten Volumes erzeugt, standardmäßig mit seiner eigenen Benutzer und Gruppen ID versehen. Wäre dann ja naheliegend die IDs 99 für User und 100 für die Gruppe innerhalb des Containers zu verwenden, weil diese im Unraid Host System für den Benutzer "Nobody" und die Gruppe "Users" stehen. Das erleichtert dann den Umgang mit diesen Dateien innerhalb des Unraid Hosts selber, ohne dass man als root User in Unraid unterwegs sein muss.

     

    Und wenn man jetzt einen Docker Container erwischt hat, der gar nicht diese Umgebungsvariablen verwendet?
    Kann sein, dass dieser Docker Container in seinem Code keinen neuen User erzeugt innerhalb des Containers, sondern einfach mit dem default User des Containers los läuft, das wäre dann eben "root" (ID = 0). Möglicherweise kann man sich dann mit dem "--user=99:100" Flag in den Extra Parametern helfen, die steuern eben die IDs des Standard Users. Das sorgt dann wenigstens dafür, dass alles was der Standarduser des Containers an Dateien erzeugt, mit diesen IDs versehen werden.
    Das kann gut gehen, muss aber nicht. Gerade wenn der Wechsel weg vom "root" User des Containers dafür sorgt, das er dann plötzlich gewisse Prozesse nicht mehr starten darf ("root" darf schließlich alles, aber der Flag sorgt dafür, dass dieser User eben nicht mehr "root" ist). Dann knallt der Container und läuft nicht mehr.

     

    Letztendlich hängt es also ganz davon ab, was für einen Container man da hat und was der bei seinem Startup so alles tut. Die feine Unraid'sche Art ist eben die Unterstützung der PUID und PGID Variablen, aber das muss halt auch der Container Code hergeben. Einfach PUID/PGID als Umgebungsvariablen an einen Container klatschen sorgt noch lange nicht dafür, dass dieser mit diesen Variablen auch was macht.

    • Like 3
  2. Der Planka Docker ist jetzt nicht so aufgesetzt, dass er einfach läuft, da muss man noch extra Hand anlegen und Vorwissen mitbringen.

    Habs jetzt nicht installiert, aber in der Community Applications Beschreibung zu Planka allein steht schon additional requirements Postgres drin. Was bedeutet das Planka eine Postgres Datenbank benötigt um zu funktionieren. Ich seh jetzt auf Anhieb nicht, dass es eine Anforderung gäbe eine bestimmte Postgres Version zu nutzen, also würde ich jetzt einfach die aktuellste verfügbare nehmen. In den Community Applications ist glaub ich version 15 verfügbar?

    Nachdem Postgres installiert ist, benötigst du noch einen Weg, mit der Datenbank Software interagieren zu können, damit sie für Planka vorbereitet werden kann, so etwas wie Adminer z.B. als Datenbank Management Werkzeug, oder irgendwas anderes, mit dem du SQL Befehle absetzen kannst.
    Es sollte in Postgres eine Datenbank für Planka erzeugt werden (und idealerweise auch ein eigener Datenbank Benutzer, der Rechte besitzt, mit der Datenbank zu interagieren, aber wenn die Datenbank eh alleine nu für Planka sein soll, dann könnte man auch beim Standard postgres Benutzer bleiben).

    Und dann muss man vom Planka Docker die Einstellungen editieren und den Postgres URL Eintrag entsprechend setzen, ein spezieller Link zu deinem Postgres Docker, inklusive dem Datenbank Benutzer und dessen Passwort und auf welche Datenbank er zugreifen soll.

    • Thanks 1
  3. Hey folks,

     

    I started to tinker with creating my own docker images and going down the rabbit hole I also got interested in hosting my own docker registry, which is easy to do with the Registry available in the CA.

    I set it up as insecure for now, since its purely for local testing and I set both my PC I dev at and Unraid with the appropiate insecure registry entry in the config. I can push images towards the registry and Unraid can deploy containers from it via a manually created templates using the local registry as repo just fine.

     

    But sooner or later the Version detected switches from "up-to-date" to "not- available". Does not matter if its actually the newest image or not on the registry. If I want to update a container, I have to resort to the force update to get the new image and container built.

    How does the version check actually work?

     

    I wasn't able to find anything really conclusive with my google-fu.

    I am just creating basic Docker images on my PC ala "docker build" with a dockerfile for my own apps. Tag them on the registry and then push them to the registry. So any new images pushed would be defaulting to the "latest" tag AFAIK which would also be what the templates I created in Unraid's Docker tab pull from. Anything I misunderstood in the Docker image creation flow?

    Does this plainly not work with non CA/Dockerhub sourced images? Do I need to adjust my build command? Is the registry at fault?

  4. Moin,

     

    in meinem Eigeninteresse als Entwickler hab ich mich mal mit Docker Registry im Selbstbetrieb beschäftigt...
    Betreibe den Docker Registry aus den CA als Container, vorerst als insecure Registry da ich mich damit nur im lokalen Umfeld erstmal auseinander setzen will bevor ich überlege, den auch von außen erreichbar zu machen, nur zur Info falls das relevant sein sollte.

    Mit entsprechendem insecure repository Eintrag kann ich soweit ohne Probleme meine Images taggen und pushen von meinem PC zum Registry Container und meine Unraid Maschine kann mit händisch erstelltem Eintrag im Docker Tab auch problemlos von dieser Registry laden und Container starten - soweit so gut!

     

    Was ich jetzt nach längerem Betrieb festgestellt habe... Der Versionsstand bei diesen händischen Containern wechselt früher oder später zu "Not Available" und ich bin bislang beim Recherchieren nicht ganz schlau draus geworden, woran das liegt.

     

    Ich erstelle meine Docker jetzt bislang ohne tag, also default ist dann ja "latest", was ja wohl auch der tag ist, den beim Pullen des Images während der Container Erstellung ja auch standardmäßig verwendet wird wenn keiner angegeben wird.
    Also halt "lokal Docker build -> auf Registry taggen -> auf Registry pushen".

    Wenn ich neue Versionen pushe, ändert sich auch nix am "Not Available" wenn ich auf updates prüfe.

    Wenn ich vor habe den Container zu aktualisieren, muss ich das immer via Force Update machen, das klappt dann aber auch.


    Liegt das Problem irgendwo bei meinen gebauten Images, oder an den Einstellungen der Registry? Irgendwas im Container Template auf Unraid's Seite das gemacht werden muss?

    Oder klappt Unraid's Container Update Check nur mit DockerHub gehosteten Images? Bin da beim Hinterher googlen auf nichts konkretes gestoßen.

  5. I might have just trouble with docker in general as I am still learning running my own registry and creating my own images - in case this is not exactly a support issue of using the registry then please say so and I'll repost to Lounge or someplace else more fitting :)

    I've been running this registry (local as insecure) for a good while and can push my images to it. I created manual entries under Unraid's Docker tab and have them successfully pull from the local running registry and run the images. So far so good!

    But Unraid sooner or later switches their version status to "Not available", ergo it does not detect if its running the latest image or if there has been a new image pushed by me.
    Is the problem in the way I am building my image? I just do the basic Docker build, tag the image for my repository and push. Do I need to use specific tags or something else so Unraid can treat them correctly or does this only work with DockerHub hosted images in general?

  6. Die Sache mit Nextcloud ist dass der erstmal Wind davon kriegen muss, wenn sich die Daten in seinem System ohne sein eigenes zutun ändern, da gibts unter anderem einen config parameter, dass er auch auf filesystem changes achten soll, aber AFAIK checkt dann auch nur, ob sich Dateien geändert haben wenn du einen Zugriff auf dessen Ordner machst, bin mir bei dem Parameter nicht so sicher, das Handbuch ist da leider etwas knapp bei der Beschreibung der Konfigurationsoption. Die Alternative wäre sonst periodisch einen Cron Job zu fahren, der regelmäßig den Dateiscan von NC anwirft.

    Denn so wie ich NC bisher wahrgenommen habe, ist es am besten wenn du exklusiv über NC mit den Daten hantierst, sei es via WebDAV Freigabe oder über das Sync Tool von NC.

     

    Ich weiß nicht ob das deinen Ansprüchen genügt und vor allem auch ob das so ohne weiteres geht wenn du vor hast, NC nicht auf dem selben Gerät wie die Daten laufen zu lassen sondern über deinen Lenovo. Weil dann hast du den Käse mit externen Daten in NC einbinden, was natürlich geht, NC kann auch SMB/CIFS oder lokale Mountpoints als Ordner einbinden, aber dann bin ich noch weniger sicher, ob sich Quelle und NC synchron halten lassen wie oben beschrieben.


    Ich nutze ausschließlich NC zum interagieren mit meinen Daten, auch lokal, einfach um dem Problem aus dem weg zu gehen, dass direkter Zugriff auf die Daten an NC vorbei erstmal nicht von NC reflektiert wird. Direkter SMB/NFS Zugriff mache ich dann eig. nur wenn ich ausschließlich lesen möchte. Aber ich bin sehr anspruchslos was Umgang mit meinen Daten angeht, es ist ein hauptsächliches Datengrab und alle meine Dienste, die mit den Daten interagieren, laufen auch direkt auf meinem Unraid.

  7. 2 minutes ago, alturismo said:

    Vorgabe, das file muss existieren ... Bsp. /mnt/user/appdata/sillytavern/config/config.conf ... die Datei muss einfach bereits da sein, dann klappt es auch mit dem mapping.

    ...

    - entweder ein "Blanco" File anlegen, die meisten Apps schreiben dann Ihren Part rein ... das wäre der einfache Weg

    Genau das hatte ich auch bereits ersucht und auch versucht :) aber leider blieb die config Datei leider leer beim Initialisieren.

    Aber...

    3 minutes ago, alturismo said:

    - docker ohne das mapping starten, dafür aber mit einem mount point (macht es leichter) ... dann in die konsole des dockers und die config kopieren (in den pseudo mount), dann hast du die Basic Config und kannst dann den Docker Pfad auf das File setzen.

    das hier klingt vielversprechend. Das werd ich mal versuchen, danke!

  8. Nachdem ich leider wenig Erfolg im Englisch sprachigen Bereich hatte, dachte ich ich versuchs mal hier nochmal, vielleicht mag ja jemand mit Docker und Unraid Template Erfahrung sein Senf dazu geben. :)

    Ich würde gerne folgendes Projekt verdockerfizieren und es hat bereits eine docker-compose.yml und Dockerfile im repo:
    https://github.com/SillyTavern/SillyTavern/blob/main/docker/docker-compose.yml

    Ich hab das image dazu selbst gebaut und auf einen eigene Docker Registry hochgeladen (will ungern auf images von Fremden auf DockerHub dafür greifen). Von der Repo das Image zu ziehen und dann den Container zu erzeugen klappt in Unraid auch wunderbar an sich, meine Schwierigkeiten liegen bei den Volumes die der Container erzeugt und die ich im Template mappen will:
    SillyTavern mapped einen Ordner "Config" und eine Datei "config.conf" als volumes. Wenn ich das jetzt in einem Unraid Template einkleiden möchte, kann ich den Ordner ohne weiteres als Path eintragen, aber das klappt nicht mit der einzelnen Datei.
    Resultiert in Execution Error - Bad Parameter.

    Ich habe naiverweise einfach mal versucht, den darüber gelegenen Ordner als Path im Template anzulegen (Config Ordner und config.conf liegen beide im Ordner "App"), aber leider streikt dann das Programm selbst und kann die docker-entrypoint.sh nicht mehr finden.

    Ich bin leider selber nicht besonders Docker erfahren bis auf die Basics, hat jemand einen Vorschlag wie man da vorgehen könnte? Kann man Unraid beibringen, mit einer einzelnen Datei als Path umzugehen? Oder liegt die Schuld in der docker-compose und ich müsste diese selber anpassen?

  9. Hello folks,

    I have tried to get a custom added docker container to run and I know the basics but I have no experience at all with setting up custom non-CA images.
    I've given up on this before with other containers that expose single files but with my most recent attempt I got fed up enough to ask for help :D This is what I am currently trying to run: https://github.com/SillyTavern/SillyTavern/blob/main/docker/docker-compose.yml
    The container exposes the config path and a file as volumes.
    I have no trouble mapping a path for the config volume to the respective appdata path for this docker.
    But the second exposed volume is a single file and I have no success mapping this via the path option in the Unraid UI. How would I go about getting this into my appdata?
    Seeing that both the config folder and this config.conf file reside in the parent directory "app" I tried to add a mapping between the "app" folder and a folder in appdata instead, hoping to just fully expose this folder instead, but then the container fails to start at all:
     

    [FATAL tini (7)] exec ./docker-entrypoint.sh failed: No such file or directory

    So this wasn't it either.

    What is the correct approach here? Is there a way to map the file as well into the appdata directory or can I alternatively just expose the parent folder somehow without the container complaining, or would this require rewriting the compose file?

  10. I have been sitting out updating my Unraid since 6.9.2 mainly out of laziness and everything working fine for me, but I'm planning to get into its guts to remove my GPU as I do not need it running in there anymore and drawing power for no reason so I was thinking I might as well see about updating unraid itself while I am at it.
    Nothing special, one cache SSD, 3 HDDs in the array, a bunch of dockers, most notable probably being Plex and Nextcloud.
    Is there anything I should be watching out for when updating to 6.11.5?

  11. 26 minutes ago, ChatNoir said:

    It's not really something I know much about, but maybe this blog post could help : https://unraid.net/blog/unraid-6-9-capture-encoding-and-streaming-server

    Ah yeah, I had seen that blog post, it is about having Unraid take care of the OBS work load of transcoding and sending the stream to your target platform(s), the gaming PC is just busy feeding the OBS container then. I also read the previous multi restream blog post and while both blog posts are useful, it is not what I am looking for. I am not trying to feed my live stream to any of the online platforms, I want to serve the stream myself to viewers.

    I only ever stream via Discord to my buddies, which works well and latency is quite low, but I am of course tied to Discord's limitations there. And in the spirit of self hosting, I want to explore how feasible it is to instead be my own streaming service, basically I want to be my own Twitch - and this in the most low latency possible way, so I could still feasibly interact with viewers on a more direct basis.

  12. 14 hours ago, Michael_P said:

    Check out Craft Computing's cloud gaming series on youtube, should give you some ideas

    Ah I might have been a tad ambiguous in the title (fixed now) but I am not looking to set up remote gaming, but live streaming :) unless they have covered that topic too, though I had no luck finding anything on live streaming on their channel. Hope its not buried somewhere in the video series.

  13. Hey Unraid folks,

     

    I have been on a "selfhost all the things" spree since I have assembled a new NAS with Unraid a year ago, so far so good and happy. And one of the topics I looked into was live streaming because who does not want a DIY Twitch :D not out of necessity, just fun, the audience would be my friends if anything but this is really more an attempt at getting something useable up and running at all.
    Owncast was an easy find thanks to a readily available docker image in the Unraid Community Apps and it basically worked quite well, but my internet was slow so it did not perform that stellar without dropping quality and bitrate. I put it back on the backburner after experimenting.
    But since I've switched to a speedy fiber recently I have been looking back into this... and while Owncast works fine, I found out that it is quite far from low latency even in best circumstances no matter my tinkering, 7~8 seconds behind live, even watching from local network.
    But Owncast is not really geared for low latency anyway (to my understanding), at least not for something like being 1 to 2 seconds max behind the source or lower, which would be what I would wish to achieve. I wanna be able to chat and interact with the few friends that I would coax into watching :)

     

    I have been looking around at other solutions but there is nothing quite as easy to setup as Owncast it seems.
    It's not too bad if there is no Unraid CA app available, nothing against setting up images from Hub but I haven't had any luck finding something that would fulfill the low latency wish while still being easy to serve to watchers.

    I found Project Lightspeed, which unfortunately is not being actively developed anymore but even the existing setup consists of juggling 3 dockers and while I got far enough that I could feed a stream from OBS into the ingest docker, but either the WebRTC docker or the React docker were still having problems, none that I could easily identify and fix, the player page at least did not register any kind of output and no docker logs showed any errors.

    I managed to get Restreamer up and running but I did not manage to produce anything with low latency, it performed similar to Owncast but its not as comfortable.

    Other than that I found Oven Media Engine and Simple Realtime Server but both are not straight forward to set up and I fail already with getting their dockers running in the first place when I try to set their config paths up in AppData so I can edit them but I prolly might be doing something wrong there... They'd also require some player page set up and pointed at them as far as I understood, they are not serving this themselves.

    On my research into this I found that WebRTC seems to be the way to go in terms of latency but there isn't really anything comfortable to use there.
    I found vdo.ninja, which doesn't require any elaborate setup (and you can still selfhost their webpage if you want) but it expects a separate video and audio feed, so it does not directly take a stream from OBS, though you can set OBS to put out to a virtual webcam that you can hand in as video source. And this was blazingly fast. But with the way vdo does not take a single audio + video stream from OBS, you will have to look into fiddling with virtual audio devices to split audio sources if you do not want to just capture desktop audio and this I find ugly. Ideally I want to find something that I can directly feed from OBS for easy game video + audio capture, separate from other audio sources.
     

    That's how far I got with my occasional evening dabbling in this. As I said, this is just for fun and exploring the topic, but if there'd be anything I would set as a requirement, it would be its latency being as low as can be and ideally easy to serve.

    And yes, obviously I have been using Discord already for pretty much the same, but the goal is to self host ;) and be in control of all the options. For serving a few buddies I reckon fiber should be good enough, at least that is what I wanna find out.

    But first I gotta get something set up that can demonstrate low latency in my local network so I know its worth testing what a remote connection will be getting.

    Did anybody else ever look into this and has some insights to share or recommendations?

  14. Siehe hier: https://wiki.unraid.net/Replacing_Multiple_Data_Drives_with_a_Single_Larger_Drive
    Die sicherere Vorgehensweise wäre im Groben: erst eine der Platten gegen die große zu ersetzen, die fehlenden Daten der ausgebauten Platte darauf neu rekonstruieren, dann Daten von der zweiten kleinen Platte auf die große rüber schaufeln, zweite kleine Platte ausbauen, neue Konfiguration erzeugen, Parität neu aufbauen.
    Das Wiki benennt die einzelnen Schritte ausführlich, so wie auch eine schnellere, aber unsicherere Variante, bei der die Parität erstmal ausgehebelt wird, damit der Kopiervorgang der Daten von den Kleinen zur Großen schneller abläuft.

  15. 13 minutes ago, Bluppylein said:

    Und so wie ich hier im Forum verstehe kann man ja auch 2 Paritätsdisk haben. Notfalls sollte ja ein Upgrade mit eine 16TB gehen und dann die 8 TB in den Arraypool später zu überstellen wenn man mal mehrere größere Disk als 8 TB plant. Ich denke zu oft noch in RAID gedanke und mir sind halt die Daten schon wichtig.

    Ich kann einen Blick hier drauf empfehlen https://wiki.unraid.net/Parity#How_parity_works
    Aber um es kurz zu fassen, die zweite Paritätsplatte in einem dual parity setup schützt vor dem Ausfall einer weiteren Platte (egal ob Daten oder Parität), sie ist nicht einfach nur eine Kopie der Parität selbst. Eine läuft mit dem beschriebenen Ansatz von "Ich schreibe eine Parität für jeden Sektor jeder Festplatte" und die zweite läuft mit dem Reed Solomon Code Prinzip, aber das übersteigt mein Wissen :P das wüsst ich nicht zu erklären, auch nicht mit einem Blick auf die Wiki Seite dazu.

     

    Was Array Erweiterung an sich an geht, hab ich damit noch keine Erfahrung und Recherche gemacht aber bei den Paritätsplatten müsste einfach nach dem Schema laufen, dass man die Paritätsplatten durch die neuen Platten ersetzt und die Parität neu aufbauen lässt, was natürlich dauert (aber man hat ja immer noch die vorher ausgebauten Paritätsplatte(n) sollte just während des Rebuilds was auf den Datenplatten schief gehen).
    Danach würdest du mit Austausch von vorhandenen Datenplatten gegen größere vorgehen.
    Das wiki beschreibt das recht ausführlich. https://wiki.unraid.net/Manual/Storage_Management

  16. Ich antworte mal generell zu 2 und 4. Zu 1 sollte aber ein Thread hier im Guide Bereich rumfliegen wenn ich mich nicht täusche.

    Zu 2., ich bin da auch nicht super firm drinne, aber ich habe es soweit verstanden (erfahrenere User dürfen selbstverständlich korrigieren):
    Paritätsplatte(n) sollten mindestens so groß sein, wie die größte Daten tragende Festplatte die zu benutzen gedenkst. Unraid ist wie der Name es hergibt kein klassisches Raid, die anderen Platten können auch kleiner als die Paritätsplatte sein, lediglich größer ist nicht drinne. D.h. wenn du auf längere Zeit hin keine größeren Platten als 8 TB ins array stecken willst, dann braucht die Parität auch nur min. 8 TB groß sein. Größer geht auch, aber du hast davon keinen weiteren Platz, es wird nur soviel von der Parität genutzt, wie die größte Datenplatte Sektoren hat. Unraid schaut sich von allen Platten Sektorweise die Bits an, errechnet eine Parität draus, dieser Paritätsbit wird auf der Paritätsplatte dann gespeichert. Fällt eine Platte aus, kann aus restlichen Platten + Parität das fehlende Bit berechnet werden, die Daten bleiben also les-, schreib- und vor allem rekonstruierbar, solange keine weitere Platte hops geht.

    Zu 4. Nö, es gibt keinen Zwang zu ECC, ist halt für den persönlichen Frieden, dass man gegen die wenn auch extrem seltene aber dennoch existierende Gefahr von ungewöhnlichen Bitflips im RAM geschützt ist. Sie sind auch bei 24/7 laufenden Geräten kein "Zwang", aber um einen fehlerfreien und vor allem dauerhaften Betrieb zu gewährleisten gibt es das halt um diesem Anspruch gerecht zu werden. Und NAS sind ja häufiger 24/7 im Betrieb als on demand, aber die Betriebsgewohnheiten entscheidet jeder ja für sich selbst abhängig davon was drauf läuft. Und du allein bist für deinen eigenen Anspruch an Datenintegrität verantwortlich. Wenn du lieb gewonnene Sachen auf dem NAS speichern willst und das Gerät 24/7 betreibst, wäre es schon nicht verkehrt, sich gegen Fehler abzusichern. (Und dasselbe gilt auch für Backups deiner NAS Daten, je wertvoller desto häufiger und dezentraler sollten die backups sein).

  17. 44 minutes ago, mgutt said:

    Was ist der Vorteil?

    Kein offensichtlicher der mir einfiele, wahrscheinlich sinnvoll wenn man mehrere Instanzen versorgen will. Ich war noch in der Docker Lern und Ausprobier Phase :) Die Wahl des Containers war lediglich für mein Bauchgefühl, beides getrennt voneinander betreiben zu können und ich muss nicht erst zu NC um mir Logs zu Collabora anzuschauen. Den Container hatte ich so um NC 19 oder 20 eingerichtet wenn ich mich nicht falsch erinnere. Hat funktioniert und seitdem hatte ich es dabei belassen als ich dann von meinem Linux Frickel NAS zu Unraid gekommen bin.

    • Thanks 1
  18. Ich weiß nicht wie das mit dem Built-in Collabora gehandhabt wird, ich betreibe Nextcloud (25.0.1) und Collabora CODE jeweils im eigenen Container und da hats bisher Nextcloud nicht gejuckt, wenn ich den Collabora Container mal geupdated oder neu gestartet hatte. Insoweit nicht gejuckt, wie dass ich direkt nach einem CODE Container Update/Neustart direkt wieder mit Dateien in Nextcloud interagieren konnte. Ich hatte das noch nie mit währenddessen offenen Dateien probiert.

  19. 32 minutes ago, KaiK said:

    Unter Einstellungen/ Docker ist der Standard appdata Speicherpfad: /mnt/user/appdata/ falls ihr das meint?

    Und wie sieht es mit dem appdata share aus unter dem Tab "Shares"? Wie ist dort die Einstellung zum Cache Pool?

  20. Also generell ist das nichts ungewöhnliches, der proc Ordner ist ein virtuelles Dateisystem und quasi eine Schnittstelle zu verschiedenen Bereichen des Linux Kernels und was in deinem Fall von Interesse ist, da werden auch für die laufenden Prozesse des Systems Unterordner erzeugt und die tragen immer die Prozessnummer als Namen.
    Ob da jetzt verhältnismäßig häufig neue Prozesse starten und enden wüsst ich jetzt nicht einzuschätzen, das hängt sehr von davon ab, was deine Maschine genau macht und ob in dieser Arbeitslast es normal ist, das viele kleine Prozesse starten und enden.
    Und falls das noch nicht geläufig ist, der Befehl "htop" ist übrigens die etwas bequemere Art und Weise, die laufenden Prozesse und die Last des Systems zu beobachten als im proc Ordner zu schnüffeln. :D 

    • Like 1
  21. 19 hours ago, EricM said:

    Kann es sein dass mein Internetanbieter das Portforwarding blockiert?

    Können schon, wäre aber unwahrscheinlich, sonst hättest du sicherlich Beschwerden im Web darüber finden können.
    Hattest du den Archer C7 schon vorher oder kam der mit dem Anbieterwechsel? Ist einer von der simplen Sorte, die leiten nur strikt auf die eingetragene IP weiter so wie ich das vom Handbuch entnehme. Passt die hinterlegte IP in der Weiterleitung weiterhin zu der lokalen IP deines Servers? Wenn der seine IP via DHCP bezieht, solltest du über eine statische IP für deinen Server nachdenken damit diese sich eben nicht unerwartet mal ändern kann. Oder sofern der Router das anbietet, die durch DHCP vergebene Adresse dem Server fest zuweisen. Address Reservation sollte der Archer auch können, dann wird die IP an die MAC Adresse der Netzwerkkarte des Servers gebunden.

×
×
  • Create New...