Mimika

Members
  • Posts

    23
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Mimika's Achievements

Noob

Noob (1/14)

5

Reputation

1

Community Answers

  1. Super, danke, genau so hat es ohne Probleme funktioniert.
  2. Altes System: 3 Disks (alle 3 SSDs). Eine Parität, die anderen zwei als Daten. Erst, wenn der Inhalt umgezogen ist, kommt die eine SSD vom alten als zus. Cache und die andere SSD als zus. Data. Neues System: 1 HDD als Parität, 4 HDDs als Data, 1 SSD als Cache. Ich glaube nicht, dass ein einfaches Umklemmen die Dockercontainer behalten würde und wollte daher erst die Container und VMs migrieren.
  3. Ich habe auf dem neuen Server z.B. MariaDB Docker geladen. Dann gestoppt und den Inhalt von Config & Data vom alten Server auf den neuen kopiert. Danach startete der Container nicht mehr und im Protokoll war auch nichts ersichtlich. Offenbar ist das die falsche Vorgehensweise. Könntet ihr mir einen Tipp geben? Vielen Dank und liebe Grüße Mimika
  4. Hi zusammen, aktuell habe ich auf einem unRaid Server diverse Docker-Container (beispielsweise NextCloud, MariaDB, Vaultwarden usw.), als auch vier VMs (Linux und Windows), die auf einen anderen unRaid Server umziehen sollen. Der erste wird dann inkl. unRaid an die Family weitergereicht, ohne, dass da die Hardware ausgebaut wird. Das heißt, ich müsste lediglich den Inhalt auf meinen anderen unRaid-Server umziehen. Wie stelle ich das am klügsten an? Das Ding ist, dass ich die ganze Konfiguration ungern von vorn durchführen würde. Die Docker-Container liegen aktuell auf einer gesonderten Array-Freigabe, keine Cache-Platte. Danke euch für Tipps und Hilfe im Voraus.
  5. Hey, danke für die Info, ist aber bei der 10 Gbit Netzwerkkarte über PCIe nicht ganz so trivial, da sie genau so langsam ist, wie auf dem anderen System die USB Netzwerkkarte. Man weiß ja nie 😄 aber ja, wird auf Dauer wohl ausgeschaltet. :-)
  6. Hi zusammen, ich habe mittlerweile zwei Unraid Systeme im Einsatz und seit Neuestem auch endlich bessere Netzwerkkomponenten zuhause. Allerdings finde ich absolut keine Besserung bzw. keinen Geschwindigkeitszuwachs auf meinen Unraid Systemen. Angeschlossen über Port 9 (erstes Unraid System mit 2,5 GBit auf USB Adapter auf einem Lenovo Tiny mit max. 10Gbit pro USB Port) Angeschlossen über Port 10 bzw. 11 zweites Unraid System mit 10 Gbit PCIe Karte. Die Schnittstelle auf dem zweiten System sieht folgendermaßen aus: Wenn ich die Datei aufs System kopiere (bzw. auf die Cache SSD), dann ist das System nicht ausgelastet: Allerdings wird die Datei so "träge" rüberkopiert, dass es nicht mal dem GBit-Netzwerk entspricht, dabei habe ich 10Gbit. Muss ich noch in den Systemen irgendwas verändern / einstellen? Ich bin für Vorschläge / Infos / Ideen offen. Ich danke euch und wünsche euch noch ne schöne Restwoche. Mimika
  7. Hi zusammen, erst hatte mein NPM Probleme die Zertifikate der Hosts zu aktualisieren. Nun stelle ich nach dem Urlaub fest, dass grundsätzlich irgendwas schief gelaufen ist und ich nicht mal mehr an die WebOF rankomme. Laut Protokoll: [supervisor ] service 'nginx' exited (with status 1). [supervisor ] restarting service 'nginx'. [supervisor ] starting service 'nginx'... [nginx ] nginx: [emerg] cannot load certificate "/etc/letsencrypt/live/npm-1/fullchain.pem": BIO_new_file() failed (SSL: error:02001002:system library:fopen:No such file or directory:fopen('/etc/letsencrypt/live/npm-1/fullchain.pem','r') error:2006D080:BIO routines:BIO_new_file:no such file) Und ja, der Ordner ist nun irgendwie leer: Unter Renewal sind die Konfigs jedoch noch vorhanden: Gibt es eine Möglichkeit, alles wieder zum Laufen zu bekommen, ohne, dass ich den Container komplett löschen muss und alle Hosts wieder mit den notwendigen Konfigurationen einpflegen muss? Die Zertifikate sind mittlerweile eh abgelaufen, kann also auch ruhig neue erstellen, nur die Einstellungen dort wieder einzupflegen wäre nervig. Danke euch im Voraus für die Mühen. :)
  8. Hi zusammen, früher habe ich meinen RasPi mit Guacamole benutzt, um von wo anders via Browser auf meine Geräte zuzugreifen. Da ich NPM unter Unraid am Laufen habe und dort nun weitere Dockercontainer wunderbar funktionieren, habe ich beschlossen auch Guacamole als Docker laufen zu lassen und die Verbindung via NPM zu steuern. Das Ding ist, dass ich jedes Mal Verbindungsabbrüche unter Guacamole habe. Ich logg mich ein, wähle das System aus, bin via RDP drauf, klicke hier und da und dann erscheint die Meldung, dass die Verbindung angeblich zu langsam sei. Danach wird sie wiederhergestellt, jedoch kann ich dann nichts mehr im Fenster klicken. Danach bricht die Verbindung immer wieder ab. Unraid selbst ist nicht sehr ausgelastet, die Netzwerkkarte hat auch viel Puffer nach oben. Ich mein, selbst unter'm RasPi2 lief das problemlos. Ich vermute, dass da ggf. irgendwelche Einstellungen falsch sind / gesetzt werden müssen, damit es stabil läuft - ich weiß allerdings partout nicht, was ich noch ausprobieren könnte und hoffe, dass ihr vielleicht einen Tipp habt. Verwendete Dockercontainer: - jasonbean/guacamole für Apache Guacamole - jlesage/nginx-proxy-manager für NPM Einstellungen im NPM: Unter Advanced habe ich folgende Einstellungen ausprobiert, allerdings brachte es keine Verbesserung/Änderung: location /guacamole/ { proxy_pass http://10.0.0.222:8888; proxy_buffering off; proxy_http_version 1.1; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection $http_connection; access_log off; } Habt ihr sonst noch ne Idee, was ich testen könnte?
  9. Hey, ist mir hinterher auch aufgefallen und ich habe es exakt genau so (mit Subdomains) gelöst. War ein bisschen Arbeit, aber das Ergebnis ist genau so, wie ich es haben wollte.
  10. Hi zusammen, ich glaube, ich habe einen Denkfehler und hoffe, ihr könnt mir helfen. Folgende Situation: - NextCloud Docker Container - Ngingx Proxy Manager Docker Container - bei Strato.de billig 'ne Domain erworben und als DynDNS in der FritzBox eingetragen Das funktioniert alles auch soweit, auch ein Zertifikat klappt einwandfrei. Das Ding ist - wie richte ich nun für einen weiteren Container, nämlich Vaultwarden, einen Zugriff über NPM ein? Aktuell: Darin ist ja als Destination die IP & der Port für NextCloud. Einen weiteren ProxyHost mit der gleichen Source kann ich nicht anlegen. Weitere Schemas kann ich nicht hinzufügen: Zudem ich auch unter Advanced einige Einträge (wegen NextCloud) gesetzt habe. Wie wäre denn hier das richtige Vorgehen? Und könnte nicht das Zertifikat für meinedomain.de für alle von mir gewollten Docker Container / HTTPS Zugriffe (nur halt andere Ports) verwendet werden? Ich danke euch für weitere Infos im Voraus. Liebe Grüße
  11. Den hab ich zwar seit langem aktiv, hab aber spaßeshalber deaktiviert, gleiches Schauspiel. Google Chrome unter macOS und unter W11 - gleiches Schauspiel mit ~ 30 mb/s. Ja genau. Leider kriege ich es partout nicht schneller hin.
  12. Das müsste soweit funktionieren, die Fritze 7590 soll das könnnen. Auch ist keine Auslastung bemerkbar, wenn ich mir die Last beim Online-Monitor anschaue. Ich habe probeweise eine 3GB Datei hochgeladen, das ging mit durchschnittlich 30 mb/s. Ich habe mir bei Strato eine Domain gekauft, die führt dann zu mir nach Hause (DynDNS).
  13. Danke, die Geschwindigkeit hat sich schon mal verdoppelt. Über Domain (DynDNS) und dann leitet NginxProxyManager den Port entsprechend weiter. Befinde mich aber im internen Netz, daher sollte das ja nicht quer durch das Internet gehen.
  14. Hi zusammen, mir ist aufgefallen, dass der Upload auf meine Nextcloud relativ träge ist. Die Maximalgeschwindigkeit, die ich sah, betrug 14,3 mb/s (intern). Sowohl Unraid als auch mein Client sind via GBit-Lan angeschlossen, daher sollte das eigentlich schneller gehen. Wenn ich auf Freigaben kopiere, bin ich auch bei ungefähr 112 mb/s. Sofern ich außerhalb Sachen hochlade, sehe ich es ja noch ein, dass es langsamer geht (also dem Upload der anderen Leitung angepasst), aber intern? Ich verwende nextcloud:latest als Quelle, MariaDB-Official als Datenbank und jlesage/nginx-proxy-manager für die Erreichbarkeit von Außen. Alle 3 Container liegen auf einer eigenen 2TB SATA-SSD. Der Prozessor (Celeron J4125) ist im Durchschnitt bei 30% Auslastung, beim Hochladen schwankend bis zu 60%. Ich hab auch schon alle VMs / Docker ausgeschaltet, aber selbst da wird nicht schneller hochgeladen... Wisst ihr, was ich noch testen könnte bzw. woran es liegen könnte? Ich danke euch im Voraus.
  15. Hi zusammen, vorab: ich nutze NextCloud Docker in Verbindung mit NGinxProxyManager - das klappt soweit alles mit HTTPS. Jetzt wollte ich Baikal (Docker ckulka/baikal:nginx) testen. Beim Versuch bei meinem macOS Gerät die Kontakte / Kalender einzubinden, fiel mir auf, dass der Dienst lediglich über HTTP läuft. Wie kriege ich nun Baikal auf SSL umgestellt - am besten in Verbindung mit dem NginxProxyManager, da dort das Let'sEncrypt-Zert. hinterlegt ist. (Das zweite ist eher ein Wunsch, es kann meinetwegen auch ein selbstsigniertes Zertifikat sein) Irgendwie finde ich keine Einstellung dazu. Vielleicht nutzt es ja jemand von euch und hat es bereits auf SSL umgestellt? Liebe Grüße Mimika