sylus
-
Posts
53 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by sylus
-
-
On 10/29/2022 at 8:26 PM, Figro said:
Just tried this. Took a couple mins to propagate but it is working for me as well. Very cool. Thanks for sharing this
Could you please describe shorty how you got WARP working. The tunnel is working and I have one client connected to Cloudflare zero trust.
But what are the settings for the tunnel to get WARP working?
-
Habe das gleiche "Problem". Habe es aber ehrlicherweise nicht weiter beachtet. Mit ist auch nicht bewusst, wo noch IP 6 aktiv sein könnte.
-
I think you can just close or open the relevant ports to see, if the tunnel is used or not.
If u have all ports closed and use your custom domain to excess Plex, the tunnel ist used.
-
4 hours ago, mgutt said:
Nextcloud nervt echt mit dem Blödsinn. Warum können die nicht einfach hingehen und bei einem Update alle Datenbank-Updates einspielen und gut ist. Nein, man bekommt dann Hinweise, dass man noch irgendwas von Hand machen muss:
Dann gleich mal eine Frage. Obwohl man den Befehl nun manuell anstößt, muss man ihn auch noch mit "y" bestätigen, weshalb man ihn nicht per Einzeler ausführen kann:
# docker exec --user 99 nextcloud php occ db:convert-filecache-bigint Following columns will be updated: * file_metadata.id This can take up to hours, depending on the number of files in your instance! Continue with the conversion (y/n)? [n]
Kennt jemand einen Trick, womit es doch geht. Den Leuten zu erklären, dass man einmal ein Kommando im Terminal vom Container ausführen muss und andere im Terminal von Unraid, versteht doch niemand.
Gibt es vielleicht eine Art "force"-Parameter, dass er gar nicht erst nach "Y" fragt?
EDIT: Ja gibt es. Wenigstens das:
# docker exec --user 99 nextcloud php occ db:convert-filecache-bigint --no-interaction
Nur leider funktioniert das zumindest bei mir auch nicht.
# docker exec -it nextcloud occ db:convert-filecache-bigint Following columns will be updated: * file_metadata.id This can take up to hours, depending on the number of files in your instance! Continue with the conversion (y/n)? [n] y In ExceptionConverter.php line 114: An exception occurred while executing a query: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine In Exception.php line 26: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine In Connection.php line 82: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine db:convert-filecache-bigint
Habe sowohl
sudo -u abc php /config/www/nextcloud/occ db:convert-filecache-bigint aus Nextcloud als auch # docker exec -it nextcloud occ db:convert-filecache-bigint aus unraid versucht.
Ergebnis ist immer das Gleiche.
Bei einer manuellen Suche in MariaDB konnte ich aber auch die metadata nicht finden. Es kann ja wohl nicht sein, dass er etwas updaten will, was es gar nicht gibt?
-
Finde die Idee sehr gut. Als Historie sollten ja eigentlich 1, max. 2 Versionen reichen.
-
36 minutes ago, blaine07 said:
I ran:
docker exec -it YOUR-NEXTCLOUD-CONTAINER-NAME occ db:convert-filecache-bigint
and it worked.
The command runs fine, but the error is the same.
-
After upgrading to 24.0.6 i face the problem that I have to convert file_metadata.id in big int.
sudo -u abc php /config/www/nextcloud/occ db:convert-filecache-bigint Following columns will be updated: * file_metadata.id This can take up to hours, depending on the number of files in your instance! Continue with the conversion (y/n)? [n] y In ExceptionConverter.php line 114: An exception occurred while executing a query: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine In Exception.php line 26: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine In Connection.php line 82: SQLSTATE[42S02]: Base table or view not found: 1932 Table 'nextcloudunraid.oc_file_metadata' doesn't exist in engine db:convert-filecache-bigint
It looks like, i dont have such a table. Taking a look into the database with adminer, I was neither able to find the table.
Any hints?
-
On 8/10/2022 at 3:53 PM, mrflux said:
What makes the nordlynx container better than the nordvpn one? Don't they both use nordlynx?
I tried both but the nordlynx container was leaking my ISP's DNS. Did anyone have the same issue?
Sadly the nordlynx container is leaking DNS as long as the DNS Parameter is not set.
See https://github.com/bubuntux/nordlynx/issues/67
and
https://github.com/bubuntux/nordlynx/pull/96
Maybe this can be added to the template.
- 2
-
On 7/24/2022 at 8:26 PM, irishjd said:
Hello, have some issues with your Dashy Docker package.
I recently had Dashy installed as a Docker container and all was well. I messed with it for a couple of days until it was all dorked up. I then decided to start over and remove it and the re-install it. Now, every time I try to install it, I get this error:
docker: Error response from daemon: failed to create shim: OCI runtime create failed: container_linux.go:380: starting container process caused: process_linux.go:545: container init caused: rootfs_linux.go:75: mounting "/mnt/user/appdata/dashy/conf.yml" to rootfs at "/app/public/conf.yml" caused: mount through procfd: not a directory: unknown: Are you trying to mount a directory onto a file (or vice-versa)? Check if the specified host path exists and is the expected type.
I have tried uninstalling Dashy from APPS, open the GUI file manager and deleted user/apppdata/dashy, and I even installed Appdate Cleanup and ran it (it found some leftover Dashy data and deleted it). However, I still get the error when I try to re-install Dashy, I still get the error.
I have tried every Google hit I got on this topic to no avail. Can some one please point me in the right direction to fix this?
Have the same problem. Could you solve it?
-
Kann ich so bestätigen. B560m PRO4 ohne alles nur C7. Geht wohl leider aktuell nicht höher.
-
Welchen Sinn hat denn eigentlich Chrome als Docker ?
-
Du könntest Mal das Open Files Plugin installieren. Dann siehst du ja, welcher Prozess auf welche Dateien zugreift. Dann kannst du es zumindest etwas einschränken.
- 1
-
16 hours ago, mgutt said:
Da ändeet man nichts. Die Domain hat einfach die lokale IP vom unRAID Server. Der Traffic geht wie gehabt an NPM.
Hm, das funktioniert aber nicht durchgehend verlässlich. Teilweise kann ich eine Seite öffnen, dann wieder nicht. Kann aber die Seite anpingen und bekomme auch eine Antwort. Liegt das vielleicht daran, dass mein Unraid ja noch auf port 80 läuft und NPM eben nicht auf Port 80 bzw. 443. Bei deinem NPM Docker hast du ja die Ports entsprechend angepasst, dass NPM auf Port 80 und 443 lauscht?
-
11 hours ago, mgutt said:
Die optimale Lösung ist daher IPv6 oder du betreibst einen lokalen DNS-Server, der deine Domain mit der lokalen IPv4 überschreibt. Dh alle Clients in einem Netzwerk greifen über die lokale IP zu und sobald sie das Netzwerk verlassen, dann über die öffentliche IP.
Bei einer DNS Umschreibung kann man aber doch nur eine IP angeben und keinen Port. Muss man dann den Port von Unraid ändern, bzw. noch weitere Anpassungen bei NPM vornehmen? Ich hatte mich mit dem Thema schon mal letztes Jahr auseinander gesetzt, jedoch keine saubere Lösung gefunden.
-
I have Authelia working and had no problem installing it. I followed the 2021 guide and it was pretty easy.
Currently, I am finetuning some part.
The NGINX Config - Endpoint shows
set_real_ip_from 172.18.0.0/16;
set_real_ip_from 172.19.0.0/16;
The NGINX Config - Authelia shows
# If behind a reverse proxy, forwards the correct IP, assumes you're using Cloudflare. Adjust IP for your Docker network.
set_real_ip_from 172.19.0.0/16;
In other guides, different IP ranges are postet. A few even post 3 or 4 ranges.
My understanding is, that only the docker network has to be postet and both files should have the same network. In my case, authelia is running in bridge mode
"bridge 172.17.0.20:9091/TCP192.168.1.64:9091" so I would enter 172.17.0.0/16 and 192.168.1.0/16 does not have to be posted anywhere.
Is my understanding right?
Thx
-
1 hour ago, DarkMan83 said:
Ich kann dir da leider nicht helfen, mein Argo-Tunnel wurde gesperrt, da Cloudflare nur HTTP/HTTPS traffic untersützt und man für Videostreaming separat bezahlen soll...
Gruß
Dark
Hattest du denn das Caching an? Wenn das aus ist, sollte es ja eigentlich keine Probleme geben.
Gruß Christan
-
Keine Ahnung, aber vielleicht liegt es daran, dass du jetzt zwei Ordner mit dem gleichem Namen hast.
-
On 1/19/2022 at 2:56 PM, Acidcliff said:
Had a deeper look into that - thank you again for pointing that out. In fact while not being under load the GTX 1050 was running in P-Mode P0.
Instead of running a VM to get it down to P8 i used, which seems to work (haven't had yet the opportunity to measure the impact):
nvidia-smi --persistence-mode=1
Have you already tried powertop to further reduce the power consumption?
-
18 hours ago, 杨克强 said:
I use the 12600K + ASRock Z690 PG Riptide as solution. ASRock Z690 PG Riptide has 8 SATA3 + 3 M.2 + 1 PCIe 5.0 + 1 PCIe 4.0 + 3 PCIe 3.0 + 2.5G Eth , just RMB 1499 ,about $236.5, so cool !!!
I am also interested in the PG Riptide. How is the idle power draw? Is the NIC already working?
-
Wieso wird eigentlich Alder Lake immer aus der Gleichung gestrichen? Solange keine 100% Auslastung erzeugt wird, ist die Effizienz gut und es gibt ja auch Mainboards mit DDR 4 RAM welche zumindest erhältlich sind.
ECC RAM und GVT-g gibt es nun nicht mehr, wird aber auch nicht von jedem benötigt.
Vielleicht gibt es ja auch irgendwann SR-IOV Unterstützung für die Intel XE.
-
4 hours ago, Acidcliff said:
Adding a MSI Aero GTX 1050 2GB results in ~15-20 W additional idle power draw.
I think you have to pass through the gpu to the VM otherwise the gpu will work with full power.
Have you enabled any energy savings in the bios yet? The power consumptions seems quite high.
-
Tja, dann würde nur noch ein Mainboard fehlen.
-
Wo wir gerade bei "älteren" Netzteilen sind. Ich habe noch ein Straight Power E9 400Watt, welches laut diesem Review bei 5% Last (20Watt) bei 82,6 und bei 10% Last (40 Watt) bei 85,1 Effizienz sein soll.
https://www.pc-experience.de/wbb2/thread.php?threadid=32537
Wenn ich die Darstellung bei tewakpc richtig verstehe, dann wäre mein altes SP E9 400Watt ja deutlich effizienter als das aktuell Pure Power 11.
Das kann ich mir eigentlich nicht vorstellen.
Wo liegt denn hier der Denkfehler? Ich vergleiche zwar 400Watt mit 550Watt aber hier liegen ja ca. 10 Jahre Entwicklung dazwischen.
-
Eventuell würde ich sonst erstmal bis Januar warten und mir die non-Gaming Alder Lake Prozessoren angucken. Hier ist die Effizienz ja auch wieder deutlich besser, solange man die Prozessoren nicht voll auslastet. Nur GVT-g geht hier halt nicht.
Figro's Docker Repo Support Thread
in Docker Containers
Posted
Thanks for the hints, but I missed something else.
Under settings I had to activate the proxy. It was not mentioned here before, but was stated in the posted link about WARP.
It is working fine and looks like a even better solution then Zerotier or Tailscale.