pika

Members
  • Posts

    100
  • Joined

  • Last visited

Everything posted by pika

  1. i'm not sure what it looked like before... do i remove the whole line append initrd=/bzroot cx23885.card=35 or do i just delete the "cx23885.card=35" part so it looks like this: append initrd=/bzroot
  2. ah, okay! dvb-t works again. what more can i do to get dvb-s working?
  3. yes, multiple times. on the plugin settings page there are no cards, are there? also the "UPDATE & DOWNLOAD" button reappears after every reboot. huh. in tvheadend the dvb-t device shows up, no idea why DVB-T is "red" (inactive?):
  4. sure thing! datatower-diagnostics-20220903-0758.zip
  5. i couldn't watch any dvb-s channels anymore so i decided to update the plugin... after that my 2 cards (dvb-t2 usb + TeVii S471 DVB-S2 PCIe) won't show up anymore. after some investigations i found out that there's an unraid 6.10 already (was on 6.9.2) and also updated unraidOS but still no cards... you might say i should "update & download" but i have tried this (with a reboot afterwards) and the "update & download" button just reappears... root@DataTower:~# ls -la /dev/dvb total 0 drwxr-xr-x 3 root root 60 Sep 2 21:52 ./ drwxr-xr-x 17 root root 3440 Sep 2 21:52 ../ drwxr-xr-x 2 root root 120 Sep 2 21:52 adapter0/ this: just means i should hit the "update & download" button, right? previously everything worked with this entry:
  6. I'm going to reboot now. log shows zillions lines like this: Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [crit] 7671#7671: ngx_slab_alloc() failed: no memory Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: shpool alloc failed Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: nchan: Out of shared memory while allocating channel /cpuload. Increase nchan_max_reserved_memory. Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: *1773828 nchan: error publishing message (HTTP status code 507), client: unix:, server: , request: "POST /pub/cpuload?buffer_length=1 HTTP/1.1", host: "localhost" Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [crit] 7671#7671: ngx_slab_alloc() failed: no memory Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: shpool alloc failed Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: nchan: Out of shared memory while allocating channel /disks. Increase nchan_max_reserved_memory. Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: *1773829 nchan: error publishing message (HTTP status code 507), client: unix:, server: , request: "POST /pub/disks?buffer_length=1 HTTP/1.1", host: "localhost" Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [crit] 7671#7671: ngx_slab_alloc() failed: no memory Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: shpool alloc failed Jun 13 21:14:44 DataTower nginx: 2022/06/13 21:14:44 [error] 7671#7671: nchan: Out of shared memory while allocating channel /var. Increase nchan_max_reserved_memory.
  7. i had a power failure and my backup n.u.t. didn't do its job properly so i had a hard shutdown 9 days ago. now i have the same error again /var/log is getting full (currently 100 % used) can't even download diagnostics o_O waiting for over 5 minutes now... guess i should reboot? already had the same problem some weeks ago. wasn't sure if i should've revived that topic or post here
  8. ok, server rebooted and the errors is gone. Should i check anything else? there is/was probably something that caused nginx to flood the logs, right?
  9. Hello! Common Problems tells me "/var/log is getting full (currently 100 % used)". i've attached diagnostics. Thanks for any help datatower-diagnostics-20220321-1440.zip
  10. Habe gestern noch den gesamten Cache geleert und damit ist die Umleitung Geschichte. Ist in den docs von paperless-ngx beschrieben: Verstehe bloß nicht, warum Brave das mit dem Löschen der Daten für die eine Seite nicht hinbekommen hat. Aber das ist dann ja ein anderes Paar Schuhe!
  11. Update: Habe die Migration paperless > paperless-ngx jetzt riskiert: paperless Docker gestoppt Backup laufen lassen paperless share dupliziert zu paperless-ngx share paperless ordner in appdata dupliziert zu appdata/paperless-ngx redis docker installiert paperless-ngx docker installiert mit ziel auf die neuen shares/ordner Dokumente, Tags und Korrespondenten wurden soweit ich das sehe übernommen. Wollte nachher nochmal schauen, ob die Anzahl der Dokumente überein stimmt und habe den neuen Docker gestoppt und den alten wieder gestartet, und siehe da: ein Dokument, das im neuen Docker hinzugefügt wurde, ist auch im alten Docker vorhanden (in beiden Shares unter /media/originals/ vorhanden). Anschließend habe ich den alten wieder gestoppt und den neuen wieder gestartet und wieder ein Dokument hinzugefügt: das neue Dokument wurde im alten Share nicht unter /media/originals/ hinzugefügt. Man muss ja nicht alles verstehen leider leitet mir mein Browser (Brave) immer noch von / auf /admin um... Habe Cache für die Seite gelöscht, aber Umleitung ist immer noch aktiv. direkt auf /dashboard klappt zwar auch, aber wenn man vom unraid dashboard aufs webui zugreifen will wird die Seite / (und damit /admin) geöffnet...
  12. bin ja leider noch auf paperless (also ohne "ng" oder "ngx")...
  13. Hallo! Das "alte" paperless wird ja schon eine Weile nicht mehr unterstützt, doch ich habe mich noch nicht an die Migration zu -ng rangetraut und mittlerweile ist man ja auch -ngx übergegangen. Ich komme mit den Anleitungen https://paperless-ngx.readthedocs.io/en/latest/setup.html#migrating-from-paperless leider nicht ganz zurecht und möchte meine vorhandene Daten nicht verlieren. In den verschiedenen Support Threads konnte ich leider keine Hilfe erfahren. Vielleicht findet sich ja hier jemand, der mir zur Seite stehen könnte Schönen Tag!
  14. i've never made the migration from paperless to paperless-ng and so i'm still on the deprecated docker... could somebody help me with the migration from paperless to paperless-ngx?
  15. Achgott. Wenn ich das richtig sehe, reicht der Eintrag dieser Parameter in der nextcloud.subdomain.conf versucht: location = /.well-known/webfinger { return 301 $scheme://$host:$server_port/index.php/.well-known/webfinger; } location = /.well-known/nodeinfo { return 301 $scheme://$host:$server_port/index.php/.well-known/nodeinfo; } Jetzt zeigts bei allen Browsern , dass aller Sicherheitsüberprüfungen bestanden wurden. Außer auf dem genutzten Browser auf meinem Hauptrechner. Da scheinen die Meldungen immer noch auf, obwohl cache und cookies für die Seite gelöscht. Nach dem dritten mal Löschen und einige Zeit später nun auch auf dem "Hauptbrowser" alles ok. Somit ist alles geklärt. Nochmal vielen Dank für die Hilfe!
  16. Danke für die Aufklärung! Appdata hab ich nur aufm Cache, allerdings mit prefer, zurzeit ist das Laufwerk kaum ausgelastet. Werde wohl trotzdem nicht umstellen (wer weiß, ob ich mich in ferner Zukunft - wenn das Cache Laufwerk mal voll wird - noch an das Thema erinne), die Performance hat nach dem Deaktivieren der Plugins deutlich zugenommen. Habe jetzt nur noch die Fehlermeldung zu den well-known Pfaden: Habe mehrere Lösungsvorschläge gefunden um die Nginx Datei abzuändern, aber webfinger und nodeinfo sind immer bestehen geblieben...
  17. heißt das im endeffekt, dass man bei allen dockern den pfad mit /mnt/cache/appdata/* anstatt /mnt/user/appdata/* angeben sollte? sollte das unraid nicht selbst so hinkriegen, dass es keinen unterschied macht?
  18. oh, da war ich ja auf dem holzweg das hier (docker mariadb) auf /mnt/cache/appdata/mariadb ? appdata ist zu 100% auf dem cache.
  19. 10x schneller klingt immer gut mit "Pfad der Datenbank" ist das hier gemeint, richtig? Wenn ich so vorgehe, sollte es klappen, oder? 1. share nextcloud auf "Prefer : Cache" setzen 2. mover starten 3. host path 2 im Docker auf /mnt/cache/nextcloud/ setzen die Geschwindigkeit hat sich durch deaktivieren einiger Plugins schon deutlich gebessert, stört nichtmal mehr. Möchte aber grundsätzlich das Share vom Array weghaben, da eine Platte dank Nextcloud nie runterfährt.
  20. zurzeit liegen die daten noch auf dem array, da das share viel zu groß ist. muss ich tatsächlich für 500mb genutzten speicher knapp 3gb auf dem array nutzen? Plugins muss ich mal schauen, brauche eigtl. kaum etwas!
  21. Hallo! Bei mir läuft nextcloud (+swag) sehr sehr langsam. Habe im deutschen Forum hier schon einige Posts dazu gesehen, konnte das Problem allerdings nicht lösen... Appdate ist auf ssd/cache: Hier der Netzwerkmitschnitt beim Laden der Login-Seite: Grundsätzlich wollte ich auch die Daten auf die Cache schieben, aber irgendwie ist das share viel zu groß: Die Daten der beiden User umfassen keinen halben GB, des weiteren werden neben Dateiablage nur Telefonbuch und Kalender genutzt (dürften keine relevanten Mengen sein). Auf dem Share liegt folgender Ordner, der mir nichts sagt: im letzten Ordern "updater-..." sind wohl auch die Backups der letzten Versionen drinnen, denke die kann ich löschen (läuft ja ansonste wie immer), aber was ist insbesondere mit dem ersten Ordner? appdata sollte hier ja eigtl. nichts zu suchen haben, oder? Würde mich über eure Hilfe freuen, damit meine Cloud bissl in Schwung kommt.
  22. Hello! i'm still on the deprecated paperless docker and tbh i'm not sure my setup will survive a migration. i've read the migrations docs but these docs are not unraid related and so it's already a level too much for me. usually i'd try to make it work with trial & error but with all my docs in the background i don't think thats a good idea. me approach would be: - make backup of /mnt/cache/appdata/paperless - stop paperless docker - install "some" redis docker (JJ9987's? there's an "official" badge there...) - install paperless-ng docker from CA and follow point 2 from OP of this thread (same user / password as on my old/existing paperless?) - have all my docs in the "new" paperless-ng ? can't be that simple, can it? and what am i to do with the paperless-consumer docker that i have running atm? would somebody be so kind to help me out here?
  23. i made a test with openVPN Client for Windows and there i got much better speed. should i still contact NordVPN or should i contact dperson?
  24. bah, the NordVPN docker won't connect anymore so i'm back to @ich777 openVPN container but i still have the trouble with extremely slow speed. Is anyone using this container with the provider nordVPN?
  25. my docker won't connect anymore: [2021-09-15T19:38:54+02:00] Waiting for the service to start [2021-09-15T19:38:54+02:00] Logging in [2021-09-15T19:38:56+02:00] Setting up NordVPN Version 3.10.0 CyberSec is already set to 'disabled'. DNS is already set to '1.0.0.1, 1.1.1.1, 8.8.8.8'. Technology is already set to 'NordLynx'. Subnet 172.17.0.0/16 is whitelisted successfully. Subnet 192.168.0.0/24 is whitelisted successfully. [2021-09-15T19:38:57+02:00] Connecting... stays like this and nothing more happens