BuTscH

Members
  • Posts

    70
  • Joined

  • Last visited

Everything posted by BuTscH

  1. While going through the system logs, I noticed these messages. Aug 21 19:53:51 Unimatrix01 smbd[11331]: INTERNAL ERROR: smbd_scavenger_parent_dead in pid 11331 (4.17.7) Aug 26 22:35:23 Unimatrix01 smbd[9310]: PANIC: assert failed at ../../source3/smbd/fd_handle.c(39): (fh->fd == -1) || (fh->fd == AT_FDCWD) Aug 26 22:35:23 Unimatrix01 smbd[9310]: INTERNAL ERROR: assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in pid 9310 (4.17.7) Aug 26 22:35:23 Unimatrix01 smbd[9310]: PANIC (pid 9310): assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in 4.17.7 Aug 27 03:01:22 Unimatrix01 smbd[32340]: PANIC: assert failed at ../../source3/smbd/fd_handle.c(39): (fh->fd == -1) || (fh->fd == AT_FDCWD) Aug 27 03:01:22 Unimatrix01 smbd[32340]: INTERNAL ERROR: assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in pid 32340 (4.17.7) Aug 27 03:01:22 Unimatrix01 smbd[32340]: PANIC (pid 32340): assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in 4.17.7 Does anyone know what they mean? I haven't noticed any negative impacts so far. These messages didn't occur in version 6.11.5 for me.
  2. @Anym001Bei mir funktioniert die Variable mit dem Container von linuxserver.io zumindest nicht. Ich glaube das Funktioniert nur im Official Container von Knex666?
  3. Grüße! Ich verwende auch den nextcloud Container von linuxserver.io. Anscheinend gibt es bezüglich der Anpassung unterschiede zum Official Container. Dort musste diese Datei editiert werden: /mnt/user/appdata/nextcloud/php/php-local.ini Sieht dann bei mir wie folgt aus: date.timezone = Europe/London memory_limit = 2G post_max_size = 32G upload_max_filesize = 32G max_execution_time = 3600 max_input_time = 3600 Danach muss noch die client_max_body_size editiert werden je nachdem welche größe du verwendest: /mnt/user/appdata/nextcloud/nginx/site-confs/default.conf client_max_body_size 32G;
  4. Ahh, es könnte sein das bluez noch nötig ist da bin ich mir aber nichtmehr 100% sicher. Früher war das auch mal im nerdpack was es aber nichtmehr gibt. Um das zu Installieren musst du das einfach in den "/boot/extra" Ordner packen und neustarten. Dann wird es automatisch installiert. https://slackware.pkgs.org/15.0/slackware-x86_64/bluez-5.63-x86_64-2.txz.html
  5. Installieren musste ich nichts. In Unraid habe ich das Bluetooth Modul mit dem Befehl gestartet /etc/rc.d/rc.bluetooth start Den Befehl musst du bei jedem neustart von Unraid neu eingeben deswegen bietet es sich an den in die go Datei zu schreiben. Im Home Assistant Docker habe ich /run/dbus durchgerreicht. Das war es schon ist aber auch schon eine weile her das ich es ausprobiert habe zurzeit verwende ich weder Home Assistant noch Bluetooth auf Unraid.
  6. Grüße! Bluetooth hatte ich mit einer wlan karte 6E AX210 mal ausprobiert. Das konnte ich konnte ich ohne Probleme an den Home Assistant Docker durchreichen. Nur mit der Reichweite trotz Antennen war ich nich zufrieden deswegen gings wieder zurück.
  7. wow that was fast! Many thanks for your effort. 🙂
  8. Greetings! I have updated the Docker to the latest version. But unfortunately now I don't have the possibility to select the NDI plugin.
  9. Sure that would be this page here: https://www.torproject.org/de/download/ The Linux version. No need to hurry it would just be nice not to always have to start a VM just to use the Tor-Browser 🙂
  10. Greetings! I have a question. I already use your firefox docker and am super happy with it. Would it be possible for you to make such a docker with the Tor-Browser?
  11. Ansich müsste es gehen wenn du in deiner nextcloud.subdomain.conf Den Eintrag: set $upstream_app nextcloud; änderst in: set $upstream ip; Bei ip musst du natürlich dann die ip deines nextcloud Docker eintragen.
  12. Ok Nevermind war nur zu blöd... ^^ Hatte bei der Volumenzuordnungen beim Container /opt/unbound/etc/unbound/ aber nachdem ich es zu /opt/unbound/etc/unbound geändert habe sind auch die fehler verschwunden.
  13. Grüße! Da alles was noch auf meinem pi läuft nun auf Unraid laufen soll habe ich mir im Zuge dessen statt pihole mal AdGuard angeschaut und es hat mich überzeugt. AdGuard und Unbound laufen soweit auch aber in der Konsole zu Unbound tauchen ein paar Fehler auf. Wie gesagt der Docker startet und läuft auch aber ich würde dennoch gerne wissen ob es “problematisch“ ist. Da der Unbound Docker der hier bei den Apps angeboten wird nicht mehr geflegt wird hatte ich selbst ein Template mit dem Docker von mvance/unbound erstellt. Im Appdata verzeichniss von Unbound habe ich auch die unbound.conf und root.hints angelegt. Hier noch meine unbound.conf
  14. Bei mir lag es beim Update auf 6.11.1 an access based share enum = Yes Gab auch eige Post dazu aber keine ahnung ob es mittlerweile eine lösung dazu gibt.
  15. Super freut mich zu hören das es noch geklappt hat
  16. Merkwürdig... 🤨 ich habe grade zum testen mal einen ganz frischen Matrix-Synapse Docker erstellt die Standard config so gelassen wie sie vom server erstellt wird und konnte mit: register_new_matrix_user -c /data/homeserver.yaml http://0.0.0.0:8008 im Docker sofort ohne Probleme einen User erstellen. Benutzt du denn den Matrix-Synapse Docker? Oder einen anderen?
  17. Sieht für mich so aus als ob du nicht zu deiner database connecten kannst. Benutzt du den Matrix-Synapse Docker? Falls ja Versuch zum testen mal die Standard config die der Server beim ersten start erstellt. Wenn es dort klappt weißt du zumindest das es daran liegt ^^ Edit: Zu Postgres hab ich folgendes gefunden vielleicht hilft dir das ja weiter: https://github.com/matrix-org/synapse/blob/develop/docs/postgres.md Ansonsten kann ich leider nicht viel dazu sagen da ich die Interne sqlite3 Database vom Matrix Server benutze.
  18. Ich weiß zwar nicht was du genau bis jetzt versucht hast aber... Öffne mal die Konsole vom Matrix Docker Container und gib folgendes ein: register_new_matrix_user -c /data/homeserver.yaml http://0.0.0.0:8008 Dann solltest du einen neuen Nutzer Anlegen können.
  19. yes thanks I have closed it because under 6.11.1 everything works normally again
  20. Mit dem Nginx-Proxy-Manager kenne ich mich leider nicht aus da müsste sich das mal jemand anschauen der sich damit auskennt.
  21. Einfach mal ein schuß ins blaue haste du dies zu deinem ReversProxy hinzugefügt? location /.well-known/matrix/client { return 200 '{"m.server": {"base_url": "deinematrixadresse:443"}}'; default_type application/json; add_header Access-Control-Allow-Origin *; } location /.well-known/matrix/server { default_type application/json; add_header Access-Control-Allow-Origin *; return 200 '{"m.server":"deinematrixadresse:443"}'; } Danach solltest du eigentlich in der Lage sein mit leuten von anderen Matrix servern zu schreiben. Hier bei Step 7 gut berschrieben https://theselfhostingblog.com/posts/self-hosting-your-own-matrix-server-on-a-raspberry-pi/
  22. Greetings, I have since the 6.11 update exactly the same problem.
  23. Unfortunately it doesn't work and the stream just stops when the limt is reached. It doesn't seem to me that emby would delete anything to free up memory.
  24. I found the following on the Emby forum https://emby.media/community/index.php?/topic/79091-make-sure-i-understand-size-requirements-for-the-transcoding-directory/#comment-804641 In a post from July 8 the admin said the following: "If the server detects low disk space then it will clean up transcoding segments on the fly as you go in order to conserve space." So if it works as intended, the script should no longer be necessary right?
  25. Out of curiosity I would like to try transcoding to ram in emby. If I have understood it correctly you have to enter the following in Emby Docker in "Extra Parameter": --mount type=tmpfs,destination=/transcode,tmpfs-size=4000000000 And in Emby in "Transcoding temporary path": /transcode Is it still necessary to use the script which deletes data after a certain time so that the ram doesn't overflow or has something changed in the meantime?