vakilando

Moderators
  • Content Count

    143
  • Joined

  • Last visited

Community Reputation

35 Good

About vakilando

  • Rank
    Member

Converted

  • Gender
    Male
  • Location
    Germany

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Eröffne vielleicht auch einen Github issue für dein joex crash problem? ***> ______ _ _ ***> | _ \ | | | ***> | | | |___ ___ ___ _ __ ___| | | ***> | | | / _ \ / __/ __| '_ \ / _ \ | | ***> | |/ / (_) | (__\__ \ |_) | __/ | | ***> |___/ \___/ \___|___/ .__/ \___|_|_| ***> | | ***> |_| v0.20.0 (#4d3a25a8) ***> << JOEX >> ***> Id: joex1 ***> Base-Url: http://192.168.178.4:7878 ***> Database: jdbc:postgresql://192.168.178.6:5432/docspell ***> Fts: http://192.168.178.2:8983/solr/docspell ***> Config: /opt/docspell.conf ***> [ioapp-comput
  2. bei mir schauts so aus: Hast du ein issue auf Github eröffnet bzgl. des BBox-Fehlers?
  3. Dann verwende doch einfach das existierende Beispiel von swag unter "/swag/nginx/proxy-confs/homeassistant.subdomain.conf". Setze deine Dyndns subdomain bei "server_name deinesubdomain.*;" ein. Dann ersetze "set $upstream_app containername" durch "set $upstream_app deine.ip.adr.esse"
  4. Standardmäßig verbleiben dort die Dokumente. Es ist wie ein "Fileserver" zu sehen. Dokumente die dort hin gelegt werden können auch umbenannt und in einer Ordnerstruktur organisiert werden. Docspell erkennt bereits hochgeladene Dokumente und wird sie - auch nach "Reorganisierung - nicht nocheinmal importieren. Siehe https://docspell.org/docs/feed/#scanners-watch-directories Es gibt jedoch auch die Möglichkeit dieses Consumedir Verzeichnis ("docs") aufzuräumen. Dokumente werden dann entweder "archiviert" oder gelöscht, je nach Einstellung. Siehe https://docspell.org/docs/tools
  5. Name ist der von dir vergebene Name Schlüssel ist der Variablen Namen Wert ist der Variablenwert Brauchst du aber nicht, denn ob über extra parameters oder so bleibt sich gleich. Geh bitte in die Prozessliste/Warteschlange und lösche die nicht erfolgreich beendeten tasks (Kreuzchen oben rechts)
  6. Das ist schon mal gut! Mal schauen ob ich das in das Template einbaue. Das joex log sieht ansich ganz gut aus. Auf fallend ist: ...aber der Output zu einer PDF/A-2B ist erfolgreich... Wenn auch Sie fast 6 mal so groß ist wie das Original... Auch erfolgreich: die Text Extraktion und die Aktualisierung der Volltextsuche. Allerdings scheint er bei der Erstellung des Vorschaubildes stehen zu bleiben... Ist das Dokument nachher evtl. ohne Vorschaubild in der webui zu finden?
  7. Auch das Anlegen einer Variable sollte möglich sein (Joex Container => Edit => Add another Path, Port, Variable, Label or Device => ...) Wenn das funktioniert könnte ich in mein Template auch diese neue Variable definieren. Die wäre dann aber immer da und müsste eventuell von Hand angepasst werden... (...) <Variable> <Value>-Xms256m -Xmx2500m</Value> <Name>JAVA_OPTS</Name> <Mode/> </Variable> </Environment> (...) <Config Name="JAVA_OPTS" Target="JAVA_OPTS" Default="-Xms256m -Xmx2500m" Mode="" Des
  8. hmm, "java.lang.OutOfMemoryError: Java heap space" ist offensichtlich das Problem..... Vielleicht waren 300 Belege zu viel? Sind die einzelnen Dateien groß? Wieviele wurden erfolgreich importiert? Kannst du die (noch nicht importierten) Belege aus dem Importverzeichnis entfernen und schauen ob joex dann nicht mehr beendet wird? Es gibt auf Github ein issue (geschlossen) dem ich aber nicht entnehmen kann wie das Problem gelöst wurde: issue 284 In der Doku steht auch was, aber auch hier kann ich nicht herauslesen wie der Wert gesetzt wird: hier unter Memory usage
  9. Ich würde, wie @JoergHH es chon sagt, ebenso homeassistant als docker laufen lassen (tue ich auch), es sei denn du hast gute Gründe (welche?) dies nicht zu tun. Prinzipiell aber sollte es kein Problem sein die VM bzw die IP des homeassistant auf der VM in swag einzurichten wie es auch bei docker containern gemacht werden kann. Ich greife so auf meine VM zu auf der SOGo läuft
  10. @mgutt wäre es evtl bei der Fehlersuche hilfreich den Cache mit nur einer nvme zu konfigurieren (kein btrfs RAID1) und dann zu schauen ob der Server einen s3 Sleep "überlebt"?
  11. Wenn ich das richtig sehe, ist das von dir genannte Script der Consumedir Container. Wenn du das Verzeichnis "/mnt/appdata/docspell/docs" angelegt hast musst du noch einen Unterordner erstellen, der den Namen deines "Collective" trägt. Dort legst du die Dokumente ab und die werden dann automatisch importiert. was sagen die Joex Logs?
  12. Nein, leider nicht. Es gibt aber ein issue bzw Feature Request auf Github "Nested folders & Tags" hierzu, dem könntest du dich "anschließen". Habe mich dem auch angeschlossen, da ich finde es wäre eine zusätzliche und praktische Sortier- und Suchmöglichkeit.
  13. oh, sorry, nein du musst es auf "open" stellen! Ich habs natürlich nach erfolgreicher installation auf closed gesetzt, weil ich die user selbst anlegen bzw. einladen will.
  14. https://docspell.org/docs/install/installing/ Punkt 4. Goto http://localhost:7880, signup and login. When signing up, you can choose the same name for collective and user. Then login with this name and the password Gehe auf die Login Seite und lege ein Konto an (sign up). Gib den Namen für das "Collective", deinen Usernamen und dein Passwort an. Anmelden musst du dich später immer in der Form "Collective/Username" und dein Passwort. Wenn du der einzige User bist und immer der einzige sein wirst, dann verwende am besten "Username/Username". Also "Collective"="U
  15. Wenn möglich würde ich den Server mal mit einer Live Linux Disti oder so von einem USB Stick starten und schauen ob die NVME wirklich defekt ist bevor eine RMA des Boards in Betracht gezogen wird. Kannst ja auch die Slots mal tauschen bei diesem Test. Das hab ich mich auch schon mal gefragt.....!!! Ich hatte mal ein ähnliches Problem weil Unraid eine meiner SSDs "totgeschrieben" hat und habe es nur per Zufall (wie du) gemerkt. Google einfach mal (unraid massive writes). Seitdem habe ich kein BTRFS Cache Pool (RAID1) mehr sondern nur eine einzelne (XFS)..... Mit dem Up