vakilando

Moderators
  • Posts

    370
  • Joined

  • Last visited

Everything posted by vakilando

  1. Du hast eine Crucial MX500 SSD....? Die hat einen Firmware Bug, da ist diese Meldung "normal". Meines Wissens ist die einzige bekannte "Lösung" das Deaktivieren dieser Smart Meldung (197).
  2. Ich habe einen Canon i-SENSYS Mf635cx und bin hochzufrieden. Er kann ftp/smb, OCR (wichtig!) und doppelseitig. Ursprünglich habe ich den geholt da es eine gute Linux Unterstützung gibt, haben die Brothers aber meines Wissens auch.
  3. hab grad keine Zeit, aber schau mal in diese Threads rein. Wichtig sind auch die dort verlinkten Videos (bzgl. GPU Passthrough),
  4. Hallo @PhilDE, Ich habe mich vor ungefähr einem Jahr zu so einer Lösung entschieden wie du hier quasi anfragst... Ich habe einen recht potenten Unraid Server auf dem einige Docker und einige VMs laufen. VM 1: Linux Mint: meine täglich genutzte Maschine als Desktop-Ersatz (Nvidia GTX 745 mit Direktausgabe an Monitor) VM 2: Win10: meine Maschine für Software, die es unter Linux nicht gibt und für Gaming (Nvidia GTX 1050 ti mit Direktausgabe an Monitor) VM 3: Mailserver (SOGo) VM 4: Debian Testserver (Docker) VM 5: Linux Ubuntu (Nvidia GTX 1050 ti mit Direktausgabe an Monitor) Die Linux Mint VM wird so gut wie nie ausgeschaltet - nur fürs Backup der VM - und ich bin eigentlich sehr zufrieden mit der Lösung. Als Notfalllösung habe ich ein altes Notebook, mit dem ich zur Not gucken kann was nicht laufen sollte wenn mal die VM abstürzen / nicht starten sollte oder so.
  5. Verwendet (dein) Paperless-ng eine interne Datenbank (wie H2) oder einen externen Docker (z.B. mariadb oder postgresql als Docker)? Hast du beim erneuten Setup die Wahl der Datenbank gehabt oder wurde eine neue angelegt?
  6. ok, is auch eine Möglichkeit. Ich exportiere die system share gar nicht erst.
  7. # Ja, Oberfläche, Unterstützung vieler Dateitypen, Autotagging und Autoimport war für mich ausschlaggebend. Die "Klassifizierungmethode" mit Tags/Correspondent Org,Person/Concerning Person,Equipment ist etwas tricky, aber gut gelöst, wenn man sich ein "Modell" ausdenkt. ....zu viel.... Ich habe erst mal die ganzen Mails mit Rechnungen importiert (ca. 400). Jetzt werde ich Stück für Stück die Ordner mit den ganzen sonstigen Papierrechngen einscannen, dann alles andere spezifische wie Gesundeheit, Wohnung, Arbeit, .... Allerdings werde ich die Papierversionen noch ein wenig länger aufheben - fühle mich ein wenig unwohl so ganz ohne Papierbackup. Ich mache zwar regelmäßige DB und Doscpell-Backups / -Exports, aber dennoch......Papierbackup.
  8. hmm, mariadb updates installiere ich mittlerweile auch ohne nachzudenken... hast du eine Sicherung der Datenbanken? Hast du phpmyadmin, wenn ja, ist eine Verbindung zu mariadb so möglich? Dann könntest du eine Sicherung ziehen. Wenn du in der mariadb Dockerkonfiguration keinen bestimmten tag angegeben hast, könntest du nun einen (älteren) angeben und schauen ob mariadb wieder funzt.
  9. Ich verwende docspell: https://docspell.org/ und https://github.com/eikek/docspell Da es keine Unraid Templates dafür gibt, habe ich (mir) welche erstellt inkl. Installationsanleitung: https://github.com/vakilando/unraid-docker-templates Es gibt einen (kleinen) docspell Thread im Forum: ...und wenn du das Gefühl hast im obigen docspell-thread fehlt was....hier ist der Anfang: Ich möchte docspell nicht mehr missen.... Besonders die Anzahl der unterstützen Dateitypen (pdf, doc/x, xls/x, ods, odt, eml, rtf, html) haben mich überzeugt
  10. Du verwendest auch mariadb von linuxserver.io, richtig? Hast du einen bestimmten tag angegeben oder keinen (für "latest")? Also ich habe das letzte update noch nicht gemacht und sehe in den Logs folgende wichtige Info: ------------------------------------- _ () | | ___ _ __ | | / __| | | / \ | | \__ \ | | | () | |_| |___/ |_| \__/ Brought to you by linuxserver.io ------------------------------------- To support LSIO projects visit: https://www.linuxserver.io/donate/ ------------------------------------- GID/UID ------------------------------------- User uid: 99 User gid: 100 ------------------------------------- [cont-init.d] 10-adduser: exited 0. [cont-init.d] 30-config: executing... [cont-init.d] 30-config: exited 0. [cont-init.d] 40-initialise-db: executing... [cont-init.d] 40-initialise-db: exited 0. [cont-init.d] 90-warning: executing... ****************************************************** ****************************************************** * * * * * This image will soon be rebased * * from ubuntu to alpine. * * Please be aware, this may cause issues * * It is strongly recommended to make backups * * of your config and databases before * * updating your image to the alpine base. * * * * * ****************************************************** ****************************************************** [cont-init.d] 90-warning: exited 0. [cont-init.d] 99-custom-scripts: executing... [custom-init] no custom files found exiting... [cont-init.d] 99-custom-scripts: exited 0. [cont-init.d] done. [services.d] starting services [services.d] done. 210503 03:53:14 mysqld_safe Logging to syslog. 210503 03:53:14 mysqld_safe Starting mysqld daemon with databases from /config/databases (wäre mir jetzt ohne diesen Post auch nicht aufgefallen....) Allerdings ist die alpine Version wohl noch nicht im tag "latest". Siehe auch https://hub.docker.com/layers/linuxserver/mariadb/latest/images/sha256-3dd8059d6be2d6766a954f32b1449d7af2260eda41637e4ec50da1bf1c46e7d8?context=explore Hast du hier schon geschaut ob es entsprechende Meldungen gibt?
  11. I know, it's an old thread... I have the same problems with two Crucial MX500 1 TB. They are configured as a BTRFS-Pool for my virtual machines. I have the problem that when I turn off the reporting of the Attribute 197 (Current pending sector count) for these two drives by unchecking the checkbox, it magically gets turned on (checked) again after a while...? Anybody else having this problem?
  12. Hi, ich verwende den Home Assistant Core Docker und habe den Supervisor noch nie vermisst. Weil ich ihn schlichtweg nicht kenne.... Beides zusammen (Home Assistant Core Docker und Hassio Supervisor) geht scheinbar nicht: Quelle 1: https://community.home-assistant.io/t/where-is-supervisor-hassio-from-home-assistant-installed-via-docker/172853/38 Quelle 2: https://www.home-assistant.io/installation#alternative-install-on-a-generic-linux-host Blöde Frage von mir...... wozu brauchst du den supervisor?
  13. Shares bzw Freigaben können ohne Probleme umbenannt werden. Nur wenn dort VMs oder Docker Daten drauf liegen musst du ggf in der VM bzw Docker Konfiguration den Pfad entsprechend anpassen.
  14. Zusätzlich kannst (solltest 🤔 😉) du über das Plugin CA Appdata Backup/Restore v2 aus den Community Applications die Dockerdaten (appdata) regelmäßig sichern lassen. CA Appdata Backup/Restore stoppt die Docker, erledigt die Sicherung und starten die Docker dann wieder. Ich habe bei meiner appdata share unter use cache/benutze den Cache eingestellt: only/nur (prefer/bevorzugt ist auch möglich). So laufen die Docker flotter, da immer alles auf dem Cache verbleibt und das Array kann schalfen.
  15. Just updated to version 21.3.4 (image from coppit). Xeoma still works as expected (webUI, Client on Linux/Android). Waiting some time to see if all the schemes/chains (with http-switches, automations in home assistant) still work as expected... my xeoma.conf looks like this now: # The password for clients to use to connect. Avoid backslashes and apostrophes. PASSWORD='nonononotshownhere' # The version to use. Valid values are a string like '17.5.5', 'latest', 'latest_beta', or a URL. #VERSION='latest' #VERSION='19.4.22' #VERSION='19.11.26' #VERSION='20.4.28' #VERSION='20.11.30' VERSION='21.3.4'
  16. Stimmt, kann ich bestätigen. Ja, hab ich auch... @ich777 ist es wirklich safe das zu ignorieren? Hmmja, kein error, aber es würde mich dennoch beunruhigen wenn ein solcher link down einer Array HDD als unkritisch gesehen wird. SATA Hot-plug Einstellung im BIOS hin oder her, davon weiß unraid ja nichts. Ich frag mich gerade ob eine eigene Überwachung des Protokolls auf bestimmte Einträge möglich bzw sinnvoll ist.
  17. Sehr interessant, danke für diesen Test + Bericht! Mir sind mal kurz hintereinander beide Cache SSD aus einem btrfs Cache Pool mit 2 SSDs ausgefallen - und in der Tat habe ich damals den Ausfall der ersten SSD auch nur durch Zufall entdeckt durch Einträge im Log... Weiter verfolgt habe ich dieses Verhalten damals nicht, da mich der Grund des Ausfalls stark beschäftigt hat. Glücklicherweise habe ich es damals rechtzeitig bemerkt und aktuelle Backups. Damaliger Thread Diese Verhalten sollte mal genauer untersucht werden. Habt ihr eine Idee? @mgutt , @ich777
  18. Moin, die Dateien der Container liegen nicht im Arbeitsspeicher, sondern in einem Festplatten-Abbild, welches eine feste (aber einstellbare) Größe hat. Wenn nun "zu viele" Docker installiert werden, passen die nicht mehr in das Festplatten-Abbild "docker.img" rein und du bekommst diese Meldung. Du musst also zuerst unter settings/Einstellungen gehen und unter dem Punkt "Docker" alle Docker beenden und anschließend kannst du die Größe des docker.img anpassen. Danach kannst du Docker wieder starten.
  19. Ach ja Borg backup habe ich auch schon genutzt (ist in Nerd tools drin). Es ist gut und zuverlässig (backup und restore), aber wegen der GUI bin ich zu duplicacy gewechselt.
  20. Ich nutze Strato hidrive mit ssh Zugang und duplicacy. Mit duplicati habe auch ich leider (beim restore) schlechte Erfahrungen gemacht.
  21. habe ich nie gemessen, will aber bei Gelegenheit mal eine HMIP Schalt-Mess-Steckdose dransetzen... Ja freilich... 😀
  22. Parsec? Hast du doch schon selbst vorgeschlagen oder verstehe ich da was falsch? Ansonsten jeden beliebigen VNC Client. Unraid selbst bekanntlich Von Parsec habe ich schon gehört, aber das wars denn auch schon. Ich verwende auch ganz gerne "NoMachine". Üblich ist ein Array aus HDDs mit einer Parity und ein Cache bestehend aus zwei SSDs im RAID1, auf der dann auch die Disk-Images der VMs liegen. Das sehe ich genau so. Ich habe es weiter "verfeinert": Ich habe ein Array aus 2x4TB WD Red eine Parity mit einer 4TB WD Red einen Cache-Pool (2xSSD in BTRFS RAID1) für - "appdata" Share/Freigabe für die Dockerverzeichnisse - "system" Share/Freigabe mit libvirt Image und docker (als Verzeichnis und nicht als image) - den Cache anderer Freigaben einen VM-Pool (2xSSD in BTRFS RAID1) für - alle VMs - Ordnerumleitungen der VMS weitere als unassingned devices (1x Backup, 1x Kameraaufnahmen) Mein System ähnelt sehr deinen Komponenten... Ryzen 9 3900x Asus Rog Strix x570E Gaming Mainboard 64 Gb Ram
  23. Meine Container sehen ähnlich aus und es funktioniert tadellos. Deine beiden Container haben allerdings bridge Netzwerk, ich verwende dagegen br0 Netzwerk (und kann somit eigene IPs vergeben).
  24. Mehrere Datenbanken im einem Container sind völlig in Ordnung, du installierst ja auch nicht separate 5 Datenbankserver für 5 Anwendungen, die eine Datenbank benötigen. Zu Testzwecken dagegen oder zur Trennung kritischer Anwendungen von Spielereien sind unterschiedliche Docker Container (bzw. Server ggf. sinnvoll)