speedycxd

Members
  • Posts

    174
  • Joined

  • Last visited

Everything posted by speedycxd

  1. Hallo, ich nutze auf meinem Server auch Bitwarden und wollte jetzt noch eine 2FA nutzen via YUBIKEY 5NFC. Ich habe zwar gelesen das es funktionieren soll, wollte aber trotzdem erstmal fragen ob das jemand nutzt von euch. VG Edit: Funktioniert alles mit dem Yubikey 5 NFC
  2. Danke, okay dann müsste es mit dem anderen Modell ja auch so Funktionieren.
  3. Hallo, ich wollte mir auch eine USV zulegen. Unterstützt Unraid die CyberPower Brics LCD 700VA? Muss da sonst noch was eingestellt werden? Oder einfach nur anschließen und fertig?
  4. Wird ja erstmal Lokal gespeichert. Dafür ist der Cache da, der nur für die Cloud zuständig ist. Aber da es eine Automatic ist macht es weinig Sinn das ganze nur ab und zu zu mounten.
  5. Das funktioniert aber nicht wenn man Radarr/Sonarr nutzen möchte. Da muss schon ein dauerhafter mount zur Verfügung stehen. Ich habe bis jetzt nur einmal das Problem gehabt, dass der mount sich gelöst hat, ansonsten klappt es wunderbar.
  6. Vielleicht solltest Du mal einen anderen Mount script nutzen? Ich mache das ohne mergerfs, und ich lade auch über einen Cache mit Radarr/Sonarr auf die Cloud hoch. Mein Script setzt sich folgt zusammen: --vfs-cache-mode full (wichtig damit wird vfs cache aktiviert --cache-dir=/PFAD/ALS/CACHE/ oder weglassen dann is default im rclone ordner --vfs-write-back 6m (wie lange soll gewartet werden bis file hochgeladen wird - default is 5 sekunden) --vfs-cache-max-size 900G (wie groß dein cache ordner werden darf) Schaut dann im ganzen so aus: rclone mount Data: /mnt/remotes/Data --allow-other --allow-non-empty --umask 002 --poll-interval 10s --dir-cache-time 5000h --cache-dir=/mnt/disks/Samsung_860_Pro/gcache --vfs-cache-mode full --vfs-cache-poll-interval 5m --vfs-cache-max-age 20h --vfs-cache-max-size 950G --drive-pacer-min-sleep 10ms --drive-pacer-burst 200 &
  7. Ok I see, how would I have to proceed so that I can specify this as a local path? Or how can I mount this without loading rootfs?
  8. Hello, I was wondering why Radarr always fills up my rootfs or ram. I use an encrypted gdrive with rclone. And somehow the cloud is not displayed under location. But I can retrieve or read the media under Movies. What am I doing wrong?
  9. Ok, Problem ist gefunden. Der Docker hat mein Laufwerk auf das geschrieben werden soll nicht in der Location gemountet. Warum das so ist verstehe ich noch nicht, weil die angaben soweit richtig sind. Ich werde mal den Supporter des Containers fragen. Vielen dank erstmal.
  10. Nein es ist alles normal, und das passiert ja auch nur bei einer ganz bestimmten Aktion in dem jeweiligen Docker. Ich werde dort nochmal genauer schauen. Kann ich das ermitteln wenn diese Aktion ausgeführt wird? Mit df -h sehe ich ja nur das rootfs voll läuft.
  11. Die Ausgabe sagt: 28M /usr/lib64/libicudata.so.68.1 28M /usr/lib64/libicudata.so.67.1 12M /tmp/community.applications/tempFiles/templates.json 12M /tmp/community.applications/tempFiles 12M /tmp/community.applications 7.1M /etc/udev/hwdb.bin 5.8M /usr/local/emhttp/plugins/dynamix.vm.manager 5.8M /lib/udev/hwdb.d 5.4M /tmp/CA_logs/ca_log.txt 5.2M /tmp/fix.common.problems/templates.json 5.2M /tmp/fix.common.problems 4.9M /usr/local/emhttp/plugins/dynamix.vm.manager/novnc 4.6M /usr/share/hwdata/oui.txt 4.2M /usr/lib64/perl5/CORE/charclass_invlists.h 4.1M /usr/local/emhttp/plugins/dynamix.vm.manager/novnc/vendor 4.0M /usr/src/linux-5.10.28-Unraid 3.9M /usr/local/emhttp/plugins/dynamix.vm.manager/novnc/vendor/browser-es-module-loader 3.8M /usr/local/emhttp/plugins/dynamix.vm.manager/novnc/vendor/browser-es-module-loader/dist 3.7M /usr/src/linux-5.10.28-Unraid/System.map 3.7M /usr/local/emhttp/plugins/dynamix.vm.manager/novnc/vendor/browser-es-module-loader/dist/babel-worker.js 3.6M /usr/lib64/perl5/CORE/libperl.so 3.6M /usr/lib64/libvirt.so.0.6005.0 3.6M /usr/lib64/libpython3.9.so.1.0 3.5M /usr/share/qemu/edk2-x86_64-secure-code.fd 3.5M /usr/share/qemu/edk2-x86_64-code.fd 3.5M /usr/lib64/libsmbd-base-samba4.so 3.5M /usr/lib64/libndr-standard.so.0.0.1 3.2M /usr/lib64/libicui18n.so.68.1 3.1M /usr/lib64/libicui18n.so.67.1 2.9M /usr/lib64/locale/en_US.utf8 2.9M /usr/lib64/libIlmImf-2_2.so.22.0.0 2.9M /lib64/libcrypto.so.1.1 2.8M /lib/udev/hwdb.d/20-pci-vendor-model.hwdb 2.7M /usr/lib64/perl5/auto/Encode/JP/JP.so 2.7M /usr/lib64/libmpfr.so.6.1.0 2.5M /usr/lib64/locale/en_US.utf8/LC_COLLATE 2.4M /usr/lib64/perl5/auto/Encode/KR/KR.so 2.3M /lib64/liblvm2cmd.so.2.03 2.2M /usr/lib64/libndr-samba4.so 2.2M /lib64/libc-2.30.so 2.1M /usr/lib64/perl5/auto/Encode/CN/CN.so 2.0M /usr/share/qemu/ovmf-x64/OVMF-pure-efi.fd 2.0M /usr/lib64/perl5/auto/Encode/TW/TW.so 2.0M /usr/lib64/libicuuc.so.68.1 2.0M /usr/lib64/libicuuc.so.67.1 1.9M /usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd 1.9M /usr/lib64/libstdc++.so.6.0.28 1.9M /usr/lib64/libisl.so.22.0.1 1.8M /usr/share/perl5/Unicode/Collate/allkeys.txt 1.8M /usr/share/hwdata/manuf.txt sort: write failed: 'standard output': Broken pipe sort: write error Nur am Ende gibt es wirite error.
  12. Ja ein Cache pool existiert bei mir und die Ausgabe sagt. /mnt/cache /dev/nvme0n1p1 btrfs rw,noatime,ssd,discard=async,space_cache=v2,subvolid=5,subvol=/ Ok dann habe ich hier scheinbar doch irgendwo eine Fehler gemacht in dem Docker. Wie ich schon sagte läuft ja mit allen anderen alles ganz normal rootfs liegt da bei 6% und meine RAM Auslastung im schnitt bei 18% Danke erstmal für deine ausführliche Erklärung.
  13. Ja ich schaue dort nochmal, habe aber entsprechend den Pfad eingestellt. Kann es sonst auch sein weil unter Einstellungen Docker der Standard pfad user/appdata ist? Ich meine ich änder den ja eh Manuell deswegen sollte es ja kein problem sein oder?
  14. Japp genau das ist es..man sieht es erst am Ram und wenn ich mir rootfs anschaue läuft er komplett voll dann. Die Pfade hatte ich im Conatiner Manuell geändert zum richtigen pfad auf dem cache. Aber auch wenn ich es wieder über user/appdata laufen lasse besteht das Problem. Allerdings nur bei bestimmten Dockern. Bei dem meisten besteht da kein Problem.
  15. Ja aber ich habe jetzt das Problem das einige Docker cache/appdata und user/appdata gleichzeitig nutzen dadurch kommt es wohl das mein rootfs mit 100% belastet wird. Wie bekomme ich es jetzt hin das nur in auf einem geschrieben wird?
  16. Hallo, Ich habe bei einigen Dockern Probleme mit meinem Ram bzw Rootfs gehabt und wusste nicht woran es liegt. Ich glaube ich habe den Fehler gefunden allerdings weiß ich nicht wie es dieses Rückgängig machen kann. Irgendwie ist das beim Verschieben des Caches passiert und wahrscheinlich habe ich die Docker nicht deaktiviert, so das ich jetzt zwar einen neuen cache habe aber das System nutzt jetzt den alten und den neuen cache zusammen obwohl ich den Pfad geändert habe. Also hier mal mit Bild. Oben cache ist mein aktueller cache und user war der alte, der jetzt aber quasi gespiegelt wird. Wie kann ich dieses Problem beheben? Vielen dank für eure Hilfe
  17. Hello, I move my downloads via Sonarr to an encrypted Gdrive. My problem: Whenever the upload starts from the download folder, my RAM goes up and rootfs to 100%. I use an Unassigned Devices NVME for the downloads. My download directory: /mnt/user/disks/Force/Downloads My Gdrive directory: /mnt/remotes/Data/HD/ Data dir : /mnt/cache/appdata/sonarr What could be the reason for this? Thanks for your help
  18. So ich habe Sonarr und den Sabnzbd wieder aktiviert und musste feststellen das dieses Problem immer noch vorhanden ist. RootFS liegt jetzt bei 65% und der Ram bei 48%. Das ganze ist erst passiert als ich eine Serie hinzugefügt habe. Als ich Sonarr eingerichtet hatte und vorhandene Serien gescannt habe keine Probleme. Der Download Pfad ist ja auch richtig es wird dort abgelegt wo es soll. Edit: Fehler gefunden es lag an dem Pfad /mnt/remotes....Ich habe das mal im Docker geändert und direkt auf das Ablageverzeichnis hingewiesen. Jetzt scheint alles zu laufen wie es soll.
  19. Sollte natürlich nicht, aber das ist wie beim PKW da ist der Kühler auch irgendwann undicht. Ich habe das alles schon mal mitgemacht in einem Desktop PC. Deswegen kommt mir keine Wakü mehr in meine Elektronik. Dennoch finde ich das bastel Werk echt gut gemacht.
  20. Danke schon mal, ok ja über einen zweiten cache hatte ich schon nachgedacht.
  21. Ok, dass war mir irgendwie nicht bewusst. Heißt also am besten die Platte auf Automount setzen?
  22. Ja das ist eine UD Platte. Hmm ich habe den Automount nicht aktiviert. Der Container lief und ich habe sie dann etwas später gemountet ja.