guybrush2012

Members
  • Posts

    81
  • Joined

  • Last visited

Everything posted by guybrush2012

  1. Ich teste es mal mit XFS. Wird aber eine Weile dauern bis wir Ergebnisse haben, weil der Fehler tritt immer nach eine Weile auf. Gesendet von meinem SM-G998B mit Tapatalk
  2. Vorher auf einem BTRFS Cache Raid1. Jetzt auf einem BTRFS Cache Single drive. Da ich ohnehin Proxmox demnächst auf mein Server betreiben werde, wird es sich erübrigen. Da läuft dann unter Proxmox der Unraid Stick. [emoji6] Gesendet von meinem SM-G998B mit Tapatalk
  3. Hi, es ist schon das zweite mal das der JDownloader container von @ich777 nach dem Update nicht mehr geht. Ich musste es schonmal komplett löschen und nochmal installieren. Weis jemand wieso das passiert? Screenshot liegt bei.
  4. Wenn die Festplatten einwandfrei funktionieren, würde ich mir da kein Kopf und kein Stress machen. Die halten schon was aus und der Kopf ist im parkmodus sodass der nicht auf dem Datenträger schleifen kann. Mir ist mal eine 3TB WD Red aus ca. 1,4m auf dem Boden gefallen und läuft seitdem nach Jahren immer noch :-) Gesendet von meinem SM-G998B mit Tapatalk
  5. Wie kann ich mir bei Unraid die Abnutzung der SSDs (TBW) anzeigen lassen?
  6. Das liegt wohl daran das die Zugriffe die homeassistant virtuelle maschine generiert ^^ Ich habe jetzt die Virtuelle Maschine in eine einzelne SSD verschoben. Dank dir, nutzt sich jetzt meine pool aus 2 Raid1 ssd nicht mehr ab. Danke. Kann ich eigentlich den ordner /mnt/user/system/docker/docker komplett löschen und über apps vorherige apps wird er neu erstellt? Oder ist etwas drin was für Unraid lebensnotwendig ist? 😅
  7. Aber woher soll ich wissen was auf den "cache_raid" geschrieben wird? Fakt ist es werden immer daten geschrieben, aber welche?
  8. Der eintrag ist jetzt da. Hab viele writes. Ich kann übrigens die CPU niedrigere CPU auslastung auch nicht bestätigen. root@Tower:~# find /mnt/cache_raid/appdata -type f -print0 | xargs -0 stat --format '%Y :%y %n' | sort -nr | cut -d: -f2- | head -n30 2021-09-09 12:50:01.754990137 +0200 /mnt/cache_raid/appdata/mariadb/databases/ib_logfile0 2021-09-09 12:50:01.605989534 +0200 /mnt/cache_raid/appdata/mariadb/log/mysql/mariadb-bin.000122 2021-09-09 12:48:55.007720243 +0200 /mnt/cache_raid/appdata/NginxProxyManager/log/proxy_host-1.log 2021-09-09 12:47:04.408275228 +0200 /mnt/cache_raid/appdata/bitwarden/db.sqlite3-shm 2021-09-09 12:46:33.447151153 +0200 /mnt/cache_raid/appdata/bitwarden/db.sqlite3-wal 2021-09-09 12:45:25.450879475 +0200 /mnt/cache_raid/appdata/jdownloader2/cfg/org.jdownloader.settings.AccountSettings.json 2021-09-09 12:45:15.452839626 +0200 /mnt/cache_raid/appdata/jdownloader2/cfg/org.jdownloader.settings.AccountSettings.accounts.ejs 2021-09-09 12:45:05.919801651 +0200 /mnt/cache_raid/appdata/NginxProxyManager/log/proxy_host-5.log 2021-09-09 12:45:05.035798131 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/log/log_20210909.log 2021-09-09 12:45:05.034798127 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/3145e441-d9ba-27fc-391e-7ee15face581.js 2021-09-09 12:45:02.072786334 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/241d4fcb-19a1-d557-ee62-428e411da609.js 2021-09-09 12:45:01.981785972 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/a27c5425-9520-b2e5-c509-def68c8f4c45.js 2021-09-09 12:45:01.969785924 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/1c8ede62-c521-bea0-bf85-1344f5b8ca40.js 2021-09-09 12:45:01.954785864 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/7d8088c1-0902-f1bf-4072-ded42437bcfb.js 2021-09-09 12:45:01.938785801 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/2c66a88b-ca43-e565-d7f8-099f825478f1.js 2021-09-09 12:44:19.358616509 +0200 /mnt/cache_raid/appdata/jdownloader2/cfg/org.jdownloader.updatev2.UpdateSettings.json 2021-09-09 12:44:19.357616505 +0200 /mnt/cache_raid/appdata/jdownloader2/cfg/org.jdownloader.extensions.extraction.ExtractionExtension.json 2021-09-09 12:44:10.630581863 +0200 /mnt/cache_raid/appdata/nextcloud/log/php/error.log 2021-09-09 12:44:09.552577586 +0200 /mnt/cache_raid/appdata/mariadb/databases/169cef30bf6e.err 2021-09-09 12:44:09.456577205 +0200 /mnt/cache_raid/appdata/jdownloader2/tmp/7zip/SevenZipJBinding-Qh9xZZgZzGj1/lib7-Zip-JBinding.so 2021-09-09 12:44:09.331576709 +0200 /mnt/cache_raid/appdata/jdownloader2/tmp/myjd.session 2021-09-09 12:44:08.363572868 +0200 /mnt/cache_raid/appdata/jdownloader2/tmp/hosterCache 2021-09-09 12:44:05.978563406 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/data/ScheduledTasks/c27fda37-dfb6-e39b-e141-191aaa1c3060.js 2021-09-09 12:44:05.626562009 +0200 /mnt/cache_raid/appdata/jdownloader2/JDownloader.pid 2021-09-09 12:44:05.371560998 +0200 /mnt/cache_raid/appdata/jdownloader2/JD2.port 2021-09-09 12:44:05.367560982 +0200 /mnt/cache_raid/appdata/jdownloader2/JD2.lock 2021-09-09 12:44:02.956551419 +0200 /mnt/cache_raid/appdata/NginxProxyManager/nginx/ip_ranges.conf 2021-09-09 12:44:02.323548908 +0200 /mnt/cache_raid/appdata/NginxProxyManager/logrotate.status 2021-09-09 12:44:02.287548765 +0200 /mnt/cache_raid/appdata/NginxProxyManager/database.sqlite 2021-09-09 12:44:01.993547599 +0200 /mnt/cache_raid/appdata/Jellyfin-AMD-Intel-Nvidia/config/encoding.xml Meiner Ansicht nach macht dieses Gefrickel wenig Sinn, wenn man jeden container anpassen muss weil irgendwelch Daten im appdata ständig geschrieben werden.
  9. Ich habe mal die RAM-Disk in die go-file eingetragen. Müsste Sie nicht mit einem df -h angzeigt werden? root@Tower:~# df -h Filesystem Size Used Avail Use% Mounted on rootfs 16G 749M 15G 5% / devtmpfs 16G 0 16G 0% /dev tmpfs 16G 0 16G 0% /dev/shm cgroup_root 8.0M 0 8.0M 0% /sys/fs/cgroup tmpfs 128M 288K 128M 1% /var/log /dev/sda1 15G 301M 15G 2% /boot overlay 16G 749M 15G 5% /lib/modules overlay 16G 749M 15G 5% /lib/firmware tmpfs 1.0M 0 1.0M 0% /mnt/disks tmpfs 1.0M 0 1.0M 0% /mnt/remotes /dev/md1 13T 2.6T 11T 21% /mnt/disk1 /dev/md2 1.9T 415G 1.5T 23% /mnt/disk2 /dev/nvme0n1p1 466G 14M 466G 1% /mnt/cache_1_nvme /dev/sdc1 233G 161G 72G 70% /mnt/cache_raid /dev/sdb1 466G 63G 403G 14% /mnt/cache_ssd shfs 15T 3.0T 12T 21% /mnt/user0 shfs 15T 3.0T 12T 21% /mnt/user /dev/loop2 1.0G 4.6M 904M 1% /etc/libvirt Irgendwie hab ich alles gemacht hab aber dennoch schreibzugriffe auf mein ssd_raid 😞
  10. Hi, habe Probleme mit VMs Boot. Ich habe eben versucht Homeassistant als vm zu istallieren. Wieso startet es das image nicht?
  11. Naja, ich wäre nicht auf die Idee gekommen zwei Lizenzen anzufragen, wenn auf der Homepage nicht stehen würde, dass für einen Angebot man den Support anschreiben soll. Wenn man dann hinschreibt, stoßt man auf taube Ohren. Zudem ist es ein Unterschied ob man 258 USD ausgibt oder lediglich 89 USD. Für 169 USD bekommt man 2TB SSD oder nvme. Deshalb kann ich deine Argumentation nicht folgen. Es kauft sich doch keiner eine HDD wenn er er nicht unbedingt eine braucht. Es sei denn, es ist ein schnäppchen, da kauft man vielleicht eine -obwohl sie nicht unbedingt braucht- weil der Preis stimmt. Limetech soll froh sein, wenn es ehrliche Leute wie mich gibt und höflich eine Anfrage stellen. Andere besorgen sich die gecrackte Version und gut ist. Aber das ist alles OT.
  12. Unraid in eine VM ist Voraussetzung das man noch eine Lizenz hat richtig? Ich hab nur eine. Hab zwar vor paar Monate bevor ich die Unraid Lizenz erworben habe den Support gefragt, ob es möglich wäre einen kleinen Nachlass und zwei Lizenzen zu bekommen. Dann hätte ich mit einer Lizenz gespielt :-) Das wurde jedoch abgelehnt obwohl auf der Homepage steht "Wenn du ein spezielles Angebot benötigst, erreichst du uns unter support@lime-technology.com". Ja ich habe eins benötigt, jedoch keins bekommen ^^ Also hab ich aus Prinzip nur eine Plus erworben, die mir auch völlig ausreicht :-) Hätte man einen kleinen Nachlass gegeben, hätte ich gleich zwei Pro erworben :-) Die andere Möglichkeit wäre ein anderes nas Betriebssystem in einer VM zu installieren oder einfach nur zu warten. Ich denke ich werde einfach warten bis es kommt. Gesendet von meinem SM-G998B mit Tapatalk
  13. Hi, ich wollte mal fragen ob mehrere Arrays geplant sind. Ich würde gerne mehrere Arrays fahren. 1. Array: HDDs mit wichtige Daten + Parität 2. Array: HDDs mit Dreambox Aufnahmen, ISOs, Downloads, ohne Parität 3. Array: SSD array mit nvme Parität Den Sinn von mehrere Cache Pools verstehe ich nicht und nutzen mit leider nichts. Wobei RAID 5/6 in Cache Pools wegen der BTRFS Problematik nicht verfügbar ist. Gesendet von meinem SM-G998B mit Tapatalk
  14. appdata/JDownloader2 liegt jetzt auf zwei cache drive 🙈 Da wird der Huhn in der Pfanne verrückt ^^ Edit: Das wa der Fehler 🙈
  15. Ich glaube nicht das es daran liegt. Mein Docker Dienst ist sowas von aus ^^ Z.B. das Gleiche mit der Datei im eBook Ordner "Debian\ Jessie\ Installieren.docx". Ich glaube kaum das Docker auf eine *.docx datei zufreift. Ja sehr lustig 😅
  16. Danke @mgutt für dein Tip. Es klappt dann mit dem mover aber bedingt. Manche dateien verschiebt er einfach nicht, z.B. log dateien wie auf dem scrennshot zu sehen ist. Der mover ist abgeshen davon, dass man wegen den einzelnen verbleibenden Dateien selbst Hand anlegen muss, sehr langsam, ich bevorziehe rsync. Ein Feedback sollte schon erfolgen. Z.B. Mover läuft, am besten noch mit fortschrittanzeige. Schießlich möchte man Wissen was gerade auf dem Server und mit seinen Daten gerade passiert. Der ParityCheck ist schließlich auch Feedback, dann könnte man das genauso weg lassen, aber wie dem auch sei. Mal was anderes. Wie oft lässt ihr ein ParityCheck laufen? So ein Check dauert sehr lange ^^
  17. Naja, ich werde selbst wieder Hand anlegen. Dieser Mover ist einfach komisch. An meinem Synology klicke ich auf den Share und wähle einfach an anderes Volume, fertig. Dann verschiebt es den Inhalt. Hier drückt man auf den "move" Button und man weiß nicht ob was passiert oder nicht. Keine Rückmeldung nichts. Gesendet von meinem SM-G998B mit Tapatalk
  18. Hi, ich habe ein neuen Pool erstellt im RAID1 und wollte meinen cache Laufwerk rüber schaufeln. Also Docker Dienst und VM gestoppt. Die Shared von "cache_ssd" auf neuen "cache_raid" umgestellt und auf cache "only". Vorher war es auf bevorzugt. Mover gestartet, tut sich aber nichts. Was mache ich falsch?
  19. @mgutt Was soll denn der Vorteil sein ein eigenes Netz zu erstellen. Das ist mir nicht ersichtlich. Weshalb nicht alles auf br0 oder die Unraid eigene docker0 (bridge) nutzen? Und kannst du überhaupt ohne npm auf die container im eigen erstellten Netz zugreifen? Edit: Ok, hab jetzt ein eigenes Netz und ein Routing in der FrituBox erstellt. Damit kann ich auf die COntainer zugreifen. Aber was ist der vorteil? Erläuchte mich @mgutt😅
  20. Also ich hab jetzt wieder auf "Host access to custom networks: enable" gestellt. Sonst kann der Ngynx Proxy Manager (host) nicht mit br0 kommunizieren. Ich bin am überlegen ob ich alles auf br0 -jeder container eine eigene IP adresse- umstelle. Was ein gefrickel 😅
  21. Irgendwie haben meine docker Container keine IPV6. Muss da was konfiguriert werden? Gesendet von meinem SM-G998B mit Tapatalk
  22. Wie erstelle ich ein eigenes Docker Netz im Unraid? Bestimmt nur über console stimms? Gesendet von meinem SM-G998B mit Tapatalk
  23. Ich fasse zusammen: Host access to custom networks: enable + IPV4 + IPV6 an = Mehrere Unraid-Server einträge mit der gleichen IP. Host access to custom networks: enable + IPV4 = Alles gut Host access to custom networks: disable + IPV4 + IPV6 = Alles gut 😅
  24. Das Problem bekommst du mit der custom br0 wenn du das einschaltest...
  25. @Ford Prefect Ok, aber was tun? Also entweder die Container können nicht br0 kommunizieren oder man hat alles doppelt. Ich hatte schonmal Tower heute 5 mal drin ^^