Jump to content

derjp

Members
  • Posts

    167
  • Joined

  • Last visited

Everything posted by derjp

  1. Does anyone know how to make the "statusStyle" work? in settings.yaml i added: statusStyle: "dot" after this i added statusStyle: 'dot' to a service in services.yaml but this does not seems to work, or i dont get how example on the page works.
  2. Danke für deine Antwort. Also müsste ich die appdata usw dann immer manuell machen und nicht automatisieren? Kann ich so natürlich auch machen, nur würde ich das gerne automatisieren, damit man das nicht vergisst und man selbst weniger arbeit damit hat. Ok, also schiebst du quasi erst die Fotos auf eine Platte die per UAD eingehängt ist und dann von dieser Platte nochmal auf dein Qnap? Habe mein altes NAS unter SMB Shares eingetragen und hätte dann die Fotos auf die Nas gesynct und halt auch nochmal irgendwie zu amazon um dort auch nochmal n backup zu haben. Oder spricht etwas dagegen das so zu machen und dein weg ist besser/sicherer? Würde das auch ohne Vm gehen?
  3. Da auf meinem Unraid Server nun die ersten Sachen ordentlich laufen, machen ich mir natürlich Gedanken über Backups. Was möchte ich sichern? Ich würde gerne, ich weiß noch nicht welcher Intervall Sinn macht, Backups von den Shares appdata, domains, isos, system machen. Diese liegen alle auf dem Cache ( 2x Nvme, sollte eine kaputt gehen ist durch die andere gesichert) Bei data möchte ich später nur bestimmte Ordner sichern, sowas wie Fotos, oder Dokumente zum Beispiel. Da ich nun einen unraid server habe, sind die Daten von meinem alten WD NAS runter und ich würde gerne da dann Backups draufspielen, für den Fall der Fälle. Fotos zum Beispiel würde ich dann zusätzlich noch bei Amazon oder so hochladen wollen, da ich dort unbegrenzt Speicher für Fotos habe. Unraid selbst würde ich von den Einstellungen etc auch gerne sicher, was man hier genau sichern muss/sollte muss ich nochmal in Erfahrung bringen. Geht das auch einfach über unraid connect? Sollte die genannten Sachen dann zb einfach auf das NAS syncen, oder zeitlich immer neue einzelne Backups machen? Und kann ich für all das gut Luckybackup nutzen, oder empfehlt ihr mir etwas anderes? Wäre soweit meine Backupüberlegung ok, oder würdet ihr mir da andere Herangehensweisen empfehlen?
  4. Ja okay, ich habe das nun mal auf 40GB gesetzt und werde das mal weiter beobachten. Danke für die Hilfe soweit
  5. @binhex same here. but i also think the other are pretty big. for example i just installed krusader a few hours ago and it is pretty big. i am wondering if these should be that big?
  6. danke für das Video. Ich habe mal mit dessen Hilfe versucht herauszufinden, welche Datein oder Docker soviel Platz benötigen. Script location: /tmp/user.scripts/tmpScripts/check docker image/script Note that closing this window will abort the execution of this script ################################################################################## Cleanup before starting (if requested in script) ################################################################################## Not removing orphaned images (this can be set in script if you want to) --------------------------------------------------------------------------------- Not removing unconnected docker volumes (this can be set in script if you want to) ################################################################################## List of Image, Container and docker volume size. ################################################################################## There are 16 Images taking up ......13.34GB There are 16 Containers taking up ......2.066GB There are 5 Local Volumes taking up ......268.4kB There are 0 Build Cache taking up ......0B ################################################################################## List of containers showing size and virtual size ################################################################################## First size is the writable layers of the container (Virtual size is writable and read only layers) 1.71kB (virtual 520MB) Is being taken up by ......... netdata/netdata:stable 23.6MB (virtual 2.7GB) Is being taken up by ......... binhex/arch-krusader 51.6MB (virtual 190MB) Is being taken up by ......... lscr.io/linuxserver/heimdall:latest 0B (virtual 178MB) Is being taken up by ......... ghcr.io/gethomepage/homepage:latest 41.9MB (virtual 1.76GB) Is being taken up by ......... ghcr.io/haveagitgat/tdarr_node 127MB (virtual 2.2GB) Is being taken up by ......... ghcr.io/haveagitgat/tdarr 36.8kB (virtual 1.03GB) Is being taken up by ......... jc21/nginx-proxy-manager 25.5kB (virtual 206MB) Is being taken up by ......... lscr.io/linuxserver/sabnzbd:latest 332kB (virtual 176MB) Is being taken up by ......... ich777/nzbget 338kB (virtual 327MB) Is being taken up by ......... plexinc/pms-docker 162MB (virtual 1.32GB) Is being taken up by ......... binhex/arch-radarr 249MB (virtual 1.7GB) Is being taken up by ......... binhex/arch-sonarr 2.66kB (virtual 204MB) Is being taken up by ......... tautulli/tautulli:latest 220MB (virtual 1.44GB) Is being taken up by ......... binhex/arch-prowlarr 3.42MB (virtual 669MB) Is being taken up by ......... ghcr.io/ajnart/homarr:latest 1.19GB (virtual 3.45GB) Is being taken up by ......... binhex/arch-overseerr ################################################################################## List of containers in size order ################################################################################## 2680MB - binhex/arch-krusader 2260MB - binhex/arch-overseerr 2070MB - ghcr.io/haveagitgat/tdarr 1720MB - ghcr.io/haveagitgat/tdarr_node 1450MB - binhex/arch-sonarr 1220MB - binhex/arch-prowlarr 1160MB - binhex/arch-radarr 1030MB - jc21/nginx-proxy-manager 665MB - ghcr.io/ajnart/homarr 520MB - netdata/netdata 326MB - plexinc/pms-docker 206MB - lscr.io/linuxserver/sabnzbd 204MB - tautulli/tautulli 178MB - ghcr.io/gethomepage/homepage 176MB - ich777/nzbget 138MB - lscr.io/linuxserver/heimdall ################################################################################## List of docker volumes, the container which they are connected to their size ################################################################################## ID 086addcfe937fa0991d742c322df3a41d7e37ec5ab9105a7e3da0185b62a85e9 This volume connected to has a size of 68K ID 41781f5e37e0f9081eab648f6134fc46595bfedb945713666c9cf044d58f236b This volume connected to sabnzbd has a size of 0 ID 70853eb1a5327ddce030e012eba31773bcdf6d0a3ee4e2ab48d08fb0fa446335 This volume connected to has a size of 68K ID 343913a783c8548fc603c9f986789ab973fd38698fcc6e0bf8c25b56cc0303c2 This volume connected to has a size of 68K ID be74da97a165b90d8ae96c816b356c458aa592309d669dcfc38b4f655e497799 This volume connected to has a size of 68K ################################################################################## Done. Scroll up to view results Nun weiß ich nicht, ob die ersten nun wirklich ungewöhnlich viel Platz benötigen oder ob das normal ist. Also Tdarr könnt ich mir noch vorstellen, aber die anderen die ab 1GB kommen mir doch recht viel vor, oder weiß jemand ob das normal ist? Klar ich könnte einfach das Docker Image von 20GB auf 30GB oder so erhöhen, aber ist das Sinn der Sache, darauf bezogen ob einige hier wirklich wesentlich größer sind, als sie vielleicht müssten?
  7. okday schonmal danke für eure Antworten. Wo kann ich denn den Speicher erhöhen? Unter Settings -> Docker habe ich nichts gefunden. Und wo liegt das Docker Image. Woran kann ich denn fest machen, ob das ungewöhnlich viel Platz wäre was dieses in Anspruch nimmt, oder ob das völlig normal ist?
  8. Ich würde gerne wissen, was die Anzeige von Docker unter Ram aussagt. Diese liegt bei mir schon bei 70% und ich frage mich ob ich hier etwas tun sollte, bevor diese bei 100% ist, oder ob ich irgendwo etwas falsch eingetellt habe? Ich habe schon etwas rumgesucht, aber noch nicht das passende gefunden, sodass ich diese Anzeige verstehe.
  9. Okay, das hat bestens geklappt, ich danke euch
  10. Niemand eine Idee wie man das am besten umsetzt? Plex, sonarr und radar laufen. Aktuell würden Filme mit Kinderfilmen im Ordner "filme" landen und Serien mit Kinderserien im Ordner "serien" Wenn ich einen extra Ordner für Kinderserien und Kinderfilme erstelle, ist die Sortierung in Plex natürlich sehr einfach, jedoch für Sonarr und Radarr wiederum nicht. Daher Frage ich mich, wie ich das am besten löse und wie andere so etwas gelöst haben.
  11. Also einmal alle Docker beenden? VMs habe ich noch keine laufen
  12. Okay also bei downloads, isos und bei system liegt ja etwas auf Disk1. Das wollte ich ja eigentlich alles auf dem Cache liegen haben, wenn es denn Sinn macht. Wie bekomme ich das dann also von der Disk1 weg? Grade das System sollte da ja vielleicht runter.
  13. Ich habe nur versucht zu erklären, wie ich das Prinzip verstanden habe und daraus auf meinen Gedankengang gekommen bin. Ich wollte gar nicht gegen angehen. Das war nicht miene Intention. mich bringen eure Meinungen weiter und ich danke euch dafür. Ich werde meins auch auf High Water stehen lassen.
  14. Ja da hast du auch wieder recht. 🙂
  15. Warum fühlst du dich denn gleich angegriffen? Ich versuche nur die sinnvollste Einstellung hierfür zu finden und teile meine Gedankengänge. Ich möchte natürlich eure Meinung dazu hören, da ihr von dem ganzen Thema mehr Ahnung habt als ich. Nur wenn die Daten auf einer Platte liegen, dann springt ja auch nur eine an, wenn die nicht eh schon läuft und nicht noch eine zweite, daher war meine Frage ob das Fill-up in dem Fall nicht vielleicht sonnvoller ist, oder ob ich dadurch andere Nachteile habe. Dazu wollte ich eure Meinungen hören und keinen verärgern, sondern dann nur eure Meinung dazu auch verstehen.
  16. Ja aber wenn er bei High Water dann irgendwann die zweite Platte beschreibt, dann liegen ja Daten auf der ersten und der zweiten Platte. Dann ist doch die Wahrscheinlichkeit größer, dass beide Platten anspringen, wenn mehrere Nutzer unterschiedliche Sachen schauen, was nicht der Fall wäre, wenn ich erstmal alles auf eine Platte schreiben lassen würde, bis sie voll ist. Denn wenn alles anfangs auf einer Platte ist, weil sie halt noch Platz genug hat, dann ist es ja egal wieviele Benutzer schauen, sie greifen ja eh alle nur auf eine Platte zu.
  17. Wenn nun aber durch Plex Daten abgerufen werden und auf der einen Platte noch nichts drauf ist, dann kann die ja weiterhin schlafen, wenn ich aber durch High Water die zweite platte früher befülle, liegen ja einige Dateien auf Platte 1 und andere auf Platte 2. Somit würden ja eher beide anspringen, als wenn ich erstmal nur die Disk1 befülle. Vor allem wenn mehrere Benutzer gleichzeitig Plex benutzen. oder nicht?
  18. @DataCollector Vielen Dank für deine ausführliche Antwort. Also macht es ja, vermutlich auch aus Stromspargründen, am meisten Sinn, wenn ich bei meinem Medienordner die Allocation method: auf Fill-up stelle, damit er erstmal die eine Platte vollschreibt und die andere schön weiter schlafen kann. Aktuell sind meine shares wie folgt eingestellt: also es liegt ja wirklich nur das media verzeichnis auf dem array. Das Plugin File Activity habe ich installiert, jetzt muss ich nur mal schauen wie ich das nutze und wo mir das plugin nun anzeigt was genutzt wird.
  19. Nun nach dem 4. oder 5. mal runterschmeißen und neu installieren funktioniert es, warum auch immer.
  20. Ich habe folgende Platten: 1x 18TB Parity 2x 18TB Array Nun habe ich einen share Ordner Media mit den Unterordner Filme, Serien, Musik Primary storage (for new files and folders): Cache Secondary storage: Array Nun hatte ich bei Allocation method: high-water angegeben und dachte dann er verteilt neue Datein dann gleichmäßig auf beiden Platten. Bis jetzt ist jedoch nur auf Disk1 alles drauf. Also müsste ich das Allocation method auf Most-free umstellen, damit er neue Datein in den Ordnern gleichmäßig verteil oder nicht? Und was sollte ich bei Split-level am besten einstellen? Die Beschreibung verstehe ich nicht so recht muss ich gestehen. Oder sollte ich das ganze erstmal so lassen und erstmal eine Platte vollschreiben und dann die nächste? Disk2 schläuft eigentlich durchgehen, was ja auch nicht ganz schlecht ist. Disk1 jedoch schläft komischerweise auch wirklich NIE. Kann ich irgendwie nachschauen warum nicht? Kann ich irgendwie feststellen, was eventuell die ganze Zeit auf Platte 1 zugreift und sie deswegen am schlafen hindert? Denn es wird definitiv nicht die ganze Zeit auf Disk1 zugegriffen, oder kann es sein, dass es an Plex liegt, welches durchgehen schaut ob etwas neues vorhanden ist?
  21. Ich habe tautulli installiert habe jedoch ein Problem. Ich kann mich mit meinem Plex account nicht auf tautulli einloggen und habe mir dann einen tautulli account angelegt. Ich konnte meinen Server finden auch mit richtigen Namen, wenn ich dann jedoch auf verify klicke bekomme ich die Meldung: Server found but unable to connect websocket. Check the logs for errors. fetch new token hat ohne Probleme funktioniert aber weiterhin: unable to connect websocket in den Logs habe ich gefunden: Tautulli WebSocket :: Handshake status 401 Unauthorized -+-+- {'x-plex-protocol': '1.0', 'access-control-expose-headers': 'Location, Date', 'access-control-allow-origin': 'https://app.plex.tv', 'vary': 'Origin, X-Plex-Token', 'content-length': '91', 'content-type': 'text/html', 'connection': 'close', 'cache-control': 'no-cache', 'date': 'Sat, 20 Jan 2024 19:01:47 GMT'} -+-+- b'<html><head><title>Unauthorized</title></head><body><h1>401 Unauthorized</h1></body></html>'. unauthorisiert? irgendwie eine falsche Anmeldung oder was sagt mir das genau? Ich wüsste nur nicht wo ich da noch etwas ändern kann oder was ich nun noch versuchen kann, damit er verbindet. Jemand eine Idee?
  22. Hey, i just installed tautulli and startet it up. i was not able to login with my plex user account so i created a tautulli user. i was able to find my server and choose it from the dropdown with the right name, but if i try to verify it says: Server found but unable to connect websocket. Check the logs for errors. i also was able to fetch a new token, but it always says unable to connect websocket. in the logs i found this: Tautulli WebSocket :: Handshake status 401 Unauthorized -+-+- {'x-plex-protocol': '1.0', 'access-control-expose-headers': 'Location, Date', 'access-control-allow-origin': 'https://app.plex.tv', 'vary': 'Origin, X-Plex-Token', 'content-length': '91', 'content-type': 'text/html', 'connection': 'close', 'cache-control': 'no-cache', 'date': 'Sat, 20 Jan 2024 19:01:47 GMT'} -+-+- b'<html><head><title>Unauthorized</title></head><body><h1>401 Unauthorized</h1></body></html>'. but i dont know what it tells me or what i have to do or change. anyone can help?
  23. Ja hast du auch absolut recht, wollte ich auch eigentlich wieder rausnehmen, dachte nur vielleicht kann mir jemand erklären, warum das bei nginx n Problem ist, aber im Grunde auch egal. Trotzdem danke
  24. Ich habe in nginx diverse Proxy Hosts eingerichtet und eine access list. Wenn ich nun auf die Seiten gehen möchte dann kommt immer eine Abfrage von Username und PW, so wie es sein soll. Ich habe 7 Proxy Hosts eingerichtet und auf 6 von denen funktioniert der login, aber auf einem nicht. dieser eine verweist auf nginx selber über nginx.sub.domain.de dann kommt das login Fenster, ich gebe Benutzername und Passwort ein und drücke Enter, danach sind die Eingaben leer. Es ist die gleiche access Liste wie bei den anderen Proxy Hosts und auf den anderen funktioniert es ohne Probleme. Wenn ich von dem nginx proxy host die access liste wegnehme, komme ich auch nochmal auf die Seite. Ist die access Liste wieder drin, kommt wieder die Abfrage und nach dem eingeben des Benutzers und Passworts sind die Eingaben wieder leer, klicke ich dann auf abbrechen erscheint die Anmeldeseite von Nginx. jemand ne idee was das ist?
  25. Schaue mal ob nginx auf den Ports 80 und 443 läuft und dann guck mal ob dein unraid auch auf den gleichen Ports läuft, findest du unter settings -> mage access wenn bei beiden die ports 80 und 443 steht musst du den port von unraid am besten ändern. dann machst du da zb 8080 und 4443 draus, so habe ich das gemacht. Ich hatte vorher auch ziemlich die Probleme, weil ich auch durch zuviel rumprobieren irgendwann völlig den Faden verloren hatte und habe dann später nochmal von vorne alles aufgesetzt und dann war das ne Sache von 10 Minuten und ich habe mich später gefragt warum ich vorher solche Probleme damit hatte.
×
×
  • Create New...