Jump to content

derjp

Members
  • Posts

    167
  • Joined

  • Last visited

Posts posted by derjp

  1. Does anyone know how to make the "statusStyle" work?

     

    in settings.yaml i added: statusStyle: "dot"  

     

    after this i added statusStyle: 'dot' to a service in services.yaml

     

    but this does not seems to work, or i dont get how example on the page works.

     

  2. On 1/31/2024 at 10:04 AM, cz13 said:

    Über Connect geht das auch. Alternative über das Unraid WebUI regelmäßig den Flash manuell sichern. Mache machen das auch per Script automatisch, Suche hier im Forum verwenden.

    Gerade bei Appdata usw. sollte Docker und VMs vorher beendet werden. Kann aber auch im laufenden Betrieb gut gehen, ist nur sicherer wenn nichts auf die Dateien zugreift während des Backups.

    Das mache ich über mein Windows VM.

     

    Hier mal grob wie es bei mir läuft:

    -Backup der shares per rsync Script von mgutt(findest du über die Suche) auf eine, per UAD eingehängte, Platte.

    -von da aus dann mit LuckyBackup auf meine alte Qnap

    Danke für deine Antwort.

     

    Also müsste ich die appdata usw dann immer manuell machen und nicht automatisieren? Kann ich so natürlich auch machen, nur würde ich das gerne automatisieren, damit man das nicht vergisst und man selbst weniger arbeit damit hat.

     

    Ok, also schiebst du quasi erst die Fotos auf eine Platte die per UAD eingehängt ist und dann von dieser Platte nochmal auf dein Qnap?

     

    Habe mein altes NAS unter SMB Shares eingetragen und hätte dann die Fotos auf die Nas gesynct und halt auch nochmal irgendwie zu amazon um dort auch nochmal n backup zu haben.

     

    Oder spricht etwas dagegen das so zu machen und dein weg ist besser/sicherer? Würde das auch ohne Vm gehen?

     

  3. Da auf meinem Unraid Server nun die ersten Sachen ordentlich laufen, machen ich mir natürlich Gedanken über Backups.

     

    Was möchte ich sichern?

    image.png.4948a57a465de2f28b7a91f8e5545980.png

     

    Ich würde gerne, ich weiß noch nicht welcher Intervall Sinn macht, Backups von den Shares appdata, domains, isos, system machen. Diese liegen alle auf dem Cache ( 2x Nvme, sollte eine kaputt gehen ist durch die andere gesichert)

     

    Bei data möchte ich später nur bestimmte Ordner sichern, sowas wie Fotos, oder Dokumente zum Beispiel.

     

    Da ich nun einen unraid server habe, sind die Daten von meinem alten WD NAS runter und ich würde gerne da dann Backups draufspielen, für den Fall der Fälle. Fotos zum Beispiel würde ich dann zusätzlich noch bei Amazon oder so hochladen wollen, da ich dort unbegrenzt Speicher für Fotos habe.

     

    Unraid selbst würde ich von den Einstellungen etc auch gerne sicher, was man hier genau sichern muss/sollte muss ich nochmal in Erfahrung bringen. Geht das auch einfach über unraid connect?

     

    Sollte die genannten Sachen dann zb einfach auf das NAS syncen, oder zeitlich immer neue einzelne Backups machen? Und kann ich für all das gut Luckybackup nutzen, oder empfehlt ihr mir etwas anderes?

     

    Wäre soweit meine Backupüberlegung ok, oder würdet ihr mir da andere Herangehensweisen empfehlen?

  4. 3 minutes ago, alturismo said:

    das passt schon wahrscheinlich, overseerr kann ich jetzt nicht beurteilen ... aber ja, es gibt Docker die brauchen einiges mehr, es gibt schlanke Docker ...

     

    und ob 20 oder 30 ... sollte jetzt nicht kriegsentscheidend sein, achte nur drauf dass die nicht "voll" laufen ... ohne weiteres zutun ...
    dann wäre etwas falsch konfiguriert und er würde ins Image schreiben anstelle /appdata zum Beispiel ..

     

    Ja okay, ich habe das nun mal auf 40GB gesetzt und werde das mal weiter beobachten. Danke für die Hilfe soweit :)

  5. 22 minutes ago, cz13 said:

    Spaceinvader One hat dazu ein Videos erstellt:

     

     

    danke für das Video. Ich habe mal mit dessen Hilfe versucht herauszufinden, welche Datein oder Docker soviel Platz benötigen.

     

    Script location: /tmp/user.scripts/tmpScripts/check docker image/script
    Note that closing this window will abort the execution of this script
    ##################################################################################
    Cleanup before starting (if requested in script)
    ##################################################################################
    
    Not removing orphaned images (this can be set in script if you want to)
    
    ---------------------------------------------------------------------------------
    
    Not removing unconnected docker volumes (this can be set in script if you want to)
    
    ##################################################################################
    List of Image, Container and docker volume size.
    ##################################################################################
    
    There are 16 Images taking up ......13.34GB
    There are 16 Containers taking up ......2.066GB
    There are 5 Local Volumes taking up ......268.4kB
    There are 0 Build Cache taking up ......0B
    
    ##################################################################################
    List of containers showing size and virtual size
    ##################################################################################
    
    First size is the writable layers of the container (Virtual size is writable and read only layers)
    
    1.71kB (virtual 520MB) Is being taken up by ......... netdata/netdata:stable
    23.6MB (virtual 2.7GB) Is being taken up by ......... binhex/arch-krusader
    51.6MB (virtual 190MB) Is being taken up by ......... lscr.io/linuxserver/heimdall:latest
    0B (virtual 178MB) Is being taken up by ......... ghcr.io/gethomepage/homepage:latest
    41.9MB (virtual 1.76GB) Is being taken up by ......... ghcr.io/haveagitgat/tdarr_node
    127MB (virtual 2.2GB) Is being taken up by ......... ghcr.io/haveagitgat/tdarr
    36.8kB (virtual 1.03GB) Is being taken up by ......... jc21/nginx-proxy-manager
    25.5kB (virtual 206MB) Is being taken up by ......... lscr.io/linuxserver/sabnzbd:latest
    332kB (virtual 176MB) Is being taken up by ......... ich777/nzbget
    338kB (virtual 327MB) Is being taken up by ......... plexinc/pms-docker
    162MB (virtual 1.32GB) Is being taken up by ......... binhex/arch-radarr
    249MB (virtual 1.7GB) Is being taken up by ......... binhex/arch-sonarr
    2.66kB (virtual 204MB) Is being taken up by ......... tautulli/tautulli:latest
    220MB (virtual 1.44GB) Is being taken up by ......... binhex/arch-prowlarr
    3.42MB (virtual 669MB) Is being taken up by ......... ghcr.io/ajnart/homarr:latest
    1.19GB (virtual 3.45GB) Is being taken up by ......... binhex/arch-overseerr
    
    ##################################################################################
    List of containers in size order
    ##################################################################################
    
    2680MB - binhex/arch-krusader
    2260MB - binhex/arch-overseerr
    2070MB - ghcr.io/haveagitgat/tdarr
    1720MB - ghcr.io/haveagitgat/tdarr_node
    1450MB - binhex/arch-sonarr
    1220MB - binhex/arch-prowlarr
    1160MB - binhex/arch-radarr
    1030MB - jc21/nginx-proxy-manager
    665MB - ghcr.io/ajnart/homarr
    520MB - netdata/netdata
    326MB - plexinc/pms-docker
    206MB - lscr.io/linuxserver/sabnzbd
    204MB - tautulli/tautulli
    178MB - ghcr.io/gethomepage/homepage
    176MB - ich777/nzbget
    138MB - lscr.io/linuxserver/heimdall
    
    ##################################################################################
    List of docker volumes, the container which they are connected to their size
    ##################################################################################
    
    ID 086addcfe937fa0991d742c322df3a41d7e37ec5ab9105a7e3da0185b62a85e9
    This volume connected to has a size of 68K
    
    ID 41781f5e37e0f9081eab648f6134fc46595bfedb945713666c9cf044d58f236b
    This volume connected to sabnzbd has a size of 0
    
    ID 70853eb1a5327ddce030e012eba31773bcdf6d0a3ee4e2ab48d08fb0fa446335
    This volume connected to has a size of 68K
    
    ID 343913a783c8548fc603c9f986789ab973fd38698fcc6e0bf8c25b56cc0303c2
    This volume connected to has a size of 68K
    
    ID be74da97a165b90d8ae96c816b356c458aa592309d669dcfc38b4f655e497799
    This volume connected to has a size of 68K
    
    
    ##################################################################################
    
    Done. Scroll up to view results

     

    image.thumb.png.abad523ef47b7fd73949ab8820432398.png

     

    Nun weiß ich nicht, ob die ersten nun wirklich ungewöhnlich viel Platz benötigen oder ob das normal ist. Also Tdarr könnt ich mir noch vorstellen, aber die anderen die ab 1GB kommen mir doch recht viel vor, oder weiß jemand ob das normal ist? 

     

    Klar ich könnte einfach das Docker Image von 20GB auf 30GB oder so erhöhen, aber ist das Sinn der Sache, darauf bezogen ob einige hier wirklich wesentlich größer sind, als sie vielleicht müssten?

  6. okday schonmal danke für eure Antworten. Wo kann ich denn den Speicher erhöhen? Unter Settings -> Docker habe ich nichts gefunden. Und wo liegt das Docker Image. Woran kann ich denn fest machen, ob das ungewöhnlich viel Platz wäre was dieses in Anspruch nimmt, oder ob das völlig normal ist?

  7. Ich würde gerne wissen, was die Anzeige von Docker unter Ram aussagt. Diese liegt bei mir schon bei 70% und ich frage mich ob ich hier etwas tun sollte, bevor diese bei 100% ist, oder ob ich irgendwo etwas falsch eingetellt habe?  Ich habe schon etwas rumgesucht, aber noch nicht das passende gefunden, sodass ich diese Anzeige verstehe.

     

    image.png.32a63e56363baa58c6b282fa88ae38af.png

     

  8. Niemand eine Idee wie man das am besten umsetzt?

     

    Plex, sonarr und radar laufen.

     

    Aktuell würden Filme mit Kinderfilmen im Ordner "filme" landen

    und Serien mit Kinderserien im Ordner "serien"

     

    Wenn ich einen extra Ordner für Kinderserien und Kinderfilme erstelle, ist die Sortierung in Plex natürlich sehr einfach, jedoch für Sonarr und Radarr wiederum nicht.

     

    Daher Frage ich mich, wie ich das am besten löse und wie andere so etwas gelöst haben.

  9. 2 minutes ago, jj1987 said:

    Den jeweiligen Share anklicken, primary storage Cache, secondary Array, mover direction: Array -> Cache.

    VM Dienst und Docker Dienst beenden, mover starten

    Nochmal kontrollieren ob alles verschoben wurde

    Wenn alles gut: VM Dienst & Docker wieder starten

    Wenn nicht: die Brechstange rausholen und mittels mc verschieben und danach dann VM & Docker starten

     

    Also einmal alle Docker beenden?

     

    VMs habe ich noch keine laufen

  10. 12 minutes ago, DataCollector said:

     

    Vergiß bitte nicht den "minimum free Space" im Share einzustellen. bevorzugt etwas größer als die jemals dort aufzuspeichernde Datei.
    Gleiches gibt auch für einen vorgeschalteten Cache/Pool.

    Sonst läuft da ein Datenträger voll und es kann zu Problemen kommen.

     

     

     

    Diese Anzeige zeigt nur, wo die Dateien theoretisch liegen sollen.

    Klicke mal in jedem Share rechts auf "compute".

    Dann siehst Du, ob sich da nicht vielleicht doch etwas verirrt hat.

     

     

    Okay also bei downloads, isos und bei system liegt ja etwas auf Disk1. Das wollte ich ja eigentlich alles auf dem Cache liegen haben, wenn es denn Sinn macht. Wie bekomme ich das dann also von der Disk1 weg? Grade das System sollte da ja vielleicht runter.

     

    image.thumb.png.679b8ebae956a59dbf6d8bd4354c3750.png

  11. 31 minutes ago, hawihoney said:

     

    Meine Intention, hier in meiner Freizeit zu helfen, ist Unraid weiter zu bringen. Die Fakten habe ich oben aufgeführt. Was Du daraus machst ist Deine Angelegenheit. 

     

    Die Wertung des Für und Wider einer Funktion unterscheidet sich von Benutzer zu Benutzer. Da gibt es keine "Beste" Lösung. Das ist wie die Diskussion über den besten Editor. Selbst wenn Dir 10 Leutchen eine andere Lösung vorschlagen, kannst Du immer noch mit "Ja, aber" Deine Lösung wählen. Und das ist gut so.

     

    Sobald ich aber merke, dass ein Thread in "Aber, aber, aber" Runden abdriftet, verlasse ich diesen abrupt, denn das bringt mich persönlich nicht weiter.

     

    Und ja, alle meine Server laufen seit über dutzend Jahren mit High-Water. Für mich war es eine gute Entscheidung.

     

    Ich habe nur versucht zu erklären, wie ich das Prinzip verstanden habe und daraus auf meinen Gedankengang gekommen bin. Ich wollte gar nicht gegen angehen. Das war nicht miene Intention.

     

    mich bringen eure Meinungen weiter und ich danke euch dafür.

     

    Ich werde meins auch auf High Water stehen lassen.

  12. 27 minutes ago, saber1 said:

    Also ich bin ein "High-Water-Fan".

    Lasse alles gleichmäßig auf die Platten verteilen. Einfach weil es geht. Hat keinen besonderen Hintergedanken.

    Wir sind auch nur ein 2-Personen-Haushalt. Da wird so gut wie nie gleichzeit auf unterschiedliche Dinge zugegriffen. 😉

     

    Durch die Verteilung mit "High-Water" sind die Daten aber eben auch, nun ja, besser verteilt.

    Stichwort Plattenausfall.

    Worst-Case: Datenplatte und Parity fällt aus. Daten weg. Mit Fill-Up dann eben das ganze Zeug auf der einen Platte.

    Ja da hast du auch wieder recht. 🙂

  13. 7 minutes ago, hawihoney said:

     

    Du willst hier allen Ernstes über Wahrscheinlichkeiten reden? Du kannst das doch machen wie Du willst, Du brauchst meinen Segen nicht.

     

    Ich bin jetzt hier raus.

     

    Warum fühlst du dich denn gleich angegriffen?

    Ich versuche nur die sinnvollste Einstellung hierfür zu finden und teile meine Gedankengänge. Ich möchte natürlich eure Meinung dazu hören, da ihr von dem ganzen Thema mehr Ahnung habt als ich.

     

    Nur wenn die Daten auf einer Platte liegen, dann springt ja auch nur eine an, wenn die nicht eh schon läuft und nicht noch eine zweite, daher war meine Frage ob das Fill-up in dem Fall nicht vielleicht sonnvoller ist, oder ob ich dadurch andere Nachteile habe.

     

    Dazu wollte ich eure Meinungen hören und keinen verärgern, sondern dann nur eure Meinung dazu auch verstehen.

  14. 10 minutes ago, hawihoney said:

     

    Es wird nur die Platte anspringen dessen Content genutzt wird - sofern Du mit Disk-Shares in Plex arbeitest, oder mit User-Shares und die Verzeichnis-/Dateistruktur ist im RAM gecached.

     

    Im Übrigen wäre es dann stromsparender die zweite Platte überhaupt noch nicht ins Array zu packen ...

     

    Das Ganze ist IMHO Haarspalterei.

     

    Ja aber wenn er bei High Water dann irgendwann die zweite Platte beschreibt, dann liegen ja Daten auf der ersten und der zweiten Platte. Dann ist doch die Wahrscheinlichkeit größer, dass beide Platten anspringen, wenn mehrere Nutzer unterschiedliche Sachen schauen, was nicht der Fall wäre, wenn ich erstmal alles auf eine Platte schreiben lassen würde, bis sie voll ist.

     

    Denn wenn alles anfangs auf einer Platte ist, weil sie halt noch Platz genug hat, dann ist es ja egal wieviele Benutzer schauen, sie greifen ja eh alle nur auf eine Platte zu.

     

     

  15.  

    5 minutes ago, hawihoney said:

     

    Das kommt doch auf das Gleiche raus: Irgendeine Platte wird beschrieben während die andere schläft. Es gibt nur eine Überlappung von 15 Minuten beim Wechsel (ist bei mir so eingestellt). Diese Überlappung hast Du aber auch in beiden Fällen ...

     

    Wenn nun aber durch Plex Daten abgerufen werden und auf der einen Platte noch nichts drauf ist, dann kann die ja weiterhin schlafen, wenn ich aber durch High Water die zweite platte früher befülle, liegen ja einige Dateien auf Platte 1 und andere auf Platte 2. Somit würden ja eher beide anspringen, als wenn ich erstmal nur die Disk1 befülle. Vor allem wenn mehrere Benutzer gleichzeitig Plex benutzen.

     

    oder nicht?

  16. @DataCollector

     

    Vielen Dank für deine ausführliche Antwort.

     

    Also macht es ja, vermutlich auch aus Stromspargründen, am meisten Sinn, wenn ich bei meinem Medienordner die Allocation method: auf Fill-up stelle, damit er erstmal die eine Platte vollschreibt und die andere schön weiter schlafen kann.

     

    Aktuell sind meine shares wie folgt eingestellt:

     

    image.thumb.png.a78b189150148e042b395fd05c9b90c1.png

     

    also es liegt ja wirklich nur das media verzeichnis auf dem array. 

     

    Das Plugin File Activity habe ich installiert, jetzt muss ich nur mal schauen wie ich das nutze und wo mir das plugin nun anzeigt was genutzt wird.

     

  17. Ich habe folgende Platten:

     

    1x 18TB Parity

    2x 18TB Array

     

    Nun habe ich einen share Ordner Media mit den Unterordner Filme, Serien, Musik

     

    Primary storage (for new files and folders): Cache

    Secondary storage: Array

     

    Nun hatte ich bei Allocation method: high-water angegeben und dachte dann er verteilt neue Datein dann gleichmäßig auf beiden Platten. Bis jetzt ist jedoch nur auf Disk1 alles drauf.

     

    Also müsste ich das Allocation method auf Most-free umstellen, damit er neue Datein in den Ordnern gleichmäßig verteil oder nicht? Und was sollte ich bei Split-level am besten einstellen? Die Beschreibung verstehe ich nicht so recht muss ich gestehen.

     

    Oder sollte ich das ganze erstmal so lassen und erstmal eine Platte vollschreiben und dann die nächste?

     

    Disk2 schläuft eigentlich durchgehen, was ja auch nicht ganz schlecht ist.

    Disk1 jedoch schläft komischerweise auch wirklich NIE. Kann ich irgendwie nachschauen warum nicht? Kann ich irgendwie feststellen, was eventuell die ganze Zeit auf Platte 1 zugreift und sie deswegen am schlafen hindert? Denn es wird definitiv nicht die ganze Zeit auf Disk1 zugegriffen, oder kann es sein, dass es an Plex liegt, welches durchgehen schaut ob etwas neues vorhanden ist?

     

  18. Ich habe tautulli installiert habe jedoch ein Problem.

     

    Ich kann mich mit meinem Plex account nicht auf tautulli einloggen und habe mir dann einen tautulli account angelegt.

    Ich konnte meinen Server finden auch mit richtigen Namen, wenn ich dann jedoch auf verify klicke bekomme ich die Meldung:

     

    Server found but unable to connect websocket.
    Check the logs for errors.

     

    fetch new token hat ohne Probleme funktioniert aber weiterhin: unable to connect websocket

     

    in den Logs habe ich gefunden:

     

    Tautulli WebSocket :: Handshake status 401 Unauthorized -+-+- {'x-plex-protocol': '1.0', 'access-control-expose-headers': 'Location, Date', 'access-control-allow-origin': 'https://app.plex.tv', 'vary': 'Origin, X-Plex-Token', 'content-length': '91', 'content-type': 'text/html', 'connection': 'close', 'cache-control': 'no-cache', 'date': 'Sat, 20 Jan 2024 19:01:47 GMT'} -+-+- b'<html><head><title>Unauthorized</title></head><body><h1>401 Unauthorized</h1></body></html>'.

     

    unauthorisiert? irgendwie eine falsche Anmeldung oder was sagt mir das genau? Ich wüsste nur nicht wo ich da noch etwas ändern kann oder was ich nun noch versuchen kann, damit er verbindet.

     

    Jemand eine Idee?

  19. Hey,

    i just installed tautulli and startet it up. i was not able to login with my plex user account so i created a tautulli user.

    i was able to find my server and choose it from the dropdown with the right name, but if i try to verify it says:

     Server found but unable to connect websocket.
    Check the logs for errors.

     

    i also was able to fetch a new token, but it always says unable to connect websocket.

     

    in the logs i found this:

     

    Tautulli WebSocket :: Handshake status 401 Unauthorized -+-+- {'x-plex-protocol': '1.0', 'access-control-expose-headers': 'Location, Date', 'access-control-allow-origin': 'https://app.plex.tv', 'vary': 'Origin, X-Plex-Token', 'content-length': '91', 'content-type': 'text/html', 'connection': 'close', 'cache-control': 'no-cache', 'date': 'Sat, 20 Jan 2024 19:01:47 GMT'} -+-+- b'<html><head><title>Unauthorized</title></head><body><h1>401 Unauthorized</h1></body></html>'.

     

    but i dont know what it tells me or what i have to do or change.

     

     

    anyone can help?

  20. 26 minutes ago, Archonw said:

    Keine Idee, aber Nginx mag die vorgeschaltete Abfrage nicht.
    Hatte ich auch bei einem anderen Dicker, weiß jetzt nicht mehr genau welchen.
    Ich empfehle allerdings genau wie Die Unraid WebGui , Nginx nicht öffentlich zugänglich zu machen. Wer einen neuen Docker ausrollt, der hat auch Zugriff auf das interne Netz. Da wäre es also eine unnötige Öffnung Nginx öffentlich erreichbar zu machen und sollte daher dann unterlassen werden. Unnötiges Risiko.

    Ja hast du auch absolut recht, wollte ich auch eigentlich wieder rausnehmen, dachte nur vielleicht kann mir jemand erklären, warum das bei nginx n Problem ist, aber im Grunde auch egal.

     

    Trotzdem danke :)

  21. Ich habe in nginx diverse Proxy Hosts eingerichtet und eine access list. Wenn ich nun auf die Seiten gehen möchte dann kommt immer eine Abfrage von Username und PW, so wie es sein soll.

     

    Ich habe 7 Proxy Hosts eingerichtet und auf 6 von denen funktioniert der login, aber auf einem nicht. dieser eine verweist auf nginx selber über

    nginx.sub.domain.de dann kommt das login Fenster, ich gebe Benutzername und Passwort ein und drücke Enter, danach sind die Eingaben leer. Es ist die gleiche access Liste wie bei den anderen Proxy Hosts und auf den anderen funktioniert es ohne Probleme.

     

    Wenn ich von dem nginx proxy host die access liste wegnehme, komme ich auch nochmal auf die Seite. Ist die access Liste wieder drin, kommt wieder die Abfrage und nach dem eingeben des Benutzers und Passworts sind die Eingaben wieder leer, klicke ich dann auf abbrechen erscheint die Anmeldeseite von Nginx.

     

    jemand ne idee was das ist?

  22. 4 hours ago, kleinfritzchen said:

    1934319229_Bildschirmfotozu2024-01-2011-53-55.png.95d45eedece0bb620ddc505564b0c89a.png

     

    Ich  werde am Wochenende mal einen Raspi mit Docker versehen und dort mal  Nginx installieren. Mal sehen ob ich da drüber meine Certifikate erhalte. Wenn das klappt  mach ich drei Kreuze!!!!

    Die Menge anmöglichen Fehlern ist für einen Laien wie mich doch ein wenig viiel. Vor allem die Beseitigung von Fehlern die durch rumprobieren entsteht ist echt schwer.

    Als alter Sack (58) ist es auch nicht immer einffach was zu lernen; aber ich geb mir Mühe!!!

     

    Schaue mal ob nginx auf den Ports 80 und 443 läuft und dann guck mal ob dein unraid auch auf den gleichen Ports läuft, findest du unter settings -> mage access

    wenn bei beiden die ports 80 und 443 steht musst du den port von unraid am besten ändern. dann machst du da zb 8080 und 4443 draus, so habe ich das gemacht.

     

    Ich hatte vorher auch ziemlich die Probleme, weil ich auch durch zuviel rumprobieren irgendwann völlig den Faden verloren hatte und habe dann später nochmal von vorne alles aufgesetzt und dann war das ne Sache von 10 Minuten und ich habe mich später gefragt warum ich vorher solche Probleme damit hatte. 

×
×
  • Create New...