DarkMan83

Members
  • Posts

    97
  • Joined

  • Last visited

Posts posted by DarkMan83

  1. I had Storj running for over a year now without problems at all.

    Since the last updates my banwidth.db got corrupted several times. It's like repairing it and storj runs like ~2 h and bandwidth.db is corrupted again.

     

    Since the last update storj-node stops on startup with info.db error.

    All files are in place and nothing was changed at all. -> info.db file is there...

     

    Greetings

    Dark

  2. Hi there,

    in Unraid 6.11.x "expect" was working.

    In Nerdtools we already have tcl and libtcl, but "expect" is missing.

    Please add it back.

     

    Example usage:

    #!/usr/bin/expect
    set USER ""
    set HOST "x.x.x.x"
    set PWD ""
    #log_file /var/log/ssh_tmp.log
    set timeout  30
    log_user  1
    set send_slow {1 .01}
    send_log  "Connecting to $HOST using $USER user\n"
    eval spawn ssh -F /boot/config/ssh/root/ssh_config -o UserKnownHostsFile=/dev/null -o StrictHostKeyChecking=no -o Connecttimeout=30 "$USER\@$HOST"
    expect  {
             timeout       { send_user  "timeout  while connecting to $HOST\n"; exit }
             "*No route to host*" { send_user  "$HOST not reachable\n"; exit }
            "*assword: " { send -s $PWD\r }
            }
    expect {
    "*hpiLO->" { send "fan pid 33 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 34 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 35 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 36 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 37 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 38 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 42 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 52 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 53 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 54 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 55 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 56 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 57 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 58 lo 5600\r" }
           }
    expect {
    "*hpiLO->" { send "fan pid 59 lo 5600\r" }
    }
    expect {
    "*hpiLO->" { send "fan pid 60 lo 5600\r" }
    }
    expect {
    "*hpiLO->" { send "fan pid 61 lo 5600\r" }
    }
    expect {
    "*hpiLO->" { send "fan pid 62 lo 5600\r" }
    }
    expect {
    "*hpiLO->" { send "fan pid 63 lo 5600\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 33 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 34 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 35 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 36 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 37 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 38 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 42 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 52 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 53 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 54 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 55 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 56 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 57 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 58 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 59 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 60 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 61 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 62 hi 9500\r" }
    }
    expect { 
    "*hpiLO->" { send "fan pid 63 hi 9500\r" }
    }
    expect  {
             "*hpiLO->"   { send "exit\r" }
             }
    send_user  "Disconnected\n"
    close

     

    Greetings

    Dark

  3. Hi, auch wenn der Thread hier schon alt ist, ich hab die ganze Thematik auch gerade nochmal durch.

    Ich hatte auch HLS-Proxy probiert, da komme ich dann aber auch ohne Ton raus.

     

    Meine entgültige Lösung ist nun:

    Telerising (FFMPEG Flag für Playlist gesetzt) -> TVHeadend -> Antennas -> Plex

    In dieser Konstellation lüppt es, ich konnte keine Probleme mit Zatto bezüglich stoppen von Plex feststellen.

    Ich hatte es erst mit xTeve probiert, dort hat es aber nicht gefunkt, wegen benötigtem Login bei TVHeadend.

    TVHProxy hat bei mir leider Parsefehler rausgehauen, deshalb auch nicht nutzbar.

     

    Anmerkung: TVHeadend zeigt bei allen Muxes einen Fehler an, dadurch hat das Zuweisen der Services ewig gedauert, da das immer wieder gemacht werden muss, bis alle 160 Muxes zugeordnet sind. Laufen tuts dann trotz angezeigtem Fehler.

     

    Die Umschaltzeiten sind aber halt fragwürdig, bei mir so 10 sek, kann aber auch an meinem alten Server mit DDR3 usw. liegen oder aber an der FFMPEG Pipe.

     

    Telerising von "qoopido/telerising.minimal" wurde von Dockerhub benutzt.

    TVHeadend von Linuxserver.

     

    Vorteil wäre nun halt noch, dass ich bei GitHub z.B. noch einen PlutoTV Parser gesehen habe, der eine M3U erstellt, die könnte man dann auch noch in TVHeadend importen ^^

     

    Gruß

    Dark

  4. 1 minute ago, jj1987 said:

    Habe ich noch nie gehört?

    Sicher das das alles war bzw von Unraid ausging? Wurdest du dazu aktiv aufgefordert?

    Bevor ich den Server runtergefahren habe, waren die Passworthashes noch in der Shadow Datei drinne.

    Nach dem tausch der Nertzwerkkarte und wieder Hochfahren kam ich nimmer rein, deshalb hab ich den USB-Stick mal am PC nachgeschaut und in der Shadow war der root dann ohne pw-hash.

  5. Ich hab heute ne andere Netzwerkkarte eingebaut, wegen SFP+ und 10 GIG und so...

    Lange rede kurzer Sinn...

    Unraid hatte nun kurzzeitig ne andere IP und / oder weil die Netzwerkkarte gewechselt hat, meinte Unraid alle passwörter zu resetten.

     

    Nun komm ich nicht mehr ins Webinterface und auch nicht per SSH rein...

    Wenn ich nach dem WIKI gehe, dann soll das default passwort für root ja "empty" also leer sein, leider erlaubt die loginseite von Unraid kein leeres Passwortfeld :D

     

    Hab ich irgendwas übersehen?

     

    P.S. Das einzige, was ich nun noch nicht gemacht habe, ist alle Passwort Dateien löschen, die in /boot/config/ liegen... Ich hatte mich halt nur gefragt, ob dann das Wiki noch aktuell ist, wenn man so gar nicht mehr rein kommt, ohne die Dateien zu Löschen.

     

    Gruß

    Dark

  6. 13 hours ago, sylus said:

    Hattest du denn das Caching an? Wenn das aus ist, sollte es ja eigentlich keine Probleme geben.

    Gruß Christan

    Ich meine irgendwo gelesen zu haben, dass bei einem ARGO-Tunnel immer gecached wird, unabhängig von der Einstellung in Cloudflare.

    Frag mich aber nicht wo...

    Auf jeden Fall bin ich halt gesperrt.

     

    Und deshalb nutz ich den ARGO-Tunnel nicht mehr, nur für ne Portfreigabe, da wird nix durch schneller, im Gegenteil... Über den ARGO-Tunnel lief bei mir alles langsamer.

    Und da ich z.B. Plex sowieso über ne Subdomain und mit "cache off" laufen habe, keine Probleme 🙂

     

    Gruß

    Dark

  7. On 2/2/2022 at 4:14 PM, V1P_J0K3R said:

     

    Hallo zusammen,

     

    bei mir funktioniert alles durch den ARGO Tunnel nur leider Plex nicht. Also die Subdomain "plex.deinedomain.de" kann ich nicht aufrufen.
    Alle anderen Docker Container funktionieren ohne Problem.

    Ich habe wie hier @DarkMan83 geschrieben hat den Rocker-Loader deaktiviert.


    Kann mir jemand helfen?

    Vielen Dank

    Ich kann dir da leider nicht helfen, mein Argo-Tunnel wurde gesperrt, da Cloudflare nur HTTP/HTTPS traffic untersützt und man für Videostreaming separat bezahlen soll...

     

    Gruß

    Dark

  8. 1 hour ago, sylus said:

    @DarkMan83 

    Leider hat es mit deiner Config nicht funktioniert.

     

    Wenn man in der Config aber einfach auf plex.deinedomain.de verweist, dann gehen auch andere Subdomains wie z.B. emby.deinedomain.de.

     

    Der Tunnel muss in CF lediglich auf CName deinedomain.de verweisen. Die anderen Subdomains haben als Ziel dann einfach deinedomain.de

     

    In CF habe ich alle Kontinente außer EU geblockt und alle Länder außer Deutschland mit einem Captcha belegt. Den Botfight kannte ich noch nicht, habe ich jetzt aber auch aktiviert.

     

    Letzter Schritt ist jetzt eigentlich noch Authelia. 

     

    Grüße

    Sylus

     

    Könnte sein, dass das bei dir nicht funzt, weil du den swag CF Mod nicht installiert hast?

    und bei mir benutze ich die Hauptdomain nicht, weil ich noch einen normalen Server im rechenzentrum habe.

     

    Die Konfiguration hab ich bei mir auf jeden Fall laufen, wichtig ist bei SWAG das Zertifikat als wildcard erstellen zu lassen, dann funktioniert es auch.

    damit das Zertifikat in SWAG dann für *.deinedomain.de gilt, sonst akzeptiert der die anderen Subdomains nicht.

     

    aber wenn deine config für dich so okay ist, ist ja alles gut.

     

    Gruß

     

    Dark

  9. 4 hours ago, sylus said:

     

    Läuft es denn bei dir?

     

    ich habe lediglich das CF Zertifikat verwendet. Bekommen dann jedoch einen 502 Fehler, so dass offensichtlich etwas mit dem Zertifikat nicht stimmt.

     

    Ich habe auch die Config 

     

    # forward all traffic to Reverse Proxy w/ SSL ingress: - service: https://192.168.1.25:443 originRequest: originServerName: "*.deinedomain.de"

     

    soweit angepasst, dass Sie direkt auf die Subdomain verlinkt ist. Leider kein Erfolg.

     

    Update: Okay, der Fehler lag daran, dass Cloudflared in einem anderen Docker Netzwerk war.

     

    Hat es eigentlich irgendwelche Nachteile, wenn NGINX und Cloudflared im bridge Network sind?

     

    Die abschließende Frage ist nun nur noch, wie man mehrere Subdomains verwenden kann? Ich muss ja schließlich in der Config Datei genau auf eine Subdomain verlinken. Der Nutzen des Tunnels wäre ja sehr stark eingeschränkt, wenn man nur eine Subdomain verwenden könnte.

     

     

    du machst eine Subdomain mit einem CNAME und kannst dann beliebig viele Subdomains per CNAME als Alias erstellen und als Ziel die erste Subdomain benutzen.

    deshalb ja in Cloudflared *.deinedomain.de und in SWAG wildcard.

     

    Also in CF z.B. erste Subdomain: CNAME cloud und Ziel der ARGO Tunnel.

    Subdomain 2: CNAME plex und Ziel cloud.deinedomain.de

     

    P.S. Bitte bedenkt, dass wir SWAG sozusagen als firewall benutzen, da wir hier einen VPN Tunnel aufbauen, geht der traffic vorbei an der Firewall in eurem router und direkt zum server.

     

    Glücklicherweise hat CF ja eine Firewall, dort hab ich z.B. diverse Länder geblockt und auch immer den Botfight modus an! Wollte ich nur mal gesagt haben.

    Screenshot_20210731-201548_Chrome.thumb.jpg.83512626bc33d3aa94f8e461e1075405.jpg

     

    Gruß

     

    Dark

     

  10. 11 hours ago, anima said:

    Danke wieder was gelernt :D hatte mich an die ibracorp videos gehalten, bei dem Argo Tunnel meinte er man solle die Zertifikate so beibehalten wie in den Videos davor und dann hab ich mich vor gearbeitet NGINX video -> Cloudflare + NGINX Video -> Argo Tunnel Video :D

    ich habe in CloudFlare keine extra Zertifikate hinterlegt, nur das generelle aktiviert.

    Ich sage ja nicht, dass mein Weg der richtige ist, aber es funktioniert alles.

    Wenn es anders und beste Wege gibt, klärt mich gerne auf, bin für beste Lösungen offen.

  11. 10 hours ago, mgutt said:

    Wie soll das gehen, wenn man nur über einen Tunnel drauf kommt? SWAG kann das Zertifikat dann doch gar nicht verifizieren?!

    klar, wird alles geforwarded und als Verifizierung nehme ich ja Verifizierung über DNS und damit geht er über die CloudFlare API und das läuft nicht über den Tunnel kennt swag ja nicht...

     

    wenn man auf die Domain kommt, steht da eh das CF Zertifikat, also wayne...

    aber cloudflared leitet die Domain an swag weiter und damit kann swag sein eigenes Zertifikat für die Domain checken.

     

    Bei mir funktioniert es zumindest alles, siehe auch Screenshot für swag config.

    Nochmal angemerkt: Wenn man in swag Verifizierung über DNS (CF) am hat, dann braucht man keinen offenen Port 80 o.a., da alles per CF API gemacht wird.

  12. Hab mich da auch an das Video von Ibracorp gehalten und lasse mein Plex über swag laufen...

    Cloudflare -> Cloudflared -> Swag -> Plex

    In Plex Fernzugriff deaktivieren und unter Netzwerk dann die url z.B. https://plex.deinedomain.de:443 eintragen.

    Im Router alle Portfreigaben deaktivieren, werden nicht mehr benötigt -> Ich lass alle Webanwendungen über den Argo-Tunnel laufen, dementsprechen hab ich kein Port 80 + 443 mehr offen, da alles dann über Cloudflared kommt und dann durch SWAG an den richtigen Docker geht.

    Zusätzlich ist der Vorteil, dass nun alles erst bei CF durch die Firewall muss.

     

    Die Rule bei Cloudflared sieht bei mir z.B. so aus:

    # forward all traffic to Reverse Proxy w/ SSL
    ingress:
      - service: https://192.168.1.25:443
        originRequest:
          originServerName: "*.deinedomain.de"

     

    SWAG-Config:

    swag-config.thumb.PNG.8ac907611280dbe226fc4cf01870f0e9.PNG

     

    Die SSL-Einstellung bei CF sieht bei mir so aus:

    CF-SSL-Einstellung.thumb.PNG.a0b06955c87ef8b0806c4ab58ecd9da1.PNG

    Ich habe heute einen Stream getestet und das sieht man auch an den verarbeiteten Daten -> 5 GB

    CF-Uebersicht.thumb.PNG.6ecf38c1f78fd35a459f8af43b424d6f.PNG

     

    Wenn du die Weboberfläche deines Plex auch über die Subdomain erreichen möchtest, dann musst du bei Cloudflare noch im Dashboard unter Regeln eine Ausnahme für deine Plex-Subdomain einrichten und den Rocket-Loader deaktivieren.

     

    Gruß

    Dark

    • Thanks 1
  13. On 4/11/2021 at 12:29 PM, ich777 said:

    Is it possible that some containers in bridge mode rely on other containers that are in br0 on your system and you have access to host enabled?

    Host access is disabled and no container rely on any other and each restart other Containers are online, so it seems to be random...

  14. Mal ne andere Frage: Lief eure Windows VM auch schon ohne Grafikkarte flüssig?

    Meine ruckelt sich einen zurecht beim verschieben von z.B. einem Explorer Fenster und ich habe schon "Inhalt während Bewegung anzeigen" auf aus...

    Mag natürlich auch an demXeon liegen (nur AVX1 usw.)

     

    Wie sind da so die Erfahrungen?

     

    Gruß

    Dark

  15. 6 hours ago, mgutt said:

    Bei mir sank der Verbrauch um 4 Watt. Aber bei deinem Motherboard wundert mich das jetzt nicht. Ich mein da sind ja 4x mehr Bauteile drauf als auf meinem und dann eben noch zwei CPUs und eine Millionen RAM-Slot ^^ Mit Enterprise-Hardware kann man Energie sparen denke ich vergessen.

    Joa ja, ich hab nochmal geschaut...

    Nach ein paar Stunden mehr Laufzeit is es letztenendes doch ein bissel weniger...

    Rund 10-20 WATT im Normalbetrieb und wenn noch zu den Docker-Containern eine VM läuft, sogar ~30 WATT weniger als vorher 🙂

     

    Komisch war nur, dass das Tool ansich gar keine mW oder Watt angaben angezeigt hat, wenn es gemessen / überwacht hat.

  16. 7 hours ago, mgutt said:

    Ich wollte gerade sagen, dass er deutlich höher ist, aber elefacts hat gar nicht mit Windows gemessen:

    https://www.elefacts.de/test-96-nas_advanced_3.0__nas_mit_intel_c246_serverchipsatz_und_6x_sata

    FreeBSD wird er sicher nicht optimiert haben. Da ist bestimmt deutlich weniger möglich.

     

    @Andreas2020

    Mess bitte mit 1x SATA SSD und Windows 10 und allen aktivierten C-States.

     

    Dazu gleich noch das Skript zum Energiesparen, später für Unraid:

    https://forums.unraid.net/topic/98070-reduce-power-consumption-with-powertop/

     

    Interessant, hab Powertop mal laufen lassen, gefühlt 30 BAD-Einträge, alle korrigiert....Stromverbrauch is genauso wie vorher 🚱

  17. Ja und ist ssl in der unraid webgui erstmal aktiviert,dann kannstes nicht mehr ausschalten.

    Zumindest bei mir so,seitich den ein Zertifikat erstellen lassen habe, die buttons schmeißen dann javascript fehler, somit ist ein übernehmen der Einstellungen dann nicht möglich...

  18. 4 minutes ago, mgutt said:

    Wenn du Nextcloud auf deinem Client installierst, was hinterlegst du da als Serveradresse? Wenn es https://ddns.example.com:5600/ ist, dann geht es, weil du ja den Port direkt hinterlegt hast. Hinterlegst du allerdings eine DDNS Domain ohne Port wie zB https://ddns.example.com/, dann greift der Client von unterwegs über den Port 443 auf deinen Router zu, den du dann über die Portfreigabe auf 5600 weiterleitest. Lokal greift der Client aber auf 443 zu und erreicht nicht Nextcloud, sondern die Unraid WebGUI.

    NextCloud macht einen DNS-Bind auf die Domain, du wirst automatisch weitergeleitet.

    Wenn du dann in der Fritzbox den DNS-Rebind einträgst, wird das glaub ich dann auch lokal gehen...korrigier mich jemand, wenn ich falsch liege...

  19. 17 minutes ago, mgutt said:

    Dazu noch eine Info. NAT Loopback verursacht eine hohe Last auf dem Router. Der Durchsatz bei der 7490 lag damals bei 4 MB/s:

    https://www.synology-forum.de/threads/quick-connect-wie-funktionierts.30252/page-2#post-402985

     

    Mit der 7590 müsste ich es mal testen.

     

    Die Last entsteht bei IPv6 übrigens nicht. Keine Ahnung warum, aber da geht das wohl ohne NAT.

    Na bei IPv6 hat ja auch jeder Endpunkt eine eigene IP (es sei denn du hast das beschnitten mit local bla bla), da brauchst dann kein NAT (Portweiterleitungen) mehr, da jeder Endpunkt eindeutig identifizierbar ist.