Jump to content

sakistech

Members
  • Posts

    119
  • Joined

  • Last visited

Posts posted by sakistech

  1. 22 minutes ago, Ford Prefect said:

    kannst Du wirklich mal mit der Fedora LIVE ISO testen, ob da 16+GB gehen? ...da muss man nix installieren, nur im Template so tun als ob, beim boot dann LIVE auswählen ;-)

    Heute schaffe ich das nicht, aber ich werde es testen und Bescheid geben.

     

    18 minutes ago, hawihoney said:

     

    Es gibt mehrere mit dieser Fehlermeldung - mich eingeschlossen. Bei mir reicht es ein Update der VM Konfiguration zu erzwingen bzw. sie mit einem Backup der Konfiguration im XML Modus zu füttern. Irgendwie verhaspelt sich das System manchmal und durch Ändern, ggfs. mit identischen Werten, klappt es dann. Insofern muss m.M.n. eine Änderung des RAMs nicht die Lösung zu sein. Einfach die Tatsache, dass etwas geändert wurde, könnte schon die Lösung gewesen  sein.

     

    Das Gefühl hatte ich auch, konnte aber nicht herausfinden woran das genau lag, bei mir hat es mit dem runterstellen des Arbeitsspeichers geklappt.

     

    14 minutes ago, mgutt said:

    War die VM mal mit weniger RAM eingerichtet worden? Wurde der Windows Schnellstart deaktiviert?

    Die VM wurde neue installiert, allerdings hatte ich vorher eine Identische VM erstellt gehabt, die ich aber dann gelöscht hatte.

  2. 8 minutes ago, Ford Prefect said:

    Kingston Module heissen anders...denke es sind diese: KSM32ED8/32M

    Genau das sind die. Klick

     

    p.s.: Die PCie Karte wird erkannt und die daran angeschlossene Geräte auch. Also alles top, bis auf das ich nicht 16GB RAM vergeben kann.

     

  3. 5 minutes ago, Ford Prefect said:

    ...interessant....im Info-Screenshot oben steht was von 64GB installed (max. installable capacity 64GB)...das Board und der W-1290P sollten aber 128GB schaffen 🤔

    Was genau hast Du für RAM installier?

    Ich hab 2 x Kingston 9965745-020.A00G, 32 GiB DDR4 @ 3200 MT/s installiert.

     

    5 minutes ago, Ford Prefect said:

    Oder hast Du schon andere VMs laufen und das RAM verbraucht? Over-Provisioning geht hier nicht,,,das ist nicht VMWare ;-)

    Nein nur Win10.

  4. Hallo zusammen,

     

    ich möchte eine PCIe USB an meine Win10 VM durchreichen, aber irgendwie will das nicht klappen.

    Wenn ich die VM über VNC ansehen möchte, kommt "guest has not initialized the display (yet)" als Fehlermeldung.

    Was mache ich da falsch?

     

    Screenshots:

    Spoiler

    1.jpg

     

    2.jpg

     

     

    3.jpg

     

     

    4.jpg

     

    5.jpg

     

     

    6.jpg

     

     

     

    7.jpg

     

     

     

     

     

     

     

     

     

     

     

     

     

  5. Hallo zusammen,

     

    Hier erstmal mein Aufbau.

    auf meinem Raspberry Pi4 habe ich Pihole mit Unbound installiert, er übernimmt DNS und DHCP in Heimnetz.

    Als "domain name" habe ich "homelab" eingetragen.

     

    Jeder Docker Container im Unraid bekommt eine statische IP.

    Die IP und MAC-Adresse vom Docker-Container trage ich in Pihole als "Static DHCP leases" und unter "Local DNS Records" vergebe ich noch die IP und den Namen vom Docker ein z.b. plex, dann ist der Plex-Server unter plex.homelab im Heimnetz erreichbar. 

    Soweit so gut.

    Nun möchte ich meine echte TLD intern nutzen um mit Nginx Proxy Manager und DNS-Validierung, Lets Encrypt zertifikate zu erhalten, dazu habe ich im Pihole folgende Datei erstellt "/etc/dnsmasq.d/03-pihole-dns-reverse-proxy.conf" darin habe ich folgendes eingetragen "address=/domain.com/192.168.20.104" die IP ist die vom Nginx Proxy Manager.

    Nun kann ich im NPM einen host erstellen z.b. plex.domain.com und somit intern Letsencrypt zertifikate nutzen

    bis hier funktioniert alles wie gewünscht.

     

    Nun zum Problem.

    Pihole loggt im Sekundentakt jede interne URL, z.b. plex.domain.com wenn ich die mit meinem PC öffne, und das passiert mit allen angelegten Docker-Containert bzw. im Pihole eingetragene DNS.

     

    Ich vermute das da ein "DNS-Loop" ist? Wenn ja, weiß einer wie ich das beheben kann?

    Oder liegt der fehler wo anders?

  6. Ich habe den fehler gefunden.

     

    1.) Im Unraid unter "Settings" -> "Docker" -> "Host access to custom networks:" auf Enabled setzen.

    2.) Im Unraid unter "Settings" -> "VPN Manager" -> "Local server uses NAT:" auf No setzen.

    3.) in der Fritzbox eine statische Route machen (Netzwerk > Netzwerkeinstellungen > Statische Routingtabelle

    von 10.253.0.0/24 (Das ist die IP die unter "VPN Manager" -> "Local tunnel network pool:" steht.)

    zu 192.168.178.200 (Die IP eueres Unraid-Servers)

     

    man braucht kein DNS Rebindschutz etc. vermutlich weil ich DNS und DHCP über Pihole amlaufen habe, auf einem Raspberry Pi 4.

     

    Mit dieser Einstellung kann ich jetzt über VPN sowohl über die lokale IP als auch über die NPM erstellte Host zugreifen und das mit einem gültigen SSL fürs lokale Netz.

     

  7. 6 hours ago, jj1987 said:

    Damit würde ich anfangen und z.B. "plex.example.com" im Rebind-Schutz eintragen

    leider liegt es nicht daran. Es muss irgendwas mit dem Unraid-Server sein, vielleicht die Interfaces? Weil wenn ich z.b. über den VPN-Tunnel auf meiner tasmota zugreifen möchte (http://tasmota/) dann wird mir das ganz normal angezeigt, sogar ohne tasmota.example.com und ohne eintrag im DNS-Redind-Schutz. Auch auf die Fritzbox kann ich mittels IP zugreifen 192.168.178.1, nur auf alles andere was im Unraid-Server ist kann ich nicht zugreifen.

  8. On 12/6/2021 at 8:25 AM, mgutt said:

    Optional kann es notwendig sein, dass du im Router den DNS rebind Schutz für deine Domain aufheben musst. Das ist z.b. bei einer Fritzbox der Fall.

    meine Fritzbox erreiche ich über die IP, daher habe ich bei den DNS Rebind Schutz nichts geändert-

     

    On 12/6/2021 at 8:25 AM, mgutt said:

    Lassen sich custom DNS-Einträge bei pihole nicht über die GUI erstellen?

    Das ist korrekt. Man muss nur Punkt 9 bis 11 manuell per Putty eintragen, alles andere dann über die GUI.

     

    On 12/6/2021 at 8:25 AM, mgutt said:

    Wer das nachbauen will sollte übrigens eine separate Hardware für pi-hole haben. Ansonsten kommt man nicht mehr ins Internet wenn der unRAID Server aus ist und Pihole darauf läuft.

    Ja genau, bei mir läuft Pihole auf einem Raspberry Pi 4.

     

    Die oben genannte Anleitung ist noch experimentell, folgende probleme bestehen noch.

    • wenn ich unter Pihole einen CNAME für den Unraid Server erstelle z.b. server.example.com -> proxy.example.com und dann einen Proxy Host in NPM mit der Domain server.example.com und der ip vom Unraid-Server und Port 80, dann erhalte ich die Fehlermeldung "502 Bad Gateway" wenn die die Domain server.example.com aufrufe.
    • Wenn ich mich per Wireguard auf den Server verbinde kann ich z.b. die Fritzbox über die IP 192.168.178.1 aufrufen, aber die Docker Container nicht. Weder mit IP noch mit der internen Domain z.b. plex.example.com

    Wo kann da der fehler liegen?

     

    LG

    Sakis

  9. Ich habe es nun geschaft. 😄

     

    Ich möchte hier mein vorgehen genauer beschreiben, vielleicht hilft es den einen oder anderen.

     

    Was ist unser Ziel?

    • Let`s Encrypt Zertifikate für die lokale Domain
    • keine Portfreigabe am Router, da Cloudflare DNS-Validierung genutzt wird
    • Host und SSL Verwaltung mittels Nginx Proxy Manager
    • alle Geräte im Heim-Netzwerk sollen über HTTPS kommunizieren können

     

    Was wird benötigt?

    • eine eigene Domain
    • Pihole als DNS sowie DHCP
    • Cloudflare Account um DNS zu verwalten

     

    Auf gehts.

    1. Domain kaufen
    2. Domain zu Cloudflare umziehen
    3. API-Token bei Cloudflare erstellen ("DNS:bearbeiten" reicht aus)
    4. "Nginx-Proxy-Manager-Official" installieren
    5. NPM WebGui öffnen und ein Letsencrypt Wildcard Zertifikat installieren mittels DNS-Challange (API-Token eintragen)
    6. In Pihole unter "Settings" -> "DHCP" -> "Pi-hole domain name:" folgendes eintragen "example.com"
    7. In Pihole unter "Local DNS" -> "DNS Records" -> subdomain und IP von NPM eintragen. z.b. proxy.example.com und 192.168.178.100
    8. SSH-Verbinung mit Pihole herstellen und folgendes .conf erstellen
    9. sudo nano /etc/dnsmasq.d/03-pihole-dns-reverse-proxy.conf
    10. Darin dann folgendes eintragen (example.com entsprechend anpassen und die IP vom NPM eintragen)
    11. address=/example.com/192.168.178.100

       

    12. dann einmal mit "pihole restartdns" den DNS-Resolver neustarten.
    13. Neuen Host erstellen in NPM (example.com und die ip vom NPM als Port 81 eingeben)
    14. Wenn ihr nun die Domain example.com öffnet, sollte das Login Fenster von NPM mit gültigen SSL erscheinen.

     

    Somit kann ich nun mein Vaultwarden über VPN nutzen, da es ein gültiges Zertifikat hat.

    Natürlich kann man auch weitere Dienste wie Plex, Nextcloud etc mittels HTTPS lokal absichern. Man muss dann nur unter "Local DNS" -> "CNAME Records" -> "Domain:" plex.example.com -> "Target Domain:" proxy.example.com.

     

    Ich möchte betonen das ich kein ITler bin, wer Verbesserungen und Optimierungen hat, dann her damit. Mit dieser Anleitung funktioniert es soweit bei mir.

     

    LG

    Sakis

  10. 16 hours ago, mgutt said:

    Meinst du wegen der Fehlermeldung?

    Ein Fehler ist aufgetreten.
    Username or password is incorrect. Try again
    

    Ja genau.

     

    16 hours ago, mgutt said:

     

    Ich denke mal du musst sowas machen wie ich:

    https://forums.unraid.net/topic/115369-nginx-ssl-zertifikat-für-lokal-genutzte-domains/?tab=comments#comment-1048918

     

    Damit kann ich alles über https erreichen, aber eben nur lokal. Wobei man um die Portfreigabe nicht herum kommt, wenn man keine DNS Challenge machen kann (weil Let's Encrypt ja über Port 80 dann die URL Challenge macht). Also entweder hast du eine eigene Domain und machst eine DNS Challenge und lässt alle Ports zu oder du nimmst eine DDNS und öffnest Port 80 (ginge im Härtefall auch nur alle 3 Monate für den Refresh der Let's Encrypt Validierung). Oder vielleicht ein Cloudflare Zertifikat? Das ist ja meine ich auch kostenlos.

    Ich habe eine Domain und verwalte die über Cloudflare. Da ich eine Fritzbox habe, kann ich mit hilfe diesem PHP-Script über Cloudflare eine DynDNS Adresse erstellen z.b. home.example.de

     

    ich nutze Pihole und habe unter "Pi-hole domain name" die Dydns eingetragen, also home.example.de

     

    Jetzt habe per NPM einen host erstellt (pass.home.example.de)  und die DNS-Validierung per Cloudflare durchgeführt (keine Ports geöffnet). und ich habe bei Advanced folgendes eingetragen.

    location / {
      # allow anyone in 192.168.178.0/24
      allow 192.168.178.0/24;
      # allow our public ip
      allow 12.34.56.789; # aktuelle IP
      # drop rest of the world
      deny all;
      proxy_set_header Upgrade $http_upgrade;
      proxy_set_header Connection $http_connection;
      proxy_http_version 1.1;
      # Proxy!
      include conf.d/include/proxy.conf;
    }

    Wenn ich nun pass.home.example.de aufrufe, wird die mir unverschlüsselt geöffnet, also mit Port 80.

     

     

    16 hours ago, mgutt said:

     

    Ich habe dann über die erweiterten Einstellungen des Containers bei WebUI meine Domain https://passwords.example.com hinterlegt. Auf die Art geht die dann direkt über die verschlüsselte Domain auf.

    Das habe ich schon probiert, bringt aber nichts. wird immer mit Port 80 geöffnet.

     

    16 hours ago, mgutt said:

    Alternativ müsste man es mit einem self-signed Zertikat versuchen

    Das war auch mein gedanke. Wie kann ich für alle Docker Container einen self-signed Zertikat erstellen, oder gibt es da eine App?

     

    16 hours ago, mgutt said:

    Ich dachte ADMIN_TOKEN ist das Passwort?!

    ja genau, die URL ist folgende https://example.de/admin den ADMIN-TOKEN kann man auch unter /mnt/user/appdata/bitwarden/config.json finden.

     

    Hier die Ping ausgabe.

    ping pass.home.example.de
    
    Ping wird ausgeführt für pass.home.example.de [192.168.178.107] mit 32 Bytes Daten:
    Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64
    Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64
    Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64
    Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64
    
    Ping-Statistik für 192.168.178.107:
        Pakete: Gesendet = 4, Empfangen = 4, Verloren = 0
        (0% Verlust),
    Ca. Zeitangaben in Millisek.:
        Minimum = 0ms, Maximum = 0ms, Mittelwert = 0ms

     

    Wenn ich die Seite mit https aufrufe kommt folgende Fehlermeldung

    Fehler: Verbindung fehlgeschlagen
    
    Beim Verbinden mit pass.home.example.de trat ein Fehler auf.
    
        Die Website könnte vorübergehend nicht erreichbar sein, versuchen Sie es bitte später nochmals.
        Wenn Sie auch keine andere Website aufrufen können, überprüfen Sie bitte die Netzwerk-/Internetverbindung.
        Wenn Ihr Computer oder Netzwerk von einer Firewall oder einem Proxy geschützt wird, stellen Sie bitte sicher, dass Firefox auf das Internet zugreifen darf.

     

     

  11. Hallo zusammen,

     

    wie Ihr schon im Title sehen könnt, bin ich seit Stunden auf der Suche mein Vaultwarden lokal zu nutzen, ohne Letsencrypt, ohne Domain etc.

    Ziel ist es das man nur per Wireguard darauf zugreifen kann.

     

    Leider konnte ich im Internet nichts passendes dazu finden. kann mir da jemand weiterhelfen?

     

    LG

    Sakis

  12. 14 hours ago, mgutt said:

    Das passiert nicht, wenn die Platte schläft, sondern nachdem sie durch was anderes hochgefahren wurde.

    Du hast recht, war mein Fehler. 

    Die Festplatte wacht auf nachdem ich das Plugin "Fix Common Problems" ausführe, nach der eingestellten Zeit geht Sie wieder schlafen.

     

    14 hours ago, mgutt said:

     

    Das ist komisch. Also auch kein leerer Ordner (Share) drauf?

    Ne, da ist nichts drauf, kein Ordner, keine Daten...

  13. 10 hours ago, saber1 said:

    Sowie ein Verzeichnis sowohl im Cache als auch auf einer Disk im Array existiert, wird es Dir einfach so angezeigt.

    Es reicht wohlgemerkt, das tatsächlich nur das Verzeichnis (auch ohne enthaltene Daten) auf dem Cache existiert, damit wie in Deinem Screenshot für diesen Share sowohl Cache als auch Disk1 angezeigt werden.

    Das liegt daran, das der Share einfach die Summe aller Disks/SSD's wiederspiegelt. Damit Du mit einem verbunden Client eben keine Gedanken darüber verschwenden musst, auf welchem Laufwerk die Daten liegen.

    Das klingt logisch, danke fürs aufklären. :)

     

    10 hours ago, saber1 said:

     

    @mgutt bezog sich auf die Features des Dateisystems.

    Du musst einfach nur wissen, das selbst eine frisch formatierte Platte nicht 0B an Daten enthält. Das Dateisystem beansprucht immer Kapazität für sich selbst. Bei einer meiner Array-Platten mit 4TB sind es 27,9GB, die ich somit nicht nutzen kann.

    Jetzt wo du es sagst geht ein 💡 bei mir auf :)

     

    10 hours ago, saber1 said:

     

    Dazu schau Dir das einmal an: https://wiki.unraid.net/Un-Official_UnRAID_Manual#Allocation_method

    Für Dich wäre dann Fill-Up die Methode, die Du möchtest. Kannst Du in den Einstellungen zum Share anpassen.

     

    Danke für den Link.

     

    9 hours ago, mgutt said:

    Du kannst ganz normal weiter machen. Dateien hinzufügen oder verschieben geht alles (nur eben langsamer).

    Wieder was neues dazu gelernt. Danke. 

    9 hours ago, mgutt said:

    Der Mover kann keine Dateien verschieben, die gerade benutzt werden. Daher muss Docker deaktiviert werden. Du hast vermutlich den Cache erst aktiviert als Docker bereits lief. Daher kam es dazu. Und langsam ist das dann auch, weil er effektiv nichts überträgt, sondern erstmal nur prüft ob die Dateien in Verwendung sind.

    Ja das kann gut möglich sein, jetzt läuft alles wieder wie gewöhnt.

     

    Jetzt wacht plötzlich Disk2 aus. 

    Nov 30 21:30:45 Server emhttpd: spinning down /dev/sdd
    Nov 30 23:08:23 Server emhttpd: read SMART /dev/sdd

     

    LG

    Sakis

  14. Danke für eure schnelle Antwort.

     

    5 hours ago, saber1 said:

    Was bedeutet "langsam"?

    Es wird im KB/s gelesen geschrieben.

     

    5 hours ago, saber1 said:

     

    Alles in Ordnung. Für den Cache ist Deine Einstellung "YES: Cache".

    Bedeutet, das der Cache zunächst verwendet wird. Aber der Mover verschiebt die Daten in der von Dir angegebenen Zeitspanne auf das Array. Die Verzeichnisse existieren also sowohl auf dem Cache als auch auf dem Array. Die Daten aber entweder auf dem Cache oder auf dem Array.

    Auch hier: Alles in Ordnung. Dateisysteme benötigen auch für sich selbst Speicherplatz (Overhead). Bei XFS sind es knapp 0,5% der Plattenkapazität.

    Siehe hier: https://rwmj.wordpress.com/2009/11/08/filesystem-metadata-overhead/

    Ja, aber wenn ich den Mover nutze, müssten die Daten ja nur im Disk1 liegen tun sie aber nicht.

     

    4 hours ago, mgutt said:

    Docker Einstellungen > Nein wählen um Docker zu deaktivieren. Danach Mover starten. Dann ist Appdata nur noch auf dem Cache.

    Aktuell läuft der Parity Check, kann ich das auch wärend desen auch tun oder muss ich warten bis der Parity Check durch gelaufen ist?

     

    4 hours ago, mgutt said:

    Das kommt auf die Features an:

    https://serverfault.com/a/984152/44086

    Danke für den Hinweis, welche Vorteile bringen crc=1 und reflink=1 in UnRaid? 

     

    Spoiler
    # xfs_info /mnt/disk2
    meta-data=/dev/md2               isize=512    agcount=13, agsize=268435455 blks
             =                       sectsz=512   attr=2, projid32bit=1
             =                       crc=1        finobt=1, sparse=1, rmapbt=0
             =                       reflink=1
    data     =                       bsize=4096   blocks=3418095603, imaxpct=5
             =                       sunit=0      swidth=0 blks
    naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
    log      =internal log           bsize=4096   blocks=521728, version=2
             =                       sectsz=512   sunit=0 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0

     

     

    LG

    Sakis

  15. Hallo zusammen,

     

    seit kurzem habe ich mehrere Probleme auf einmal.

     

    1. Mover ist sehr langsam, wo kann ich nach dem Fehler suchen?

     

    2. Shares haben Cache und Disk1 ? Das soll nicht so sein, oder ? Siehe Screenshot. Wie kann ich das beheben?

    Spoiler

    image.thumb.png.f2c6b225f440c8d49b5d79ea983eae8f.png

     

    3. Dashboard zeigt bei Disk 2 an das dort angeblich 97,6GB Daten drauf sind, das stimmt nicht. Ich hatte mal zum testen ein Backup gestartet gehabt (auf Disk 2) hab die Daten aber wieder per ssh (rm -r /mnt/disk2/backup) gelöscht. ich bin mir nicht sicher ob dann kurze Zeit später ein Paritycheck gestartet wurde, hat das vielleicht was damit zu tun? und ist meine Parity jetzt "Kaputt" bzw. mit falschen "Daten" bespielt worden? Warum zeigt das Dashboard nicht den "echten" Speicherplatz der Disk an? Das gleiche ist auch Beim Cache! Aktuell läuft automatisch ein Parity-Check (noch 15 Stunden).

    Spoiler

    image.thumb.png.fc971d3c6a1fbbfd9976466f7f4da4bd.png

     

    Lg

    Sakis

    server-diagnostics-20211130-0051.zip

  16. Hallo zusammen,

     

    seit kurzem ertönt ein nerviges "summen" aus meinen Lautsprechern.

    Tags über hört man es kaum, doch nachts (wenn es leise ist) hört man es und es ist echt nervig. (Audio-Datei im Anhang)

     

    Ich hab keine Ahnung wo ich nach den Fehler suchen soll.

    Wenn ich meinen UnRaid Server herunterfahre ist das "summen" auch weg.

     

    Ich habe eine VM (Win10) erstellt und meine externe Soundkarte (Steinberg UR44) per USB eingehängt. An der UR44 sind zwei Rokit5 Lautsprecher angeschlossen.

     

    ich nutze Gosund SP1 mit neuester Tasmoto Firmware (10.0.0) um meinen Stromverbrauch anzuzeigen, darin sind mittels 10-Fachstecker folgende Geräte angeschlossen.

     

    • UnRaid Server (W480M Vision W, Xeon W-1290, 3 x WD Ultrastar HC530 14TB, Samsung M.2 970 EVO Plus 1TB, 2 x 32GB Kingston Server Premier ECC DDR4-3200, Noctua NH-D15S chromax.black, Corsair RM550x 2021 550W)
    • Intel NUC6i3SYH mit Win10
    • Netgear GS108Ev3 - 8-Port Switch
    • Steinberg UR44
    • 2 x Rokit5 Lautsprecher
    • KVM-Switch
    • QNAP TS-251+

     

    Hier der aktuelle Verbrauch:

    Spoiler

    grafik.thumb.png.e5db16d87c6bc568ca49cde4ac87183f.png

     

    Hat da jemand eine Idee?

     

    LG

    Sakis

     

    summen.m4a

  17. Hallo zusammen,

     

    seit gestern lief Tvheadend ohne probleme, doch nach einem neustart wird in sekunden takt folgende Log einträge erstellt.

     

    Spoiler

    ...

    Nov 22 01:48:11 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:14 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
    Nov 22 01:48:14 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
    Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)

    ...

     

    weiß jemand wie ich das beheben kann ?

  18. 18 minutes ago, alturismo said:

     

    was für eine DVB Karte hast du überhaupt ?

    Mainboard: W480M Vision W

    CPU: Intel Xeon W-1290P

    DVB-Karte: TBS-6902

     

    edit: mit dem Wizard-Setup hat es geklappt. 😁

     

    18 minutes ago, alturismo said:

    und dann gleich als Info, Plex wird TVHeadend von Haus aus nicht als Quelle einbinden, ist "nicht supported", dann muss da noch etwas dazwischen, das nur als Info vorweg ;) Tipp, xteve docker ;)

    Danke für den Hinweis. Hauptsächlich soll TVH als TV-Recorder dienen und die Aufnahmen werde ich dann bei Plex als "Quelle" eintragen.

    Live TV ist nur als "Backup-Lösung" gedacht, falls daheim aus irgendeinen Grund die Sender vom Anbieter nicht gehen.

  19. 5 minutes ago, ich777 said:

    Also in der CA App find ich diesen container hier:

    grafik.png.238d69e34f608c630b3274da0923d363.png

    ich Dummkopf, dachte die ganze Zeit du meinst das Intel GPU TOP Plugin *facepalm*

    Ja ich verwende diesen Container.

     

     

    5 minutes ago, ich777 said:

    Also soweit ich weiß ist das nicht so easy mit Plex aber hier kann @alturismo weiterhelfen.

    Würd das aber trotzdem evtl. über Plex spielen da es dann für die Nutzer noch einfacher wird.

     

    Ich verwend Emby in Verbindung mit TVheadend und das funktioniert prima, transcoding übernimmt Emby, Timeshift macht wieder TVheadend.

    Hast recht, ich werde es wahrscheinlich über Plex transkodieren lassen.

     

    Aber irgendwie startet TVH nicht den Suchlauf, kann da jemand weiterhelfen?

×
×
  • Create New...