-
Posts
119 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by sakistech
-
-
8 minutes ago, Ford Prefect said:
Kingston Module heissen anders...denke es sind diese: KSM32ED8/32M
Genau das sind die. Klick
p.s.: Die PCie Karte wird erkannt und die daran angeschlossene Geräte auch. Also alles top, bis auf das ich nicht 16GB RAM vergeben kann.
-
5 minutes ago, Ford Prefect said:
...interessant....im Info-Screenshot oben steht was von 64GB installed (max. installable capacity 64GB)...das Board und der W-1290P sollten aber 128GB schaffen 🤔
Was genau hast Du für RAM installier?
Ich hab 2 x Kingston 9965745-020.A00G, 32 GiB DDR4 @ 3200 MT/s installiert.
5 minutes ago, Ford Prefect said:Oder hast Du schon andere VMs laufen und das RAM verbraucht? Over-Provisioning geht hier nicht,,,das ist nicht VMWare
Nein nur Win10.
-
Es ist echt schräg.
Wenn ich von 16GB Ram auf 8GB runter gehe, dann startet die VM.
Mal sehen ob die PCIe Karte auch erkannt wird.
Melde mich wenn`s fertig installiert ist.
-
Hab jetzt ein paar Screenshots hinzugefügt, braucht Ihr noch weitere Infos?
-
-
Hallo zusammen,
Hier erstmal mein Aufbau.
auf meinem Raspberry Pi4 habe ich Pihole mit Unbound installiert, er übernimmt DNS und DHCP in Heimnetz.
Als "domain name" habe ich "homelab" eingetragen.
Jeder Docker Container im Unraid bekommt eine statische IP.
Die IP und MAC-Adresse vom Docker-Container trage ich in Pihole als "Static DHCP leases" und unter "Local DNS Records" vergebe ich noch die IP und den Namen vom Docker ein z.b. plex, dann ist der Plex-Server unter plex.homelab im Heimnetz erreichbar.
Soweit so gut.
Nun möchte ich meine echte TLD intern nutzen um mit Nginx Proxy Manager und DNS-Validierung, Lets Encrypt zertifikate zu erhalten, dazu habe ich im Pihole folgende Datei erstellt "/etc/dnsmasq.d/03-pihole-dns-reverse-proxy.conf" darin habe ich folgendes eingetragen "address=/domain.com/192.168.20.104" die IP ist die vom Nginx Proxy Manager.
Nun kann ich im NPM einen host erstellen z.b. plex.domain.com und somit intern Letsencrypt zertifikate nutzen
bis hier funktioniert alles wie gewünscht.
Nun zum Problem.
Pihole loggt im Sekundentakt jede interne URL, z.b. plex.domain.com wenn ich die mit meinem PC öffne, und das passiert mit allen angelegten Docker-Containert bzw. im Pihole eingetragene DNS.
Ich vermute das da ein "DNS-Loop" ist? Wenn ja, weiß einer wie ich das beheben kann?
Oder liegt der fehler wo anders?
-
Ich habe den fehler gefunden.
1.) Im Unraid unter "Settings" -> "Docker" -> "Host access to custom networks:" auf Enabled setzen.
2.) Im Unraid unter "Settings" -> "VPN Manager" -> "Local server uses NAT:" auf No setzen.
3.) in der Fritzbox eine statische Route machen (Netzwerk > Netzwerkeinstellungen > Statische Routingtabelle
von 10.253.0.0/24 (Das ist die IP die unter "VPN Manager" -> "Local tunnel network pool:" steht.)
zu 192.168.178.200 (Die IP eueres Unraid-Servers)
man braucht kein DNS Rebindschutz etc. vermutlich weil ich DNS und DHCP über Pihole amlaufen habe, auf einem Raspberry Pi 4.
Mit dieser Einstellung kann ich jetzt über VPN sowohl über die lokale IP als auch über die NPM erstellte Host zugreifen und das mit einem gültigen SSL fürs lokale Netz.
-
6 hours ago, jj1987 said:
Damit würde ich anfangen und z.B. "plex.example.com" im Rebind-Schutz eintragen
leider liegt es nicht daran. Es muss irgendwas mit dem Unraid-Server sein, vielleicht die Interfaces? Weil wenn ich z.b. über den VPN-Tunnel auf meiner tasmota zugreifen möchte (http://tasmota/) dann wird mir das ganz normal angezeigt, sogar ohne tasmota.example.com und ohne eintrag im DNS-Redind-Schutz. Auch auf die Fritzbox kann ich mittels IP zugreifen 192.168.178.1, nur auf alles andere was im Unraid-Server ist kann ich nicht zugreifen.
-
On 12/6/2021 at 8:25 AM, mgutt said:
Optional kann es notwendig sein, dass du im Router den DNS rebind Schutz für deine Domain aufheben musst. Das ist z.b. bei einer Fritzbox der Fall.
meine Fritzbox erreiche ich über die IP, daher habe ich bei den DNS Rebind Schutz nichts geändert-
On 12/6/2021 at 8:25 AM, mgutt said:Lassen sich custom DNS-Einträge bei pihole nicht über die GUI erstellen?
Das ist korrekt. Man muss nur Punkt 9 bis 11 manuell per Putty eintragen, alles andere dann über die GUI.
On 12/6/2021 at 8:25 AM, mgutt said:Wer das nachbauen will sollte übrigens eine separate Hardware für pi-hole haben. Ansonsten kommt man nicht mehr ins Internet wenn der unRAID Server aus ist und Pihole darauf läuft.
Ja genau, bei mir läuft Pihole auf einem Raspberry Pi 4.
Die oben genannte Anleitung ist noch experimentell, folgende probleme bestehen noch.
- wenn ich unter Pihole einen CNAME für den Unraid Server erstelle z.b. server.example.com -> proxy.example.com und dann einen Proxy Host in NPM mit der Domain server.example.com und der ip vom Unraid-Server und Port 80, dann erhalte ich die Fehlermeldung "502 Bad Gateway" wenn die die Domain server.example.com aufrufe.
- Wenn ich mich per Wireguard auf den Server verbinde kann ich z.b. die Fritzbox über die IP 192.168.178.1 aufrufen, aber die Docker Container nicht. Weder mit IP noch mit der internen Domain z.b. plex.example.com
Wo kann da der fehler liegen?
LG
Sakis
-
Ich habe es nun geschaft. 😄
Ich möchte hier mein vorgehen genauer beschreiben, vielleicht hilft es den einen oder anderen.
Was ist unser Ziel?
- Let`s Encrypt Zertifikate für die lokale Domain
- keine Portfreigabe am Router, da Cloudflare DNS-Validierung genutzt wird
- Host und SSL Verwaltung mittels Nginx Proxy Manager
- alle Geräte im Heim-Netzwerk sollen über HTTPS kommunizieren können
Was wird benötigt?
- eine eigene Domain
- Pihole als DNS sowie DHCP
- Cloudflare Account um DNS zu verwalten
Auf gehts.
- Domain kaufen
- Domain zu Cloudflare umziehen
- API-Token bei Cloudflare erstellen ("DNS:bearbeiten" reicht aus)
- "Nginx-Proxy-Manager-Official" installieren
- NPM WebGui öffnen und ein Letsencrypt Wildcard Zertifikat installieren mittels DNS-Challange (API-Token eintragen)
- In Pihole unter "Settings" -> "DHCP" -> "Pi-hole domain name:" folgendes eintragen "example.com"
- In Pihole unter "Local DNS" -> "DNS Records" -> subdomain und IP von NPM eintragen. z.b. proxy.example.com und 192.168.178.100
- SSH-Verbinung mit Pihole herstellen und folgendes .conf erstellen
-
sudo nano /etc/dnsmasq.d/03-pihole-dns-reverse-proxy.conf
- Darin dann folgendes eintragen (example.com entsprechend anpassen und die IP vom NPM eintragen)
-
address=/example.com/192.168.178.100
- dann einmal mit "pihole restartdns" den DNS-Resolver neustarten.
- Neuen Host erstellen in NPM (example.com und die ip vom NPM als Port 81 eingeben)
- Wenn ihr nun die Domain example.com öffnet, sollte das Login Fenster von NPM mit gültigen SSL erscheinen.
Somit kann ich nun mein Vaultwarden über VPN nutzen, da es ein gültiges Zertifikat hat.
Natürlich kann man auch weitere Dienste wie Plex, Nextcloud etc mittels HTTPS lokal absichern. Man muss dann nur unter "Local DNS" -> "CNAME Records" -> "Domain:" plex.example.com -> "Target Domain:" proxy.example.com.
Ich möchte betonen das ich kein ITler bin, wer Verbesserungen und Optimierungen hat, dann her damit. Mit dieser Anleitung funktioniert es soweit bei mir.
LG
Sakis
-
Bei mir funktioniert es nicht und ich weiß auch nicht wo der Fehler liegt. 😞
Welche NPM nutzt du?
Wie ist dein "Netzwerk-Aufbau" ?
-
16 hours ago, mgutt said:
Meinst du wegen der Fehlermeldung?
Ein Fehler ist aufgetreten. Username or password is incorrect. Try again
Ja genau.
16 hours ago, mgutt said:Ich denke mal du musst sowas machen wie ich:
Damit kann ich alles über https erreichen, aber eben nur lokal. Wobei man um die Portfreigabe nicht herum kommt, wenn man keine DNS Challenge machen kann (weil Let's Encrypt ja über Port 80 dann die URL Challenge macht). Also entweder hast du eine eigene Domain und machst eine DNS Challenge und lässt alle Ports zu oder du nimmst eine DDNS und öffnest Port 80 (ginge im Härtefall auch nur alle 3 Monate für den Refresh der Let's Encrypt Validierung). Oder vielleicht ein Cloudflare Zertifikat? Das ist ja meine ich auch kostenlos.
Ich habe eine Domain und verwalte die über Cloudflare. Da ich eine Fritzbox habe, kann ich mit hilfe diesem PHP-Script über Cloudflare eine DynDNS Adresse erstellen z.b. home.example.de
ich nutze Pihole und habe unter "Pi-hole domain name" die Dydns eingetragen, also home.example.de
Jetzt habe per NPM einen host erstellt (pass.home.example.de) und die DNS-Validierung per Cloudflare durchgeführt (keine Ports geöffnet). und ich habe bei Advanced folgendes eingetragen.
location / { # allow anyone in 192.168.178.0/24 allow 192.168.178.0/24; # allow our public ip allow 12.34.56.789; # aktuelle IP # drop rest of the world deny all; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection $http_connection; proxy_http_version 1.1; # Proxy! include conf.d/include/proxy.conf; }
Wenn ich nun pass.home.example.de aufrufe, wird die mir unverschlüsselt geöffnet, also mit Port 80.
16 hours ago, mgutt said:Ich habe dann über die erweiterten Einstellungen des Containers bei WebUI meine Domain https://passwords.example.com hinterlegt. Auf die Art geht die dann direkt über die verschlüsselte Domain auf.
Das habe ich schon probiert, bringt aber nichts. wird immer mit Port 80 geöffnet.
16 hours ago, mgutt said:Alternativ müsste man es mit einem self-signed Zertikat versuchen
Das war auch mein gedanke. Wie kann ich für alle Docker Container einen self-signed Zertikat erstellen, oder gibt es da eine App?
16 hours ago, mgutt said:Ich dachte ADMIN_TOKEN ist das Passwort?!
ja genau, die URL ist folgende https://example.de/admin den ADMIN-TOKEN kann man auch unter /mnt/user/appdata/bitwarden/config.json finden.
Hier die Ping ausgabe.
ping pass.home.example.de Ping wird ausgeführt für pass.home.example.de [192.168.178.107] mit 32 Bytes Daten: Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64 Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64 Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64 Antwort von 192.168.178.107: Bytes=32 Zeit<1ms TTL=64 Ping-Statistik für 192.168.178.107: Pakete: Gesendet = 4, Empfangen = 4, Verloren = 0 (0% Verlust), Ca. Zeitangaben in Millisek.: Minimum = 0ms, Maximum = 0ms, Mittelwert = 0ms
Wenn ich die Seite mit https aufrufe kommt folgende Fehlermeldung
Fehler: Verbindung fehlgeschlagen Beim Verbinden mit pass.home.example.de trat ein Fehler auf. Die Website könnte vorübergehend nicht erreichbar sein, versuchen Sie es bitte später nochmals. Wenn Sie auch keine andere Website aufrufen können, überprüfen Sie bitte die Netzwerk-/Internetverbindung. Wenn Ihr Computer oder Netzwerk von einer Firewall oder einem Proxy geschützt wird, stellen Sie bitte sicher, dass Firefox auf das Internet zugreifen darf.
-
Hallo zusammen,
wie Ihr schon im Title sehen könnt, bin ich seit Stunden auf der Suche mein Vaultwarden lokal zu nutzen, ohne Letsencrypt, ohne Domain etc.
Ziel ist es das man nur per Wireguard darauf zugreifen kann.
Leider konnte ich im Internet nichts passendes dazu finden. kann mir da jemand weiterhelfen?
LG
Sakis
-
14 hours ago, mgutt said:
Das passiert nicht, wenn die Platte schläft, sondern nachdem sie durch was anderes hochgefahren wurde.
Du hast recht, war mein Fehler.
Die Festplatte wacht auf nachdem ich das Plugin "Fix Common Problems" ausführe, nach der eingestellten Zeit geht Sie wieder schlafen.
14 hours ago, mgutt said:Das ist komisch. Also auch kein leerer Ordner (Share) drauf?
Ne, da ist nichts drauf, kein Ordner, keine Daten...
-
2 hours ago, mgutt said:
Dann hat etwas um 23:08 eine Datei von Disk 2 geladen. Prüfe was auf Disk 2 liegt und überlege was alles darauf zugreift.
Disk2 ist leer, da ist nichts drauf.
-
10 hours ago, saber1 said:
Sowie ein Verzeichnis sowohl im Cache als auch auf einer Disk im Array existiert, wird es Dir einfach so angezeigt.
Es reicht wohlgemerkt, das tatsächlich nur das Verzeichnis (auch ohne enthaltene Daten) auf dem Cache existiert, damit wie in Deinem Screenshot für diesen Share sowohl Cache als auch Disk1 angezeigt werden.
Das liegt daran, das der Share einfach die Summe aller Disks/SSD's wiederspiegelt. Damit Du mit einem verbunden Client eben keine Gedanken darüber verschwenden musst, auf welchem Laufwerk die Daten liegen.
Das klingt logisch, danke fürs aufklären.
10 hours ago, saber1 said:@mgutt bezog sich auf die Features des Dateisystems.
Du musst einfach nur wissen, das selbst eine frisch formatierte Platte nicht 0B an Daten enthält. Das Dateisystem beansprucht immer Kapazität für sich selbst. Bei einer meiner Array-Platten mit 4TB sind es 27,9GB, die ich somit nicht nutzen kann.
Jetzt wo du es sagst geht ein 💡 bei mir auf
10 hours ago, saber1 said:Dazu schau Dir das einmal an: https://wiki.unraid.net/Un-Official_UnRAID_Manual#Allocation_method
Für Dich wäre dann Fill-Up die Methode, die Du möchtest. Kannst Du in den Einstellungen zum Share anpassen.
Danke für den Link.
9 hours ago, mgutt said:Du kannst ganz normal weiter machen. Dateien hinzufügen oder verschieben geht alles (nur eben langsamer).
Wieder was neues dazu gelernt. Danke.
9 hours ago, mgutt said:Der Mover kann keine Dateien verschieben, die gerade benutzt werden. Daher muss Docker deaktiviert werden. Du hast vermutlich den Cache erst aktiviert als Docker bereits lief. Daher kam es dazu. Und langsam ist das dann auch, weil er effektiv nichts überträgt, sondern erstmal nur prüft ob die Dateien in Verwendung sind.
Ja das kann gut möglich sein, jetzt läuft alles wieder wie gewöhnt.
Jetzt wacht plötzlich Disk2 aus.
Nov 30 21:30:45 Server emhttpd: spinning down /dev/sdd Nov 30 23:08:23 Server emhttpd: read SMART /dev/sdd
LG
Sakis
-
Danke für eure schnelle Antwort.
5 hours ago, saber1 said:Was bedeutet "langsam"?
Es wird im KB/s gelesen geschrieben.
5 hours ago, saber1 said:Alles in Ordnung. Für den Cache ist Deine Einstellung "YES: Cache".
Bedeutet, das der Cache zunächst verwendet wird. Aber der Mover verschiebt die Daten in der von Dir angegebenen Zeitspanne auf das Array. Die Verzeichnisse existieren also sowohl auf dem Cache als auch auf dem Array. Die Daten aber entweder auf dem Cache oder auf dem Array.
Auch hier: Alles in Ordnung. Dateisysteme benötigen auch für sich selbst Speicherplatz (Overhead). Bei XFS sind es knapp 0,5% der Plattenkapazität.
Siehe hier: https://rwmj.wordpress.com/2009/11/08/filesystem-metadata-overhead/
Ja, aber wenn ich den Mover nutze, müssten die Daten ja nur im Disk1 liegen tun sie aber nicht.
4 hours ago, mgutt said:Docker Einstellungen > Nein wählen um Docker zu deaktivieren. Danach Mover starten. Dann ist Appdata nur noch auf dem Cache.
Aktuell läuft der Parity Check, kann ich das auch wärend desen auch tun oder muss ich warten bis der Parity Check durch gelaufen ist?
4 hours ago, mgutt said:Das kommt auf die Features an:
Danke für den Hinweis, welche Vorteile bringen crc=1 und reflink=1 in UnRaid?
Spoiler# xfs_info /mnt/disk2 meta-data=/dev/md2 isize=512 agcount=13, agsize=268435455 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=1, sparse=1, rmapbt=0 = reflink=1 data = bsize=4096 blocks=3418095603, imaxpct=5 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0, ftype=1 log =internal log bsize=4096 blocks=521728, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0
LG
Sakis
-
Hallo zusammen,
seit kurzem habe ich mehrere Probleme auf einmal.
1. Mover ist sehr langsam, wo kann ich nach dem Fehler suchen?
2. Shares haben Cache und Disk1 ? Das soll nicht so sein, oder ? Siehe Screenshot. Wie kann ich das beheben?
3. Dashboard zeigt bei Disk 2 an das dort angeblich 97,6GB Daten drauf sind, das stimmt nicht. Ich hatte mal zum testen ein Backup gestartet gehabt (auf Disk 2) hab die Daten aber wieder per ssh (rm -r /mnt/disk2/backup) gelöscht. ich bin mir nicht sicher ob dann kurze Zeit später ein Paritycheck gestartet wurde, hat das vielleicht was damit zu tun? und ist meine Parity jetzt "Kaputt" bzw. mit falschen "Daten" bespielt worden? Warum zeigt das Dashboard nicht den "echten" Speicherplatz der Disk an? Das gleiche ist auch Beim Cache! Aktuell läuft automatisch ein Parity-Check (noch 15 Stunden).
Lg
Sakis
-
Hallo zusammen,
seit kurzem ertönt ein nerviges "summen" aus meinen Lautsprechern.
Tags über hört man es kaum, doch nachts (wenn es leise ist) hört man es und es ist echt nervig. (Audio-Datei im Anhang)
Ich hab keine Ahnung wo ich nach den Fehler suchen soll.
Wenn ich meinen UnRaid Server herunterfahre ist das "summen" auch weg.
Ich habe eine VM (Win10) erstellt und meine externe Soundkarte (Steinberg UR44) per USB eingehängt. An der UR44 sind zwei Rokit5 Lautsprecher angeschlossen.
ich nutze Gosund SP1 mit neuester Tasmoto Firmware (10.0.0) um meinen Stromverbrauch anzuzeigen, darin sind mittels 10-Fachstecker folgende Geräte angeschlossen.
- UnRaid Server (W480M Vision W, Xeon W-1290, 3 x WD Ultrastar HC530 14TB, Samsung M.2 970 EVO Plus 1TB, 2 x 32GB Kingston Server Premier ECC DDR4-3200, Noctua NH-D15S chromax.black, Corsair RM550x 2021 550W)
- Intel NUC6i3SYH mit Win10
- Netgear GS108Ev3 - 8-Port Switch
- Steinberg UR44
- 2 x Rokit5 Lautsprecher
- KVM-Switch
- QNAP TS-251+
Hier der aktuelle Verbrauch:
Hat da jemand eine Idee?
LG
Sakis
-
Das hat geklappt. Vielen Dank für deine Hilfe. 👍
LG
Sakis
-
1
-
-
Danke, hat funktioniert.
Jetzt kommt eine andere Fehlermeldung
Spoiler -
Hallo zusammen,
seit gestern lief Tvheadend ohne probleme, doch nach einem neustart wird in sekunden takt folgende Log einträge erstellt.
Spoiler...
Nov 22 01:48:11 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:12 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:12 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:13 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:13 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:14 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)
Nov 22 01:48:14 Server kernel: i2c i2c-2: tas2101: i2c rdm err(-5) @0x31 (len=1)
Nov 22 01:48:14 Server kernel: TBSECP3 driver 0000:06:00.0: i2c nack (5)...
weiß jemand wie ich das beheben kann ?
-
18 minutes ago, alturismo said:
was für eine DVB Karte hast du überhaupt ?
Mainboard: W480M Vision W
CPU: Intel Xeon W-1290P
DVB-Karte: TBS-6902
edit: mit dem Wizard-Setup hat es geklappt. 😁
18 minutes ago, alturismo said:und dann gleich als Info, Plex wird TVHeadend von Haus aus nicht als Quelle einbinden, ist "nicht supported", dann muss da noch etwas dazwischen, das nur als Info vorweg
Tipp, xteve docker
Danke für den Hinweis. Hauptsächlich soll TVH als TV-Recorder dienen und die Aufnahmen werde ich dann bei Plex als "Quelle" eintragen.
Live TV ist nur als "Backup-Lösung" gedacht, falls daheim aus irgendeinen Grund die Sender vom Anbieter nicht gehen.
-
5 minutes ago, ich777 said:
ich Dummkopf, dachte die ganze Zeit du meinst das Intel GPU TOP Plugin *facepalm*
Ja ich verwende diesen Container.
5 minutes ago, ich777 said:Also soweit ich weiß ist das nicht so easy mit Plex aber hier kann @alturismo weiterhelfen.
Würd das aber trotzdem evtl. über Plex spielen da es dann für die Nutzer noch einfacher wird.
Ich verwend Emby in Verbindung mit TVheadend und das funktioniert prima, transcoding übernimmt Emby, Timeshift macht wieder TVheadend.
Hast recht, ich werde es wahrscheinlich über Plex transkodieren lassen.
Aber irgendwie startet TVH nicht den Suchlauf, kann da jemand weiterhelfen?
PCIe an VM durchreichen - Problem
in Deutsch
Posted
Heute schaffe ich das nicht, aber ich werde es testen und Bescheid geben.
Das Gefühl hatte ich auch, konnte aber nicht herausfinden woran das genau lag, bei mir hat es mit dem runterstellen des Arbeitsspeichers geklappt.
Die VM wurde neue installiert, allerdings hatte ich vorher eine Identische VM erstellt gehabt, die ich aber dann gelöscht hatte.