WowaDriver

Members
  • Posts

    30
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

WowaDriver's Achievements

Newbie

Newbie (1/14)

0

Reputation

  1. Hello @all I have the following problem. Emby does not store the meta data and images in the media folders. If I add the data manually to the folders emby loads them without problems. I suspect a permissions problem but can't solve it myself. Emby is running as a Docker container on a Unraid host system. Here also runs a virtual machine with Xpenology (Synologys DSM) which shares a SMB share with Unraid and provides emby. On it are the libraries of the movies. This SMB share is mounted via Unassigned Device Plugin and here I also looked if there are any READ WRITE permissions, but found nothing. I have made the appropriate settings in the libraries, see screens: On the Emby Dashboard page, contrary to the above settings, the paths for the meta data are not traced back to the media directories, but are located in the config folder of the emby Docker container... When I look at the path in the emby container for the media library everything is set correctly there. I created the whole "mnt" folder for all internal host hard disks from the UNraid host itself and from the SMB shares instead of just the SMB share. Everything together has read and write permissions according to the dialog. See for yourself on the screenshots: I hope you guys can help me to solve my problem. And yes in futher i will use a native unraid system where the data drives will also connected to unraid and not to a vm ...
  2. Thats because your GPU does only support decoding... on the nvidia website you can see that encoding is not supported from your gpu
  3. Danke für die Antwort! Mal noch eine grundsätzliche Frage: Ich habe jetzt sowohl der NAS 2 physikalische NIC's durchgereicht. UNraid läuft ebenso auf 2 NIC's leider ja nicht im LACP, das sind erstmal die Fakten. Wenn ich nun eine z.B. Windows VM einrichte und diese sich eine virtuelle Nic zu weist, dann gehe ich ja auf das NAS über eines der Unraid Ports und somit tatsächlich über den Netzwerk Weg. Wenn ich hingegen dem NAS eine virteulle NIC zu weisen würde, dann würde diese ja intern irgendwie miteinander kommunizieren und nicht mehr über den Netzwerk Weg gehen, da beide NIC's ja virtuell wären, richtig? Ich frage weil, bei den REd Hat Adaptern für die virtuellen NIC's in Windows immer was von 10G Anbindung zu lesen ist im Status. Die Frage nun wenn alle VM's virtuelle NIC's könnten diese ja untereinander theoretisch mit 10G komunizieren. Nach außen wäre der limitierende Faktor ja die Unraid NIC... oder?
  4. Alles auf 10G oder 2.5G wäre natürlich ein Traum, scheitert aber sowieso an den Endgeräten und wird da auch nicht benötigt. Ich habe auf meinem Unraid Server 2 VM's laufen, einen NGINX Proxy und eben Emby für 10 User nach außen. Zusätzlich läuft Xpenology in einer VM mit 2 dedizierten NIC's und Unraid hat eben auch 2 NIC's. Ich hatte mir erhofft das ich mittels LACP im Worst Case besser gegen einen Bottleneck ankämpfen kann. In der Zukunft ist für beides jeweils eine 10GB Karte geplant, ggf. Doppel und dann halt in LACP, wäre absolutes Overflow ich weiß. Zum Thema Doppeldosen und Vollbestückung. Selbstverständlich hast du recht. Ich habe meine Elektrik selbst gemacht und ein Twin Kabel war damals günstiger als ein Single, ebenso die Dosen. Somit war es dumm nicht auf Doppeldosen zu setzen. Da ich alle nur bis zum Patchpanel aufgelegt habe ist genauso wie von dir beschrieben. Patchen tue ich nur die wo verwendet wird. Zum Thema Fritze AP und Unifi. Ich gebe es zu, dass ich seit den ersten DSL Zeitalter 764kb noch nie was anderes als eine Fritte im Einsatz hatte. Unifi hatte ich mir angeschaut ist auch mega geil, nur habe ich halt die AVM Produkte da und WLAN ist eigentlich in Ordnung, klar besser geht immer, aber ob ich da jetzt investieren soll, ich weiß nicht. Klar Recht hast wenn man den Weg geht sollte es eben auch ein Switch von denen sein oder eben mit POE damit man später die AP's überall verteilen kann. Dein SMB Tutorial hatte ich schon mal geliebäugelt. Das bringt mir ja aber nur wenn wenn ich das Storage auch unter UNraid aufbaue oder?, Meins liegt in einer VM via durchgereichten HBA in Xpenology. Ich finde die Lösung für mich persönlich am besten und beabsichtige da nichts dran zu ändern. Dort laufen dann 8 WD Red Platte nie Raid 5 inkl. Survailance Station für die cams.
  5. Kurz und Knapp danke für deine Mühe und das Aufschreiben der Informationen. Hast meinen Horizont in jedenfalls erweitert. Für mich heißt es jetzt genauer nach denken wo ich hin will, was das Budget hergibt und was ich in Zukunft will. Aktuell reicht mir sogar die aktuelle config komplett aus. Ich wollte nur gerne LACP konfigurieren und musste feststellen, dass mein Switch nur statisches LAG kann... somit bin ich erst auf die Reise gegangen. Die von dir angesprochen Switche kannte ich noch gar nicht. Ich oute mich auch als Consumer mit einer Hingabe zu freakigem Tech-Zeugs und merke gerade das ich wohl einfach mit geschlossenen Augen einen V8 Switch kaufen wollte ohne zu überlegen, dass mir ggf. auch was kleineres reicht. Außerdem hatte ich mein Augenmerk nur auf dem mir bekannten... D-Link, Netgear ... Ich muss wohl meinen Horizont erweitern. In jeden Fall erneut - DANKE!
  6. Erstmal vielen Dank für die rasche Antwort!! Nope wird nicht benötigt und falls mal eine Kam noch ergänzt werden sollte wo es kein Strom gibt werde ich denke ich mit einem PPPOE Injector auskommen. Steht alles in der Kommandozentrale im Technikraum. Thema Lüfters ist somit kein Zwang, hatte mal für lau ein Dell PowerSwitch da mit fünf 40mm Lüftern... also eine Airforce Start und Landebahn will ich aber auch nicht unbedingt haben ... Das Thema mit Cloud-Zwang ist mir überhaupt neu... wie kann denn ein Switch eine Cloud Anbindung haben und welchen Sinn hat dieses? Ich denke nicht das ich auf dem Mond lebe und wir in Zukunft den ganzen Heimtraffic über irgendeine Cloud schieben müssen bevor es verarbeitet werden kann oder? Wenn ich das richtig verstanden habe, dann bezieht sich das doch nur auf ein Firmware Update welches man nur über eine Cloud einspielen kann, richtig? Update man die Switche denn so oft? Also für mein Netgear habe ich gerade einmal ein Update gefahren aber auch nur weil verfügbar war und nicht weil ich eine neue Funktion oder Bugfix benötigt habe... Verbräuche sind aus den Datenblättern und entsprechen angeblich bei vollbestückten Switchen und das wohl unter Last. Kann mir die geringen Werte nur dadurch erklären, dass die oben von mir gepusteten "neuen" Switche 4 SFP+ Port haben und die ja bekanntlich schön warm werden sollen... Eigentlich beantwortet das meine Frage 2 und 3. Alle Switche die mittels LACP verbunden werden sollen müssen dies auch unterstützen, ok! Heißt entweder ein großes neues und alle alten raus oder zwei 24 Port die LACP können. Ich denke den Netgear GS108E werde ich behalten denn die Cars machen eine Auflösung von 2046x1536 und eine 8MB Bitrate. Somit verursachen diese 48MB/s auf dem Switch welches ich auch mit nur einem RJ45 Uplink angebunden werden kann und in einem VLAN betrieben werden kann. Würdet ihr das so machen oder denke ich zu einfach! Danke für die verlinkten Switche schaue ich mir mal an. Kannte ich so noch gar nicht. Hatte aber ehrlich gesagt bei der Suche nach Switchen mit 4 SFP+ für die Zukunft geschaut... Die Reise denke ich wird eher in Richtung 2x24Port gehen. Muss nur sehen ob ich meinen JGS524Ev2 sofort aussondere oder erstmal noch behalte. Stromverbrauch technisch ist der top, sofern die Herstellerangaben mit der Realität kämen... hab leider kein Messgerät.
  7. Guten Tag @All und vielen Dank im Vorfeld für das Lesen meiner Probleme! Ausgangssituation: Es muss ein neues Switch her. Zum einen weil meine 24 + 8 Ports mir mit der Zeit nicht mehr reichen werden, zum anderen weil ich unbedingt richtiges den. LACP und später auch 10 GBit Ports benötigen werde. Das ganze sollte idealerweise auch von dem Stromverbrauchsaspekt bewertet werden. Neubau wo es nicht an Ethernet Ports gespart wurde. In jedem Zimmer min. 2 Doppel dosen. In Summe also etwa 40 Ports 6x IP Kameras die im Idealfall in einem VLAN laufen sollen Server: Unraid mit Dual NIC soll via LACP ans Netz gebracht werden (später über 10GBit) Nas: ebenfalls mit Dual NIC soll via LACP ans Netz gebracht werden (später über 10GBit) Fritz!Box 7590 als DHCP Server und WLAN verteile mit 2 Accespoints Vorhandene Switche: Netgear JGS524Ev2 managed Switch (Kann leider nur LAG - also statisches Link Aggregation und kein den. LACP) - 24 Port - Verbrauch: 13,8W Netgear GS108E - 8 Port Switch via single Gigabit Uplink am JGS524Ev2 angeschlossen und verbindet alle Kameras mit den Netzwerk - Verbrauch: 4,5W Fragen: 1. Wenn das neue Switch dyn. LACP unterstützt, wäre es dann möglich mein bestehenden GS108E an dem alle Kameras hängen mit zwei Ports als Uplink im LACP Modus zu betreiben? Oder müssen hierfür beide Switch LACP unterstützen? 2. Würdet ihr lieber zwei 24 Port Switch betreiben oder lieber ein 48 Port Switch? Wenn ich einen weiteren 24 Port mit 4 SFP+ Ports verwenden würde (Bsp. D-Link DGS-1250-28x) dann würde sich der Stromverbrauch 29,6W erhöhen. Die Frage ist ob ich meine beiden bestehenden Switche mittels den. LACP verbinden kann. Als Uplink ständen bei beiden nur RJ45 Ports zu Verfügung. Wenn ich meinen bestehenden 24 Port Switch aussondere tendiere ich aktuell entweder zum D-Link DGS-1250-52X (51,2W) oder dem Zyxel XGS1930-52 (55,7W). In beiden Fällen würde ich einen höheren Stromverbrauch haben als mit zwei 24 Port Switchen wenn ich meinen bestehenden weiter verwende. Hier hätte ich nur den Vorteil in meinen Augen, dass ich alles auf einem Switch laufen habe und dieser LACP für alle Port leisten kann. Einzige Unklarheit hier wäre wie ich die Kameras betreiben soll, weiterhin am kleinen GS108E - Sofern dieser mittels LACP angebunden werden kann - oder eher direkt am 52 Port Switch. 3. Oder würdet ihr komplett alle Switche ersetzen? Ich würde ich freuen über ein paar Meinungen eurerseits - Vielen Dank!
  8. Danke schaue ich mal in Ruhe an. Notfalls kann das Thema warten bis die 6.10 kommt... sofern es geplant ist gefixt zu werden. // EDIT: Aber der Link geht doch zum Nvidia Plugin. Das habe ich natürlich auch drauf zwecks emby... hat ja aber mit der iGPU nichts zu tun. Oder untermauerst du damit deine Aussage zum Thema Monitor an die GTX anzuschließen und damit dann quasi für die GUI die Treiber zu haben?? Kann ich den die GTX für GUI und zeitgleich DOCKER -> emby nutzen? Jetzt machst du mic Haber heiß... als ich die iGPU fürs Transcoding genutzt habe war ich mit round about 50-80 FPS bei emby unterwegs. Mit der GTX bei 400-500 FPS in der Regel... Willst du mir da ein wenig mehr von deinem Geheimnis verraten oder mal einen Link geben? Gerne auch per PM damit wir das Thema hier nicht zu spamen. In jedem Fall danke dir für deine Mühe!!!
  9. Uff danke für die Turboschnelle Antwort. Monitor ist am Mobo VGA Port dran. (Alter Monitor und wie gesagt soll nur ein Setup sein für den Fall der Fälle wenn man mal direkt ran muss oder Netzwerk ausfällt. Somit an der iGPU. Was genau muss ich für einen Eintrag tätigen, hier hört es bei mir auf. Bzw. ein paar Keywörter wonach ich suchen soll wären gut. Ja Recht hast wohlmöglich, ich habe 40 TB an Stuff, vieles in 4K und Untouched Qualität. Meine ganze Familie streamt von meinem Server, da kommt die iGPU nicht hinterher. So Hab ich die CPU für alle anderen Docker und VM's und die GTX übernimmt voll und ganz emby. So jedenfalls mein Theoriegedanke, korrigiere mich falls ich falsch liege...
  10. Hallo @ich777and all, habe das gleiche Problem. Komme mit den Befehlen nicht rein (sieht Screen) nur wenn ich Safe Mode Boote dann geht es, lagt aber, da ohne Treiber. Brauche die gui nur für den Fall der Fälle wenn im technikraum mal was am Server direkt gemacht werden muss. mein System: z170 pro Gaming von asus 6700k i7 mit igpu 32gb ram gtx 1660 für HW Transcoding hatte bis gestern das System knapp ein Jahr im Gange mit den igpu plugin zum passthrough an vm‘s und oben drein noch das igpu-top Plugin installiert. Hat auch nicht geholfen. anschliesend beide entfernt und ohne probiert, ebenfalls erfolglos. Dann nur den igpu-Top installiert, auch nichts. mit gui Boote kommt der black Screen mit blinking cursor. Mit Entf+Alt+F1 kann ich mich einloggen und die beiden oben genannten Kommandos bewirken rein garnichts ... wenn ich headless Boote und dann die Befehle eingebe kommt die Ausgabe auf dem Screenshot. Bitte und Hilfe, danke!
  11. Big problem, need urgent help! Due to my stupidity I tried to update my Xpenology VM from the running version DSM 6.2.3-25426 to the newest DSM 6.2.4-25556. As bootimage I use 1.03b for a DS3617. The end of the story is, the VM was no longer responsive => Brick! I had under Unraid passthrough to the VM a DUAL Intel Nic and a LSI SAS2008 PCI-Express Fusion-MPT SAS-2 controller (LSI 9211-8i / Dell H310 HBA in IT-Mode) to which 6x WD 6TB hard disks are connected as RAID5. So I rebuilt the VM and reinstalled the DSM 6.2.3-25426 version, again. I now have the problem that when I passthrough the LSI controller with the 6x hard drives they show up as 6x external hard drives and no longer as RAID5. Please help me, I don't know how to get back the RAID5. A backup is unfortunately not available, I never thought that the RAID5 could be broken by the update. <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm' id='9'> <name>Xpenology - VM</name> <uuid>a454f1e6-fe15-df14-0475-fceadd9fb72d</uuid> <description>DS3617xs - File Server</description> <metadata> <vmtemplate xmlns="unraid" name="CentOS" icon="default.png" os="centos"/> </metadata> <memory unit='KiB'>4194304</memory> <currentMemory unit='KiB'>4194304</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>4</vcpu> <cputune> <vcpupin vcpu='0' cpuset='1'/> <vcpupin vcpu='1' cpuset='5'/> <vcpupin vcpu='2' cpuset='2'/> <vcpupin vcpu='3' cpuset='6'/> </cputune> <resource> <partition>/machine</partition> </resource> <os> <type arch='x86_64' machine='pc-q35-3.0'>hvm</type> </os> <features> <acpi/> <apic/> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='2' threads='2'/> <cache mode='passthrough'/> </cpu> <clock offset='utc'> <timer name='rtc' tickpolicy='catchup'/> <timer name='pit' tickpolicy='delay'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source file='/mnt/user/isos/synoboot.img' index='2'/> <backingStore/> <target dev='hdc' bus='usb'/> <boot order='1'/> <alias name='usb-disk2'/> <address type='usb' bus='0' port='2'/> </disk> <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source dev='/dev/disk/by-id/ata-SanDisk_SDSSDHII120G_154682400434' index='1'/> <backingStore/> <target dev='hdd' bus='sata'/> <alias name='sata0-0-3'/> <address type='drive' controller='0' bus='0' target='0' unit='3'/> </disk> <controller type='usb' index='0' model='ich9-ehci1'> <alias name='usb'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <alias name='usb'/> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <alias name='usb'/> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <alias name='usb'/> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <controller type='pci' index='0' model='pcie-root'> <alias name='pcie.0'/> </controller> <controller type='pci' index='1' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='1' port='0x10'/> <alias name='pci.1'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0' multifunction='on'/> </controller> <controller type='pci' index='2' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='2' port='0x11'/> <alias name='pci.2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x1'/> </controller> <controller type='pci' index='3' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='3' port='0x12'/> <alias name='pci.3'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x2'/> </controller> <controller type='pci' index='4' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='4' port='0x13'/> <alias name='pci.4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x3'/> </controller> <controller type='pci' index='5' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='5' port='0x14'/> <alias name='pci.5'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x4'/> </controller> <controller type='pci' index='6' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='6' port='0x15'/> <alias name='pci.6'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x5'/> </controller> <controller type='pci' index='7' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='7' port='0x16'/> <alias name='pci.7'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x6'/> </controller> <controller type='pci' index='8' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='8' port='0x17'/> <alias name='pci.8'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x7'/> </controller> <controller type='pci' index='9' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='9' port='0x18'/> <alias name='pci.9'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0' multifunction='on'/> </controller> <controller type='pci' index='10' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='10' port='0x19'/> <alias name='pci.10'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x1'/> </controller> <controller type='pci' index='11' model='pcie-to-pci-bridge'> <model name='pcie-pci-bridge'/> <alias name='pci.11'/> <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/> </controller> <controller type='virtio-serial' index='0'> <alias name='virtio-serial0'/> <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/> </controller> <controller type='sata' index='0'> <alias name='ide'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/> </controller> <controller type='sata' index='1'> <alias name='sata1'/> <address type='pci' domain='0x0000' bus='0x0b' slot='0x01' function='0x0'/> </controller> <interface type='bridge'> <mac address='52:54:00:24:c4:10'/> <source bridge='br0'/> <target dev='vnet0'/> <model type='e1000e'/> <alias name='net0'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </interface> <serial type='pty'> <source path='/dev/pts/1'/> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> <alias name='serial0'/> </serial> <console type='pty' tty='/dev/pts/1'> <source path='/dev/pts/1'/> <target type='serial' port='0'/> <alias name='serial0'/> </console> <channel type='unix'> <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-9-Xpenology - VM/org.qemu.guest_agent.0'/> <target type='virtio' name='org.qemu.guest_agent.0' state='disconnected'/> <alias name='channel0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <input type='tablet' bus='usb'> <alias name='input0'/> <address type='usb' bus='0' port='1'/> </input> <input type='mouse' bus='ps2'> <alias name='input1'/> </input> <input type='keyboard' bus='ps2'> <alias name='input2'/> </input> <graphics type='vnc' port='5901' autoport='yes' websocket='5701' listen='0.0.0.0' keymap='de'> <listen type='address' address='0.0.0.0'/> </graphics> <video> <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/> <alias name='video0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0'/> </video> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x06' slot='0x00' function='0x0'/> </source> <alias name='hostdev0'/> <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </hostdev> <memballoon model='none'/> </devices> <seclabel type='dynamic' model='dac' relabel='yes'> <label>+0:+100</label> <imagelabel>+0:+100</imagelabel> </seclabel> </domain> THE PROBLEM WAS FIXED!!! Since no one answers me here I have taken the matter into my own hands. Tutorials are certainly all useful, but finally the easiest way is to delete the system partitions (2.4GB Linux RAID1 members: sda1, sdb1, sdc1, ... , sdx1) of all installed hard disks, with an linux live image, if you have performed an update and the system is no longer bootable. Then simply use an unused synoboot.img and the system is migrated without touching the data partitions. Disadvantage is that all installed apps, configurations and settings have to be reinstalled of course. For my case i'm happy that no data is lost. Thanks anyway for all the information written down here. Would only wish for the future that the community would answer a bit more active.
  12. After I didn't get an answer if someone could already install the RC DSM 7.0 as VM, I decided to try an update from 6.2.3 to 6.2.4 (on the DS3617xs platform). The result is that I can no longer reach the DSM -> Brick. Can anyone report anything different?
  13. Does anyone tried out to install the actually RC DSM 7.0 ??
  14. Can you tell me in which file i have to put in these lines and where this is located, please?
  15. Erneut ein großes Dankeschön für deine Hilfestellung. Anhand deiner Tuts in der Rubrik "Häufig gestellte Fragen" habe ich den Container komplett entfernt und neuinstalliert. Jetzt geht wieder alles. Vielen Dank! Hatte da eh nur eine VM eingerichtet und da ist es so schneller gewesen zum Ziel zu gelangen.