WowaDriver

Members
  • Content Count

    19
  • Joined

  • Last visited

Community Reputation

0 Neutral

About WowaDriver

  • Rank
    Newbie

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. After I didn't get an answer if someone could already install the RC DSM 7.0 as VM, I decided to try an update from 6.2.3 to 6.2.4 (on the DS3617xs platform). The result is that I can no longer reach the DSM -> Brick. Can anyone report anything different?
  2. Does anyone tried out to install the actually RC DSM 7.0 ??
  3. Can you tell me in which file i have to put in these lines and where this is located, please?
  4. Erneut ein großes Dankeschön für deine Hilfestellung. Anhand deiner Tuts in der Rubrik "Häufig gestellte Fragen" habe ich den Container komplett entfernt und neuinstalliert. Jetzt geht wieder alles. Vielen Dank! Hatte da eh nur eine VM eingerichtet und da ist es so schneller gewesen zum Ziel zu gelangen.
  5. @mgutt Vielen Lieben Dank! Sehr informativ und eigentlich hätte ich das selbst finden müssen, vor allem wie gut ihr das mit @ich777 aufgebaut habt. Nur wie das immer so ist man überfliegt immer alles in der Schnelle und hat dann mehr Baustellen als einem lieb ist. Nicht ansprechbar: Ok. Versuche es nochmal anders zu erklären. In diesem Tutorial [Klick mich] zur Emby installation inkl. HW Transcoding wird ab Minute 5:16 beschrieben bzw. empfohlen für emby ein eigenes Share anzulegen worin ebenfalls wie ich verstanden habe der gesamte Container Inhalt gespeichert wir
  6. Hi und vielen Dank vorweg für deine Hilfestellung! Der Logauszug aus dem laufenenden guacamole Container welcher mit der br0 ip 192.168.178.19:8080 angesproche nwerden sollte: Ein Ping der Container IP ist erfolgreich: Woher die ganzen "shim-bro" kommen kann ich nicht sagen, dachte beim installieren der container werden dan entsprechnede Anpassungen manuell durchgeführt. Von meiner Seite aus habe ich da nie was angefasst. Wenn da etwas weg muss, dann bitte Bescheid geben. Ich selbst besitze zu diesem Thema noch nciht einmal ein gesundes Halbwissen...
  7. Sorry für Doppelpost... konnte das Problem immer noch nicht lösen und wäre für jegliche Hilfestellung dankbar!
  8. Hallo Leute, da ich auch aus dem Deutsch sprachigem Raum komme und keinen extra Thread eröffnen wollte teile ich mein Problem mal hier. Das oben angesprochene Problem hatte ich so direkt nicht, da ich die Option "Host access to custom networks" von begin an aktiv hatte. Gleich vorab ich bin kein absoluter Unraid noob aber ein Pro bin ich auch nicht, somit eventuell sorry für banale Fragen oder MIssverständnisse Mein Problem ist ein anderes... Ich habe mehrere Container laufen, zb. emby, gucamole, nignixproxymanager, jdownloader usw. welche ich alle via Default Setting
  9. Hi again @ich777thanks for reply! Ok thanks i missed that the VFIO Plugin is now integrated... just deleted... I the case i when i bind it to VFIO you are right i can start the vm with the gpu but when i turn of the vm i cant use it with the docker... I try to find a workaround how to multiuse the one and only gpu for both scenarios ... the gpu runs for more than 80-90% of time for the emby docker container, but sometimes i need this one win10 vm with a dedicated gpu... for futher it is the plan to get a second gpu but actually i only have the one...
  10. I dont know why but when i press the download button to get the diagnostics i only get this screen and nothing other happens... It do not download the files... cant say what is the reason for... But i can give you a screen of my VIFO-PCI-CONFIG: So the answer is no, i only select the gpu in the win10 vm and made the entries like on the first post of this thread for the emby docker.
  11. Thanks for the explanation. You do a great support and great job! Weiter so! Ok now i've got an other error. After using the gpu in the emby docker i delete the entries in the the emby docker container to use the gpu with a win10 vm. The problem now is that cant start the vm when selecting the gpu... tried a restart but it didnt help... The IMMOU Group of my GTX1660 is: 01:00.0 and from gpu sound card 01:00:1 Error code: Execution error internal error: qemu unexpectedly closed the monitor: 2021-04-14T12:16:32.430601Z qemu-syste
  12. Hi @all, first of all i would have to say thanks a lot for the plugin! In the quote above i found principally the answer to my question... Now i have a second one... in the old Nvidia Plugin by Linuxserver.io it was possible (like in the tut video of spaceinvader) to use one and the same nvidia gpu for the dockers in multiplay way and if it actually not in transcoding it was possible to use the same gpu in a win vm... in that case emby done an software transcode till the gpu will be free from the win vm... What do you think, is it possible to implement this f
  13. Folks, I did it with a new installation using the Unraid VM surface. The main problem why my NVMe was not recognized when installing despite the virtio driver was that I appended the installation ISO and the Virtio ISO as USB and sata device for whatever reason ... After I created a new VM template and left it on the stadard IDE I was able to install everything without problems and everything works. Thank you for any help!
  14. Hi guys! I actually just get the same error message: VM creation error unsupported configuration: per-device boot elements cannot be used together with os/boot elements Can you tell me how you fixed it? The whole story about my nvme boot problem you can read in the last posts of this thread: Thanks a lot for any kind of help!
  15. Hi again and thanks a lot for the fast reply! just tried it up but it didn't work too... get the error: unsupported configuration: per-device boot elements cannot be used together with os/boot elements //EDIT: I have fixed the last error message... in the os part in the upper part of the xml i got this entrie: <os> <type arch='x86_64' machine='pc-i440fx-4.2'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader> <nvram>/etc/libvirt/qem