MDN

Members
  • Posts

    24
  • Joined

  • Last visited

MDN's Achievements

Noob

Noob (1/14)

4

Reputation

1

Community Answers

  1. GUID ... stimmt, da war ja so was. Das Video hatte ich tatsächlich schon gefunden gehabt. Der Samsung BAR plus wurde empfohlen und hat USB 3.1, wovon ja eher angeraten wird, wegen höheren Temperaturen. Das scheint aber bei dem Stick nicht das Problem zu sein, denn bei den Tests (https://www.youtube.com/watch?v=jjkaidlZmgs&t=32s ) waren die Temperaturen sogar am geringsten. Den Stick werde ich jetzt mal bestellen und testen. Das wäre natürlich auch eine Sache. Leider ist das ein Nischenprodukt.
  2. Hi, ich habe schon 2 USB Stickts an meinem Unraid Server verloren. Auch wenn ich ein Backup vom Flash Drive habe, würde ich da gern etwas haben, um was ich mir weniger Sorgen machen muss. Ich habe noch eine 250GB NVMe rum liegen. Würde es als Flash Drive gehen, wenn ich die in ein USB Gehäuse packe? Hat da jemand Erfahrungen damit?
  3. Hier ging es doch um das Fractal Design R5 von Martin.
  4. Das Gehäuse ist wirklich super. Ich habe davon gleich 2, die aufeinander stehen. Das eine Gehäuse ist mein Arbeitsrechner und im zweiten haben ich mein Unraid System. Ich finde es vor allen angenehm, dass man an alle Seiten gut ran kommt, überall Staubgitter sind und sehr auf Schallschutz geachtet wurde.
  5. Gut(t)er Hinweis. Passiert das auch, wenn man vorher alle Container (und ggf. VMs) stoppt? Ergibt Sinn. Ich werde das mal umstellen, sobald meine neuen Cache SSDs gekommen sind.
  6. @MartinG : Ja, es reicht das bei Advanced einzutragen. Und ich trage es später noch in den anderen Post ein. @mgutt : Bitte helf mir noch mal auf die Sprünge: Wenn ich "appdata" und "system" auf "cache only" stehen habe, ist das nicht das gleiche wie ein direkter Verweis auf den Cache? Wenn ich in der Spalte "size" auf "compute" gehe, dann sehe ich, dass appdata komplett auf der SSD liegt. Allerdings nehme ich nicht an, dass an den Platten bzw. SSD liegt. Wie man auf dem angehängten Screenshot sieht wurde die 800MB Datei in den Speicher vom Nginx Container geladen. Plattenaktivität gab es zur gleichen Zeit nicht.
  7. Es ist recht langsam, aber ich mich da jetzt nicht weiter darum gekümmert. AppDate ist Cache Only und das Temp-Verzeichnis hat auch einen SSD Cache. Die Quelle allerdings war tatsächlich der RAM. Im Nginx Docker ist der RAM auf die Größe der Datei angeschwollen und dann beim Schreiben auf die Platte wieder kleiner geworden. Wenn ich jetzt über Gigabit-LAN eine Datei hochlade, dann erreiche ich (laut Angabe im Browser) in der Spitze 28MB/s, laut Taskmanager ~200MBit/s und laut Unraid Dashboard auch ~200MBit/s. Das ist weiterhin für LAN und SSD zu langsam, aber weil ich es über ein 100MBits/40MBits Internetleitung nutze ist es klein Flaschenhals. Es ist bestimmt interessant herauszufinden, warum es nicht schneller geht - wozu ich allerdings in nächster Zeit nicht komme werde.
  8. Ah! Hab es selbst gefunden: Das trägt man in die conf Datei des Proxy Hosts ein und schon geht es direkt zu Nextcloud.
  9. Hi zusammen, ich habe meinen Nextcloud (Docker auf Unraid) jetzt so eingestellt, dass ich 10GB große Dateien hochladen kann. Mein Setup ist so: Extern: Internet -> Router -> Nginx (Docker auf Unraid) -> Nextcloud (Docker auf Unraid) Intern: LAN -> Nextcloud (Docker auf Unraid) Wenn ich von intern eine große Datei im LAN hochlade, dann sehe ich auch wie die Datei in mein eingestelltes Temp-Verzeichnis geschrieben wird. Wenn ich von extern eine große Datei hochlade, dann geht der Upload-Balken bis 100% und bleibt dann dort stehen. Beim Upload wird die Memory Nutzung des Containers immer größer. Während der Upload-Balken auf 100% stehen bleibt, sehe ich wie die Datei mit ca. 20-30MB/Sekunde in das eingestelltes Temp-Verzeichnis geschrieben wird. Der Effekt ist, dass man bei großes Dateien - für was ich Nextcloud hauptsächlich nutze - ein Mal warten muss, bis der Upload fertig ist und ein zweites Mal, wenn die Datei dann vom Nginx nach Nextcloud geschrieben wird. Ich kenne mich leider mit Nginx nicht so gut aus, aber mit anderen Proxys und Reverse-Proxys. Von anderen Lösungen kenne ich es so, dass die Datenverbindung durch geht, direkt zum Zielserver. Kann ich den Nginx auch so konfigurieren, dass er nicht die Daten zwischenspeichert, sondern gleich an Nextcloud weiter gibt? Danke schon im Voraus!
  10. Kann ich bestätigen. Gerade habe ich die VM gestartet ohne das GPU ROM (aber mit aktuellem Treiber) und der Bildschirm ging an. Ich muss sagen, das ich begeistert bin von der Performance der VM und auch im Zugriff auf die Unraid Shares. Mit GPU Passthrough konnte ich sowohl Video-Bearbeitung machen, als auch Zocken. Beim Zugriff auf die Unraid SMB Shares ist es so, als ob man eine 10Gig oder mehr Verbindung hätte. (Hier war jetzt im Test eine alte SSD der limitierende Faktor.) Für mich war das ganz jetzt erst einmal ein erfolgreicher Test, den ich jedoch vorerst nicht weiter verfolgen werde. Mein üblicher Unraid Server läuft weiter, aber auf meinem Hauptrechner - auf welchem ich GPU Passthrough getestet habe - werde ich wieder zurück auf Hardware schwenken. Danke an @mgutt und die Community für die Hilfe hier im Forum! 👍
  11. Ich brauchte erstmal nur die Bestätigung, dass ich nicht auf dem Holzweg bin. Wenn ich dann noch weitere Hilfen gebraucht hätte wäre ich schon noch mit vollständigen Infos und Logs um die Ecke gekommen. Tatsächlich hat bei mir plötzliches alles funktioniert. Allerdings weiß nicht warum. Ich habe noch mal von GPU passthrough auf VNC umgestellt und in Windows die neusten Updates installiert und plötzlich war mein Monitor an. Ich versuche das gerade noch mal an einer zweiten VM nachzustellen. Dafür waren die letzten 48 Stunden ein guter Unraid Kurs für mich. Habe ich kennengelernt: Die XLM Datei für die VMs, VFIO binding, syslinux.cfg, GPU BIOS dumping und nach 20+ Jahren mal wieder einen HEX Editor genutzt. (Früher hab ich damit nur Spielstände manipuliert.)
  12. I don't know what exactly happend, but after installing Windows updates I now have a picture on all 3 outputs (DVI, HDMI and DP)
  13. Thank you! Now I only have to figure out, why it's not working. But this answer helps me, because I'm on the right track.
  14. Hello everyone, please help me to unravel a "knot of thoughts" in my mind. Sometimes I need a binary answer to understand something and not the usual "it depends" that you read everywhere. Since yesterday I have spent many hours configuring GPU Passthrough. Thanks to Spaceinvader and various posts here on the forum, there was also a lot I could try. Since I have an NVIDIA GTX 1050TI, I also exported the VBIOS, edited it with the HEX editor and integrated it. The thing with the graphics card and sound card on the GPU was also edited via XML. Then I entered and changed things in syslinux.cfg, etc., etc. To get to the bottom of my problem, I installed a Windows 10 VM via VNC, then added the GPU and the VM also starts. BUT ... and now comes the catch: My screen says: No signal. Here is finaly my question: Does GPU Passthrough mean that I can connect a monitor to the graphics card and the VM's output can be seen (more or less natively) on it? Or do I always have to connect to the VM with a piece of software (RDP or similar)? For you professionals, the question might be trivial, but getting a YES or NO statement here would really help me. thx
  15. Hallo zusammen, bitte helfe mir mal einen Gedankenknoten bei mir aufzulösen. Manchmal brauche ich eine binäre Antwort, um etwas zu verstehen und nicht das übliche "kommt drauf an", was man überall liest. Seit gestern habe ich viele Stunden damit verbracht, GPU Passthrough zu konfigurieren. Dank Spaceinvader und verschiedenen Posts hier im Forum gab es auch viel, was ich probieren konnt. Da ich eine NVIDIA GTX 1050TI habe, hab ich mir auch das VBIOS exportiert, mit dem HEX Editor bearbeitet und eingebunden. Die Sache mit Grafikkarte und Soundkarte auf der GPU ist auch per XML bearbeitet worden. Dann habe ich noch in die syslinux.cfg Sachen eingetragen und geändert usw. usw. Um meinem Problem auf die Schliche zu kommen, habe ich eine Windows 10 VM über VNC fertig installiert, dann die GPU dazu genommen und die VM startet auch. ABER ... und jetzt kommt der Haken: Mein Bildschrim sagt: Kein Signal Hier jetzt meine urspüngliche Frage: Bedeutet GPU Passthrough, dass ich einen Bildschrim an die Grafikkarte anschließen kann und die VM wird dann (mehr oder weniger nativ) darüber ausgegeben? Oder muss ich mich immer mit einem Stück Software (RDP oder ähnliches) auf die VM verbinden? Danke schon im Voraus!