yasu

Members
  • Posts

    21
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

yasu's Achievements

Noob

Noob (1/14)

4

Reputation

  1. Hi, did you get yout vm working with the igpu? My new setup don't have a dgpu. I tried multiple times creating a vm with igpu passthrouth, win 10, ubuntu. But everytimes the ui crashes and I cannot restart over ssh. Also installel Intel-GV-T (I have an Intel 10th Gen). Nothing helped...
  2. Die "Module" sind eigentlich eigens Programmierter Python Code, der wirklich für HA geschrieben wurde. Da kann man nicht so einfach Änderungen machen (auf technischer Basis) außer mit Entwicklungskenntnissen und forken des ganzen. Hierbei ist das aber definitiv viel zu weit gedacht. Das Weather Forecast lässt sich je nach Bedürfnisse anpassen. Offizielle Anleitung zu der Integration: https://www.home-assistant.io/dashboards/weather-forecast/ Eventuell interessant ist eine Anbindung über eine externe API von einem anderen Wetter Anbieter: https://smart-home-assistant.de/wetterdaten-lovelace-kacheln/
  3. Hallo zusammen, endlich mal ein Thema, wo ich auch mal mitsprechen kann. Inzwischen habe ich in knapp 3 Haushalten geholfen Shellys zu installieren und die verfügbaren Geräte in HA einzubinden. Tatsächlich ist mir keine Möglichkeit bekannt, die Wetterdaten zu ersetzen, da der Wetter ja ähnlich einer Integration läuft. Es gibt aber sehr viele bereits erstellte Eigenkonstrukte, wo die Daten aus anderen Geräten abgemessen und angezeigt werden. Ich meine mich zu erinnern, dass einer sogar 3 Messgeräte draußen an unterschiedlichen Stellen hatte und daraus einen Mittelwert gezogen (Lichteinstrahlung, Schatten). Falls ein Wunsch hierzu besteht kann ich mal online schauen, ob ich noch etwas in der Richtung finde oder wir eines für euch angepasst hinstellen.
  4. yasu

    USB Stick Fehler

    Jap, war der richtige Vorschlag. Der Stick war wirklich tot. Allein das aus dem USB zu kopieren war ein Akt. Ich musste ständig einzelne wenige Dateien kopieren, da sonst der Stick ständig ausgefallen ist. Die Marke davon weiß ich nicht. Es war ein 16GB USB2 Stick, welches von meiner alten Firma (mit eigenem Logo) gegeben wurde. Es wird auch nur als "General USB Device" angezeigt, ohne sonstige Kennung. Es war allerdings nur knappe 3-4 Jahre alt und davor nur selten in Benutzung. Naja der neue ist eine Sandisk und scheint erstmal gut zu laufen. Allerdings gab es jetzt ein anderes Problem: Seit dem neu Aufbau brachte die Windows VM immer einen Bluescreen. Ob es einen Zusammenhang gibt oder geben kann -> Who knows... Ich habe mal nach deiner Anleitung versucht die VM zu installieren, allerdings bekomme ich keine Internet Verbindung. Eventuell dort auch ein Vorschlag? Alles nach der Anleitung ( ) befolgt. Als Virtio Treiber habe ich die neueste genommen: virtio-win-0.1.221-1.iso. Als es nicht ging, nach der Hilfestellung hier im Forum versucht es über den Geräte Manager zu machen. Leider sagt es dann, dass bereits die aktuellsten drin sind. Daraufhin deinstalliert und der Reihe nach: virtio-win-0.1.217-2.iso, virtio-win-0.1.217.iso, virtio-win-0.1.215-2.iso, virtio-win-0.1.141.iso installiert. Alles kein Erfolg. Danach habe ich mit der installierten geringen Version die höhere probiert über den Geräte Manager zu installieren. Es kam nach einer langen Zeit eine Fehlermeldung. Es noch mal auszuprobieren scheiterte aber mit dem Fehler, dass die aktuellste bereits installiert sei. Als Network habe ich das ganze Spiel mit Virtio und Virtio-net gemacht. Leider immer das selbe Ergebniss. Übersehe ich hier etwas?
  5. yasu

    USB Stick Fehler

    Hallo zusammen, habe seit einigen Tagen einen komischen Fehler: Alert[UnraidServerName] - USB drive is not read-write USB-Flash-Disk (sda) Ich habe mir nicht wirklich etwas dabei gedacht. Die Container und auch die VM haben noch ganz normal weiter gearbeitet. Als ich dann allerdings mal auf die Config eines Dockers gehen wollte, war die komplette Dashboard Oberfläche zerschossen mit einer Fehlermeldung die nach php aussah und etwas wie vfio beinhaltet hat. Natürlich habe ich die Meldung dummerweise nicht gespeichert, sondern einfach einen Neustart gemacht. Leider ist das Dashboard ohne Fehler, aber die oben geschriebene Fehlermeldung erscheint dennoch als Benachrichtigung. Könnt ihr euch einen Reim daraus bilden? Einfach einen neuen Stick nehmen?
  6. yasu

    [Kaufberatung]

    So, es wird langsam mal Zeit für ein Zwischenbericht: Die zweite GPU war für mich die eierlegende Wollmilchsau. Danke dafür noch mal an @alturismo! Du hast mir unmengen von Kosten erspart. Docker funktioniert einfach genau wie ich es mir vorstelle. VM's funktionieren ohne Probleme. Für die Windows VM habe ich sogar die SSD von einer 500GB zu einer 1TB geclont und schwupps eine zeile in der VM Config geändert und es konnte direkt weiter gehen. Ein Problem, was ich leider noch immer nicht lösen konnte: 1. Bei einem Neustart muss ich die DP Kabeln aus der 3080GPU lösen, sonst kann ich sie nicht in der VM benutzen. Kennt jemand einen Rat? Für die GPU's habe ich auch mal den Tutorial von Spaceinvaders verwendet. Was soll ich da groß sagen: Statt eines idle Verbrauchs von fast 135 Watt habe ich jetzt "nur" noch einen Verbrauch von 85Watt(!) Das ist echt extrem! Hätte ich mir echt nicht vorstellen können. Ich habe auch bereits einige Texte von @mgutt gelesen und werde wahrscheinlich auch noch im Bios mal schauen, ob und wie ich den Audiocontroller und die ganzen LEDs ausschalten kann um doch noch ein Stückchen mehr Energie zu sparen. Zudem will ich auch noch nach dem Tutorial vorgehen und mal schauen, ob ich an dem Prozessor noch etwas rausholen kann. 2. Ebenso habe ich den Artikel über CPPC gelesen, wobei ich auf reddit erfahren habe, dass das auf meiner CPU wohl nicht wirklich etwas bringen soll. Ist das so? Die Abfrage lscpu | grep "cppc" hat bei mir keinen output zu stande gebracht (die Unraid Version ist inzwischen 6.11.0-rc2. Zudem soll der Synology nur noch mit WOL betrieben werden und als Backup dienen. Stattdessen sollen Home-assistant, DNS und Webseiten auf die Unraid kommen. Leider benutzen noch meine Eltern die Synology Photos App. Da muss ich mal eine Alternative suchen... Mein chachepool besteht aus zwei NVME SN850 1TB Platten, die in einem Raid1 Verbund arbeiten. 3. Ich habe da leider das Problem, das eines knapp 5GB/s und eines nur 2,5GB/s schafft. Ermittelt habe ich die Werte zu unterschiedlichen Zeiten über den docker Diskspeed. Eine Idee woran das liegen könnte? Es macht riesen Spaß immer mehr zu erreichen und jedes quentchen Erfolg erfreut einen um so mehr!
  7. Ich habe mal versucht die Einstellungen bei mir zu testen. 1. Versuch: Win10, i440fx-5.1, SeaBios, HyperV On, Usb3 qemu xhci, dedicated gpu without modified rom -> Kein Bild. Nur ein Prozessor bei fast 100% Auslastung. Andere Prozessoren scheinen nichts zu machen. 2. Versuch: Win10, i440fx-5.1, Bios: OVMF, HyperV on, Usb3 qemu xhci, dedicated gpu without modified rom -> Funktioniert ohne Probleme! Das Betriebssystem wird manuell unter /dev/sdX hinzugefügt, da auf der Platte nur Windows vorhanden ist.
  8. Ich weiß nicht genau, was das Problem bei dir ist. Allerdings kann ich dir mal sagen, wie ich mit meinem Unraid auf die Synology Nas zugegriffen hatte. Ich habe es eben auch noch einmal getestet und es hat auch wieder geklappt. In der Unraid Console habe ich erst smbclient --user username -L //192.168.178.1 <- eingegeben um die Dateistruktur von der Nas zu bekommen. mount -t cifs -o user=username //192.168.178.1/web /mnt/cache/TestNasSMB/ <- Damit habe ich den Share in meinen /mnt/cache/TestNasSMB gemountet. umount /mnt/cache/TestNasSMB/ <- mount wieder entfernt In diesem Thread wird der Nachteil der Methode erklärt. Sollte man den Share nicht wieder rausnehmen, so ist der Pool dauernd auf "busy". Daher nach dem verwenden umount und raus damit. Hoffe es klappt auf die Art.
  9. Hallo, was wäre denn die genaue Fragestellung? Theoretisch kannst du deinen Array stoppen oder den Server herunterfahren, die SSD einsetzen und dann wieder starten. Ich kenne leider dein jetziges Setup nicht. Falls du schon ein Cache Pool hast kannst du bevor das Array gestartet im Cache Pool die neue SSD auch hinzufügen. Falls du noch gar keinen Cache Pool hast kannst du einen neuen Pool erstellen (Cache kann direkt ausgewählt werden) und dann die SSD verwenden.
  10. Bei mir läuft eine Win10 VM auf der 6.10.3. Benutze zwei Grafikkarten. Eine (NVIDIA 1050ti) für Unraid und eine (NVIDIA RTX 3080) welche von der win10 verwendet wird. Übrigens auch für eine Ubuntu Maschine, allerdings nicht parallel. VNC ist nicht ausgewählt. Nur die Grafikkarte wird verwendet.
  11. Hallo zusammen, da ich keine Berechtigung habe in den Anleitungen Bereich zu schreiben würde ich gerne hier ein Tutorial da lassen. Es ist mein erstes Tutorial, also gerne her mit den Verbesserungsvorschlägen! Teddy Docs Importer Daemon / Automatischer Datenimport für Teedy DMS teedy bietet standartmäßig keine "consume" Funktion wie beispielsweise paperless-ngx. Es wird ein Shell Script angeboten womit es möglich ist entweder einmalig ein Massenimport zu bewerkstelligen oder einen Daemon zu starten, der einen Ordner überwacht. Ich habe mich mich dafür entschieden einen Docker zu starten, wo die benötigten Variablen übergeben werden und der Daemon arbeitet. Dieser Tutorial zeigt den Weg, den ich gegangen bin. 0. Voraussetzung: Eine laufende teedy instance in Docker (Falls noch nicht vorhanden, über die Community Plugins installierbar) 1. Vorgehen: 1.1 Ihr geht in Unraid auf Docker -> Add Container und startet ohne ein Template 1.2 Name: Als Name habe ich teddy-importer gewählt, dies kann nach eigenen Wünschen benannt werden Repository: sismics/docs-importer:latest (das ist die original repo vom Ersteller) 1.3 Jetzt müssen neue Felder erstellt werden. Das könnt ihr tun, indem ihr unten auf + Add another Path, Port, Variable, Label or Device klickt Mit dem Config Typ könnt ihr zwischen verschiedenen Typen auswählen. Wir werden gleich 6 Variablen und 1 Path brauchen. uns interessieren nur diese 3 Felder: Config typ, Key, Value (für Config Type Variable) und Config Type, Container Path, Host Path (für Config Type Path). Den Namen könnt ihr frei wählen. Ich werde als Beispiel den Namen schreiben, den ich genommen habe. 1. Config Type: Variable Name: Tag (UUID) Key: TEEDY_TAG Value: c0b7a40f-d68c-4b6c-908b-15388997797b <- Dies mit eurer UUID des Tags ersetzen. Dafür in teedy oben in den Tags menü gehen und links ein Tag auswählen. Ich habe ein Tag "z-untagged" erstellt für importierte Dateien. Wenn ihr dann draufklickt seht ihr in der URL Leiste die UUID des Tags. Diesen kopieren und hier einfügen. 2. Config Type: Variable Name: Read Tags Key: TEEDY_ADDTAGS Value: false <- hiermit kann ausgewählt werden, ob vom Dateinamen Tags ausgelesen werden sollen. Dabei werden die Tags mit dem Hashtag Zeichen erkannt. Beispielsweise: Rechnung#YasuMobile.pdf wäre der Tag YasuMobile. Ich habe es auf false gesetzt um fälschlicherweise erschienene Tags nicht auszulesen. 3. Config Type: Variable Name: ocr lang Key: TEEDY_LANG Value: deu <- OCR Sprache die benutzt werden soll. Für englisch kann hier eng verwendet werden. Ich nutze die Deutsche Sprache. 4. Config Type: Variable Name: teedy url Key: TEEDY_URL Value: http://192.168.171.121:8080 <- URL von eurer teedy instance. Bitte hierbei eure IP Adresse und euer Port verwenden, falls der Port verändert wurde. 5. Config Type: Variable Name: username Key: TEEDY_USERNAME Value: admin <- hier euer Username eintragen, welchen ihr zum einloggen verwendet 6. Config Type: Variable Name: password Key: TEEDY_PASSWORD Value: sicherespasswort <- hier euer Passwort eintragen, welchen ihr zum einloggen verwendet 7. Config Type: Variable Name: consume folder Container Path: /import Host Path: /mnt/user/import/teedy/ <- hier wählt ihr euren Ordner aus, indem eure PDF Dateien liegen. ACHTUNG: Die Pdf Dateien werden nach dem Einlesen gelöscht. Dafür habe ich einen scan Ordner, in dem meine gescannten Dokumente automatisch hinkommen. Dabei werden die Dokumente nach teedy und in einen backup ordner kopiert. Somit habe ich die Dokumente immer noch eingescannt in der Form und teedy kann die Dateien einscannen und löschen. Ich hoffe es war verständlich
  12. Ich finde die Idee ja löblich und gut gemeint, aber wenn doch genug Leute da sind, um zu helfen und Support zu geben, warum dann nicht direkt hier im Forum? Je geteilter die Community umso schlechter ist das ganze. Wenn hier doch auch schon die offizielle Community ist, warum dann nicht mit den ganzen Kollegen hier her und hier etwas aktiver sein? Abgesehen von ständig aufpoppenden Fragen gibt es hier ja auch genug, die neue Plugins entwickeln, zeigen wie effektiv das System angepasst werden kann und und und. Das wäre doch erst recht super?
  13. yasu

    [Kaufberatung]

    Und ich mich erst! Einen Dummy brauche ich wahrscheinlich nicht. Mein Problem ist ja eher, dass ich bei einem Neustart sogar das DP Kabel rausnehmen muss, damit unraid nicht auf die Idee kommt die Karte für sich zu beanspruchen. Es ist auch super, dass ich an meinem jetzigen Schreibtisch, wie nativ dran sitzen kann und in meiner gewohnten Umgebung, mit Tastatur, Maus, Keyboard weiter arbeiten kann, ohne Ein Laptop noch dazwischen schalten zu müssen mit Parsec. Es gibt definitiv noch sehr viel zu lernen und zu testen, aber nach jetzt fast über zwei Monaten, habe ich auch richtig Spaß dabei mich mit der Materie intensiver auseinander zu setzen, statt nur einfach Docker Container aufzusetzen.
  14. yasu

    [Kaufberatung]

    Soooo, ich weiß jetzt gar nicht wo ich anfangen soll... Vielen vielen Dank für die ganzen Anregungen und all den Meinungen! Ich versuche mal so gut es geht der Reihe nach erstmal auf die Kommentare und Antworten einzugehen. Alturismo hat es hier genau getroffen. Der Synology besitzt bereits einen Atom Prozessor. Für das ganze Schnick Schnack, was dort alles läuft, verbraucht es auch echt extrem wenig an Strom, was ich an dem Teil wirklich sehr schätze und extrem feiere! Jedoch sind einige Docker Container, wie beispielsweise Gitlab oder SonarQube nicht darauf ausgelegt, auf einer so sparsamen Kiste zu laufen. Es sind nun mal Anwendungen für die Cloud. Daher habe ich mich auch für Unraid entschieden: Es kann sehr einfach Docker Container erstellt werden, auch ohne die Community Apps verwenden zu müssen, wobei diese natürlich fast perfekt angepasst sind. Zudem habe ich immer noch die Möglichkeit mit den VMs. Korrekt, wäre auch die Bessere Entscheidung für mich gewesen, wenn nicht die noch bessere Idee mit einer 2. GPU käme. Ich habe das ganze mal überflogen... Man man man. -------------------------------------- Ich habe mir eine gebrauchte kleine 1050ti gegönnt und eingebaut. Es war leider viel Problematischer als gedacht. Wer sich die ganzen Probleme anhören möchte kann gerne in den Spoiler schauen: Ich habe es schlussendlich geschafft, dass die VM läuft, die Karte 3080 ausgewählt ist und auch in der VM angezeigt wird, Parsec funktioniert und auch direkt über DP verwendbar ist. (Wobei ich sagen muss, dass ich nicht verstehe, wie eine VM als ein richtiger Rechner direkt über DP verbunden wird und auch so funktioniert als wäre es nativ.) Einige Naustarts sind gemacht und sogar ein kleines Spiel habe ich mal zu Testzwecken gestartet: Microsoft Flight Simulator. Es funktioniert tatsächlich! Andere Spiele werde ich dann die Tage mal testen. Wenn allerdings sogar ein Spiel wie der Flight Simulator klappt, mache ich mir wenig Sorgen um andere Games, abgesehen natürlich von FPS, worauf ich sehr gespannt bin. Den Verbrauch, die Temperaturen etc. habe ich noch nicht gemessen. Das kommt dann auch alles Step-By-Step. Ich bin aber auf jeden Fall schon mal extrem froh an diesen Punkt angelangt zu sein. Die verlinkten Seiten zum Senken des Verbrauchs finde ich klasse. Allerdings denke ich nicht, dass ich um diese Uhrzeit noch irgendwas davon verstehe, deshalb wird das wohl auch etwas später erfolgen müssen. Vielen Dank euch allen noch mal für die Tipps und Ideen. Ihr wisst gar nicht, wie glücklich ihr mich damit gemacht habt!
  15. yasu

    [Kaufberatung]

    Hallo Joerg, Danke für die ausführliche Info. Mit macos wird es wahrscheinlich sehr problematisch. "Nur" Xcode setzt leider immer die neuste macos Version voraus um auch wirklich für die neuste iOS entwickeln zu können. Ich denke, dass das eine zu unsichere Sache ist, als dass ich mich zu sehr darauf fokussieren sollte. Ich würde auch ungern noch ein System dauerhaft laufen lassen. Synology, Unraid und Proxmox wären mir persönlich dann schon zu viel. Es kann tatsächlich sein, dass man einziges Problem tatsächlich nur die zweite GPU war. Oder eben das nicht vorhanden sein einer zweiten GPU. Ich schaue bereits in Kleinanzeigen nach einer 1050,1050ti oder 1060. Das könnte dann tatsächlich all meine Probleme lösen. Ich bin schon sehr gespannt.