alturismo

Moderators
  • Posts

    5718
  • Joined

  • Last visited

  • Days Won

    45

Everything posted by alturismo

  1. fixed, thanks tested and working fine here, if you have a issue here let me know (in terms you are using this feature including cache ...)
  2. may rather post a diagnostics ... and the modprobe file should be there, please dont remove it, you probably also use the intel gpu top plugin or so which also automatically create it.
  3. gerne, unbedingt aber vorher dies umsetzen !!! wenn nicht wirst du unweigerlich in traces und freezes laufen ...
  4. der Router sollte das schon erkennen ... wenn du ne fixe IP vergibst. falls dein Router mit IPVLAN nicht zurecht kommt (Bsp. Fritz), dann solltest du auf macvlan umstellen IPVLAN > jeder Docker hat zwar ne eigene IP aber die gleiche mac macvlan > jeder Docker hat ne eigene IP und eine eigene mac ansonsten gibt es da nichts zu beachten, br0/1 ... IP's statisch vergeben ... am besten einen Bereich ohne DHCP verwenden um Konflikten aus dem Weg zu gehen ... ich vergebe zum Beispiel unter .....100 nichts per DHCP, meine Docker fangen bei .60 an und gehen bis .99 ... sieht bei nem Netzwerk scan dann beispielsweise so aus
  5. ups ... thanks but i guess nobody used that feature anyway i ll fix it glad you got it sorted
  6. das kommt darauf an wie du die extern bereitstellen willst ... 4k hat erstmal nicht viel zu heißen, schwankt gewaltig ... sind es remux dann hast du grob 50 - 100 mbit anliegen (pro Stream), sind es "was auch immer" liegen die meist zwischen 10 - 30 mbit (pro Stream), sind es ... usw usw ... diese Bandbreiten gelten für direct play (direct stream), dafür braucht es auch kein Transcoding des Bildes ... sprich, wenn die in bester Qualität abspielen sollen ... dann brauchtst du je nach Material schon massiven Upstream wenn es transcoded sein soll um Upload zu sparen, werden diese Filme meist in 1080p 8-10 mbit streamed ... dann hat es ein guten Bild und ist "verträglich", da der transcoded Stream immer in h264 läuft ist 4k hier sehr "unproduktiv" ... direct stream oder (besser) transcode > 1080p jetzt hast du noch etwas overhead und Bandbreiten sind auch "dynamisch", also rechne mit deiner 30 mbit upstream Leitung für 2 1080p Streams (in guter Quali) um dann nicht komplett einzubrechen, passendes Routing vorausgesetzt ... heißt ja auch nicht dass dein Upstream überall sauber ankommt, Provider ... Kurz, pauschal kann man es schlecht bewerten und je nach gegebener Qualität schwankt das auch gewaltig ... hoffe es ist halbwegs verständlich Kleiner Zusatz noch, du bist auch per dual stack unterwegs und kannst dich auch extern direkt verbinden ? wenn nicht, geht plex über seinen angebotenen Relay und es geht eh nur max 720p 2mbit (pro stream) bei dir raus oder du setzt dich dann mit dem Thema VServer oder ipv6 auseinander ...
  7. since a time now its needed as its listening as "web service" for image proxying ... so it will not close and should run different wise, as you already customized it by yourself you should be able to sort it out or take a look at the default cronjob.sh how its handled by me ... to get the loop running through.
  8. all i did was updating g2g binary to get the image downloads from SD back working may wipe the cache files please and try from unraid terminal docker exec xteve_guide2go /config/cronjob.sh
  9. sieht aber nicht ok aus, noch 0 Geräte bei Dir in mqtt ... Beispiel von hier ... genau, das geht mit HA wunderbar wenn die Geräte "ankommen" ... siehst du ja oben. Dir fehlen die Geräte in mqtt ... solange da keine Geräte sind ... ich kenne jetzt AHOY auch nicht, daher, entweder ein separates Topic öffnen, hat ja eh bereits nichts mehr mit Thema hier zu tun, vielleicht findet sich jemand wo da helfen kann, AHOY mqtt ... wobei ich da eher dort mal anfragen würde ... oder im web danach suchen. Beispiel hier https://community.simon42.com/t/home-assistant-wechselrichter-hoymiles-ahoy-dtu-und-mqtt/824/49?page=3
  10. question, is there any more logging possible ? i have enabled suspend, but actually the vm doesnt use suspend, wol triggered, wol arrived, no suspend triggered ... i assume as i use hibernate in the VM and disabled suspend (to ram) ... you only implemented suspend to ram i assume this is how i hibernate my VM as sample virsh dompmsuspend AlsPC --target disk" and i guess you prefered regular ... root@AlsServer:~# virsh dompmsuspend --help NAME dompmsuspend - suspend a domain gracefully using power management functions SYNOPSIS dompmsuspend <domain> <target> [--duration <number>] DESCRIPTION Suspends a running domain using guest OS's power management. (Note: This requires a guest agent configured and running in the guest OS). OPTIONS [--domain] <string> domain name, id or uuid [--target] <string> mem(Suspend-to-RAM), disk(Suspend-to-Disk), hybrid(Hybrid-Suspend) --duration <number> duration in seconds root@AlsServer:~# so i assume, yes, you trigger it, but as its disabled here (hibernate) it has no effect, correct ?
  11. die hab ich auch, ich vermisse jedoch die elementare Antwort auf die Frage ... und wenn du das nicht findest in HA, dann wird es bereits schwer da landen die zu verarbeitenden Daten, Sensoren, ... und da ich nicht weiß was "Auswertung" für dich bedeutet, können nur Daten sein, können Schalter sein, kann ... sein. Beispiel mit diversen mqtt Aktoren, Daten, ...
  12. nope, virsh doesnt support this Alternativ, you could run a script which does ssh into your VM and run the command ... either keypair or install sshpass on unraid (unsafe !!!) but rather you should look into your VM why the cron aint running there ... assuming you already did so
  13. well, you shouldnt use sleep anyhow while file transfers are running ... also a reason in the setup page of this plugin to say wait until no array activity ... i guess you missmatch 2 things now and feared about the parity check which starts after each unclean shutdown. as sample note, when you test something, make sure your array aint moving files around ... when you are aware of this, after a unclean shutdown, just cancel the parity check as its just triggered automatically ... and let it run again on your regular next schedule .... a unclean shutdown doesnt automatically mean there is any corruption, its just a default behaviour to make sure everything is ok to run the parity sync ...thats it my HDD's would have bean teared down if i always would have run the parity sync after a unclean shutdown in my test scenarios but to make it clear, is it safer, yes, is it needed when you know there was no array activity at all while the unclean shutdown happened, no. i hope you understand what i mean
  14. naja, so ziemlich alle plugins und alle Docker haben einen eigenen support thread in diesem Fall die Docker haben sogar in der Regel den Link hinterlegt wenn du auf das icon clickst, support ... oder du findest so ziemlich alles zu den Themen wie VM, Docker, Plugin Support hier (im englischsprachigen Teil)
  15. dazu am Besten im passenden Thread anfragen plugins, unassigned devices ... heißt nur er hat Probleme sich da mit dem NAS zu verbinden, beispielsweise wenn der offline ist/war ... Anmerkung, Share Namen mit Spaces sind eine "Totsünde" .... nur als Anmerkung ... da muss man immer drum herum coden, macht keinen Spaß
  16. ja, ist auch unter 6.12.8 einwandfrei gelaufen Ich kann jedoch nur empfehlen, nimm das von dem Post darüber, sehr nice und mehr "Spielereien" inkludiert.
  17. then the network reset prolly wont help, if the console would ve been there it would probably solvable ... but if its "stalled" after awaking ... i guess its just not your plugin. sorry to say
  18. as alot are using sleep meanwhile ... i wouldnt say its a bad plugin, but what comes into here ... Server Software in combo with alot of Hardware just dont like to suspend to ram and wake ... there is a reason why usually its spoken, Servers dont belong to S3 ... now, there is not much you can adjust or what is correct or wrong, all you setup in the Top belongs when the sleep is auto triggered, sample from my VM Server here (which works flawlessly with sleep, luckily ...) so, all you can try now if your Server doesnt repond after awaking ... 1/ do you have a monitor attached (or kvm) to check if the local console is up 2/ you can try the force gigabit from the buttom part (to restart the NIC) 3/ you can try various scripts before / after ... but as mentioned, in the end its usually a hardware issue which just doesnt like S3 sorry to say and may be frustrating, but nothing to be upset now vs. anyone ... its a plugin with a feature which may works (or not)
  19. wie kommst du darauf ? gilt doch nur bei multi user ... wie auch beschrieben ... der Rest ist unten vorgegeben und simpel auszufüllen ... FTP, bin ich raus das ist 30 Jahre her hier ...
  20. du "erstellst" auch keinen Docker sonder du startest einen Docker mit den Parametern ... mehr willst du ja gar nicht. webui, Docker, unten "add container", ausfüllen, fertig. das Ausfüllen ist jetzt deine Hürde ... und das kann man ableiten, es sind ein paar Felder ... Name Repo -v sind mounts (add path) -e sind Variablen (add enviroment variable) -p sind ports (add port) das Gaze jetzt angepasst ... auf den Host (in dem Fall Unraid) Beispiel -v .... Container Path /data lässt du wie angegeben, Host Path wäre z.Bsp. /mnt/user/appdata/ut2004 -p ... Container und Host Ports übernehmen -e ... Unraid bevorzugt UID 99 / GIS 100 -e ... Timezone Europe/Berlin -e ... CD Key wirst du haben Schau dir doch einfach mal einen Docker an wo du bereits gestartet hast, wenn noch nicht, dann schau dir doch einfach an wie der UT09 aussieht ... ist selbsterklärend mit ein wenig Fantasie nicht krumm nehmen, aber "jammern" mag ich nicht ... im Kontext 100 haben geschaut, keiner antwortet mir ....
  21. nicht wirklich und du hast doch deine Lösung
  22. beispielsweise webdav ... entweder einen webdav Server aufsetzen (ist im CA Store) oder falls Nextcloud in use ist, hat webdav eingebaut ... smb ist "extern" keine Option und FTP ist schon ziemlich "outdated"
  23. was ich schade finde ist wenn man 1/ sagt "es gibt keinen" 2/ dann bestätigt den auch gefunden zu haben anstelle gleich eingangs den zu erwähnen, dann hätte man in 2 kleinen Schritten erklärt wie es geht und gut ist, so verliere ich zumindest die Lust das zu unterstützen ... hat für mich jetzt den Beigeschmack "ich stell mich mal ..." dann wird schon was passieren .... kurz, da du den auf github gefunden hast, da steht alles (docker run und variablen) jetzt nimmst du mal irgendeinen deiner Docker und vergleichst mal was wo im template steht ... und schon bist du fertig kannst auch einen aus CA installieren, dann siehst du auch den docker run command. lesen, ableiten, ... fertig.
  24. also, hattest du vorher 2 Parity und 1 Array ... noch nie probiert, aber wenn du startest, Parity is valid anklicken sodass hier kein neuer sync gemacht wird ... ob das geht, muss ich ehrlicherweise passen, schau dir mal die unraid docs an https://docs.unraid.net/category/unraid-os/ es dürfen dann 2 Platten parallel ausfallen (egal welche), ja.
  25. das wird so auch nicht gehen da die app "photosync" das nicht unterstützt ... filebrowser ist eine webui um files up / downloaden ... nicht mehr, nicht weniger. Ich nutze Photosync nicht, daher kann ich jetzt schwer was dazu sagen, aber dazu musst du einfach schauen wie ein automatischer Upload funktioniert (Protokoll), beispielsweise webdav, ftp, ... und dann den entsprechenden Dienst bereitstellen. mit Filebrowser an sich wird das schonmal sicher nicht der ist perfekt um per HTTP darauf zuzugreifen und schnell was up/downloaden ... wenn dass die Frage war