alturismo

Moderators
  • Posts

    6113
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by alturismo

  1. since a time now its needed as its listening as "web service" for image proxying ... so it will not close and should run different wise, as you already customized it by yourself you should be able to sort it out or take a look at the default cronjob.sh how its handled by me ... to get the loop running through.
  2. all i did was updating g2g binary to get the image downloads from SD back working may wipe the cache files please and try from unraid terminal docker exec xteve_guide2go /config/cronjob.sh
  3. sieht aber nicht ok aus, noch 0 Geräte bei Dir in mqtt ... Beispiel von hier ... genau, das geht mit HA wunderbar wenn die Geräte "ankommen" ... siehst du ja oben. Dir fehlen die Geräte in mqtt ... solange da keine Geräte sind ... ich kenne jetzt AHOY auch nicht, daher, entweder ein separates Topic öffnen, hat ja eh bereits nichts mehr mit Thema hier zu tun, vielleicht findet sich jemand wo da helfen kann, AHOY mqtt ... wobei ich da eher dort mal anfragen würde ... oder im web danach suchen. Beispiel hier https://community.simon42.com/t/home-assistant-wechselrichter-hoymiles-ahoy-dtu-und-mqtt/824/49?page=3
  4. question, is there any more logging possible ? i have enabled suspend, but actually the vm doesnt use suspend, wol triggered, wol arrived, no suspend triggered ... i assume as i use hibernate in the VM and disabled suspend (to ram) ... you only implemented suspend to ram i assume this is how i hibernate my VM as sample virsh dompmsuspend AlsPC --target disk" and i guess you prefered regular ... root@AlsServer:~# virsh dompmsuspend --help NAME dompmsuspend - suspend a domain gracefully using power management functions SYNOPSIS dompmsuspend <domain> <target> [--duration <number>] DESCRIPTION Suspends a running domain using guest OS's power management. (Note: This requires a guest agent configured and running in the guest OS). OPTIONS [--domain] <string> domain name, id or uuid [--target] <string> mem(Suspend-to-RAM), disk(Suspend-to-Disk), hybrid(Hybrid-Suspend) --duration <number> duration in seconds root@AlsServer:~# so i assume, yes, you trigger it, but as its disabled here (hibernate) it has no effect, correct ?
  5. die hab ich auch, ich vermisse jedoch die elementare Antwort auf die Frage ... und wenn du das nicht findest in HA, dann wird es bereits schwer da landen die zu verarbeitenden Daten, Sensoren, ... und da ich nicht weiß was "Auswertung" für dich bedeutet, können nur Daten sein, können Schalter sein, kann ... sein. Beispiel mit diversen mqtt Aktoren, Daten, ...
  6. nope, virsh doesnt support this Alternativ, you could run a script which does ssh into your VM and run the command ... either keypair or install sshpass on unraid (unsafe !!!) but rather you should look into your VM why the cron aint running there ... assuming you already did so
  7. well, you shouldnt use sleep anyhow while file transfers are running ... also a reason in the setup page of this plugin to say wait until no array activity ... i guess you missmatch 2 things now and feared about the parity check which starts after each unclean shutdown. as sample note, when you test something, make sure your array aint moving files around ... when you are aware of this, after a unclean shutdown, just cancel the parity check as its just triggered automatically ... and let it run again on your regular next schedule .... a unclean shutdown doesnt automatically mean there is any corruption, its just a default behaviour to make sure everything is ok to run the parity sync ...thats it my HDD's would have bean teared down if i always would have run the parity sync after a unclean shutdown in my test scenarios but to make it clear, is it safer, yes, is it needed when you know there was no array activity at all while the unclean shutdown happened, no. i hope you understand what i mean
  8. naja, so ziemlich alle plugins und alle Docker haben einen eigenen support thread in diesem Fall die Docker haben sogar in der Regel den Link hinterlegt wenn du auf das icon clickst, support ... oder du findest so ziemlich alles zu den Themen wie VM, Docker, Plugin Support hier (im englischsprachigen Teil)
  9. dazu am Besten im passenden Thread anfragen plugins, unassigned devices ... heißt nur er hat Probleme sich da mit dem NAS zu verbinden, beispielsweise wenn der offline ist/war ... Anmerkung, Share Namen mit Spaces sind eine "Totsünde" .... nur als Anmerkung ... da muss man immer drum herum coden, macht keinen Spaß
  10. ja, ist auch unter 6.12.8 einwandfrei gelaufen Ich kann jedoch nur empfehlen, nimm das von dem Post darüber, sehr nice und mehr "Spielereien" inkludiert.
  11. then the network reset prolly wont help, if the console would ve been there it would probably solvable ... but if its "stalled" after awaking ... i guess its just not your plugin. sorry to say
  12. as alot are using sleep meanwhile ... i wouldnt say its a bad plugin, but what comes into here ... Server Software in combo with alot of Hardware just dont like to suspend to ram and wake ... there is a reason why usually its spoken, Servers dont belong to S3 ... now, there is not much you can adjust or what is correct or wrong, all you setup in the Top belongs when the sleep is auto triggered, sample from my VM Server here (which works flawlessly with sleep, luckily ...) so, all you can try now if your Server doesnt repond after awaking ... 1/ do you have a monitor attached (or kvm) to check if the local console is up 2/ you can try the force gigabit from the buttom part (to restart the NIC) 3/ you can try various scripts before / after ... but as mentioned, in the end its usually a hardware issue which just doesnt like S3 sorry to say and may be frustrating, but nothing to be upset now vs. anyone ... its a plugin with a feature which may works (or not)
  13. wie kommst du darauf ? gilt doch nur bei multi user ... wie auch beschrieben ... der Rest ist unten vorgegeben und simpel auszufüllen ... FTP, bin ich raus das ist 30 Jahre her hier ...
  14. du "erstellst" auch keinen Docker sonder du startest einen Docker mit den Parametern ... mehr willst du ja gar nicht. webui, Docker, unten "add container", ausfüllen, fertig. das Ausfüllen ist jetzt deine Hürde ... und das kann man ableiten, es sind ein paar Felder ... Name Repo -v sind mounts (add path) -e sind Variablen (add enviroment variable) -p sind ports (add port) das Gaze jetzt angepasst ... auf den Host (in dem Fall Unraid) Beispiel -v .... Container Path /data lässt du wie angegeben, Host Path wäre z.Bsp. /mnt/user/appdata/ut2004 -p ... Container und Host Ports übernehmen -e ... Unraid bevorzugt UID 99 / GIS 100 -e ... Timezone Europe/Berlin -e ... CD Key wirst du haben Schau dir doch einfach mal einen Docker an wo du bereits gestartet hast, wenn noch nicht, dann schau dir doch einfach an wie der UT09 aussieht ... ist selbsterklärend mit ein wenig Fantasie nicht krumm nehmen, aber "jammern" mag ich nicht ... im Kontext 100 haben geschaut, keiner antwortet mir ....
  15. nicht wirklich und du hast doch deine Lösung
  16. beispielsweise webdav ... entweder einen webdav Server aufsetzen (ist im CA Store) oder falls Nextcloud in use ist, hat webdav eingebaut ... smb ist "extern" keine Option und FTP ist schon ziemlich "outdated"
  17. was ich schade finde ist wenn man 1/ sagt "es gibt keinen" 2/ dann bestätigt den auch gefunden zu haben anstelle gleich eingangs den zu erwähnen, dann hätte man in 2 kleinen Schritten erklärt wie es geht und gut ist, so verliere ich zumindest die Lust das zu unterstützen ... hat für mich jetzt den Beigeschmack "ich stell mich mal ..." dann wird schon was passieren .... kurz, da du den auf github gefunden hast, da steht alles (docker run und variablen) jetzt nimmst du mal irgendeinen deiner Docker und vergleichst mal was wo im template steht ... und schon bist du fertig kannst auch einen aus CA installieren, dann siehst du auch den docker run command. lesen, ableiten, ... fertig.
  18. also, hattest du vorher 2 Parity und 1 Array ... noch nie probiert, aber wenn du startest, Parity is valid anklicken sodass hier kein neuer sync gemacht wird ... ob das geht, muss ich ehrlicherweise passen, schau dir mal die unraid docs an https://docs.unraid.net/category/unraid-os/ es dürfen dann 2 Platten parallel ausfallen (egal welche), ja.
  19. das wird so auch nicht gehen da die app "photosync" das nicht unterstützt ... filebrowser ist eine webui um files up / downloaden ... nicht mehr, nicht weniger. Ich nutze Photosync nicht, daher kann ich jetzt schwer was dazu sagen, aber dazu musst du einfach schauen wie ein automatischer Upload funktioniert (Protokoll), beispielsweise webdav, ftp, ... und dann den entsprechenden Dienst bereitstellen. mit Filebrowser an sich wird das schonmal sicher nicht der ist perfekt um per HTTP darauf zuzugreifen und schnell was up/downloaden ... wenn dass die Frage war
  20. @Gee1 da diese Frage ja nichts mit mit der Schematik cache <> array zu tun hat in ein separates Topic geschoben. hierzu noch ein kleiner Nachtrag, Raid0 Vorteil (speed) ist nur solange da wie die kleinste disk im pool multipliziert mit der Anzahl der disks im pool, alles darüber dann entsprechend der disk Zusammenstellung. Im Beispiel von @DataCollector wären dies bei der 4 + 2 Zusammenstellung 2 + 2 raid0 speed (4 TB nutzbar, so wird auch angefangen) 2 single drive speed (2 TB Rest) fällt eine disk aus ist trotzdem alles weg da auch die restlichen Daten in "chunks" geschrieben werden, auch bei der single disk usage beim Rest.
  21. https://docs.unraid.net/unraid-os/manual/storage-management/#multi-device-mode
  22. genau so ist es ... turbo mode (reconstruct) ist aktiviert ? geht auch im laufenden Betrieb ... wie bereits mehrfach geschildert ... settings, disk settings das auf reconstruct stellen, dann hast du volle performance, macht zum befüllen inkl. Parity Sinn. Wenn das aktiviert bleibt, nicht wundern, dann laufen immer ALLE Platten beim Schreiben an und nicht nur 1 + Parity ... dafür halt fast native Geschwindigkeit was gerade die HDD so kann im aktuellen Stand.
  23. usually, just restart it, you cant update it via the plex web ui ... or wait for a docker update
  24. ja, aber die Endgeräte müssen es können, Smart TV, FTV, Shield TV, ... ansonsten ist es immer ein encoded stream zuhause ... und ja, Intel ab können decoden ... und transcoden dann zu h264 um den stream kompatibel zu machen, nur wer will das zuhause und software decode auf den clients ... geht auch nur bis 1080p meist gut, bei 4k ist dann meist Ende ... und um seine Bibliothek in AV1 zu encoden, dafür braucht es halt die passende (i)GPU meiner (bescheidenen) Meinung nach, AV1, gerne ... wenn die ganze Kette @home das nativ abspielen kann ... ein "decoding" Server bringt mir persönlich da herzlich wenig ... wenn die Player es nicht können ...
  25. ziemlich sicher nur am Dateisystem des caches, ich hoffe mal deine Array Platten sind nicht auch im btrfs format ... macht im Array 0 Sinn. Daher, cache wegsichern (sofern notwendig), formatieren, backup einspielen, fertig. beim sichern den Ordner /mnt/cache/system/docker ... ignorieren, den braucht man nicht sichern.