alturismo

Moderators
  • Posts

    1700
  • Joined

  • Last visited

  • Days Won

    5

Everything posted by alturismo

  1. Nachtrag, und bei allen Schreibvorgängen
  2. das war die Frage, es gint nur genug "Jäger und Sammler" wo täglich 2 - 3 ... dann macht der idle nicht den großen Unterschied. und auch hier, wenn du persönliche Erfahrungen damit hast, alles gut auch das war nur die Frage ob vom "Hören / Sagen" oder selbst getestet. Und ja, beides NVENC 7th gen, daher kein Unterschied ... die Frage war auch mehr Richtung QSV Intel gerichtet. Zur Info, da ich sehr auf die Qualität achte habe ich das encoden komplett aufgegeben da nichts an das Original (remux) kommt Beste Ergebnisse habe ich mit Intel QSV im Verhältnis Quali/Size erreicht, NVENC braucht auch hier tatsächlich mehr Size ...
  3. yep, das ist mehr oder weniger Plug & Play, einer der Vorteile bei Unraid
  4. genau, offtopic ... und es hat meines Wissens noch niemand geschafft ... und wird "gefühlt" auch (leider) nicht passieren ... was und wieviel "digitalisierst" du denn, wenn du nur CPU nutzt und das häufig passiert läuft die Kiste während des Encodings eh auf Vollgas und das "Sparen im idle" rückt immer mehr in den Hintergrund. Mal ein Film ... oder permanentes "Sammeln" ... Thema hw / sw encoding, wann und mit was hast du das verglichen ? Quelle ist (hevc, avc, ... remuxes, TV Aufnahmen, ... ) ? Ziel ist (hevc, avc, Größe / Stunde) ? da hat sich auch im Bereich hw encoding einiges getan, wenn man nur so drüber liest meint man ja es käme nur Pixelbrei raus ... und dem ist nicht so
  5. das wäre der richtige Weg wenn du mit 2 subnetzen arbeitest und die untereinander sichtbat halten willst, wobei sich dann die Frage stellt warum 2 subnetze ... Edit Der Experte @Ford Prefect ist bereits dran
  6. da steht nichts interessantes drin, egal welchen Server ich nehme, schau mal ein post darüber, ich denke du hast den gleichen Fehler in deiner config ...
  7. ... wenn alle Dienste aus sind, docker und VM (vor allem VM Dienst stoppen), mach dann folgendes mv -R /mnt/disk1/system /mnt/cache_nvme/ danach kurzer check ob auf disk1 noch etwas ist (sollte ex sein) und auf cache_nvme system liegt danach mein (persönlicher) Vorschlag, cache only und nicht cache prefer (bevorzugt) für solche shares ...
  8. wie man an deinem screen sieht ist er da grad beim entpacken des 1GB Files ... was auch je nach System, SSD, ... dauern kann ... zu der Eingangsfrage welcher docker ich nutze den offiziellen onlyoffice/documentserver und geht wunderbar, als lsio/nextcloud user muss man halt einen externen nutzen da die internen nicht in alpine basierenden dockern laufen da gewisse binarys nicht darauf kompiliert sind seitens NC, auch der originale NC docker in der alpine Version unterstützt die interne OO Version nicht.
  9. da die Parity mit anspringt wird es sich um Schreibzugriffe handeln was liegt denn auf disk1 ? appdata, system, ... ? was da evtl. nichts verloren hätte
  10. das ist eine gute Frage wo noch offen ist, hatte ich bereits mal angemerkt dass da was nicht passt, auch mit unterschiedlichen Angaben je nach powertop Version ... ich denke es liegt auch daran dass hier vieles mit 100 % angenommen wird
  11. also, der TVH Docker läuft hier auf 3 Maschinen problemlos ... natürlich ohne -C mode Beispiel und ich würde mal hier schauen zum Thema log, anscheinend passt ja etwas nicht ... bitte mal ein screen von dem Fenster machen was da steht ... klick, klick ...
  12. how do you add the path inside filebrowser now ? as you now use your config path (which is not the best idea, but nevermind) and you mounted like you should use now /db/config/blackberry-abyss.css or /db/config/custom/blackberry-abyss.css when you made a subdir ... you can check when you use your unraid docker terminal and do (CoRrEcT name of your filebrowser docker) docker exec filebrowser ls -la /db/config/ to see whats there (from filebrowser docker point of view) and the path you describe up there /mnt/user/... is /mnt/srv/... from filebrowser's point of view as you see in your mount points. so basically, /mnt/srv/dockerdata/filebrowser/config/.... would also work. may read a little about mounts in general about docker's to understand the path's from docker side.
  13. then the exporter plugin works, now next step(s) ... prometheus docker source, grafana ...
  14. i guess its 1000/50 same as me, working fine here, so may take another look just got my 6591 replaced, worked fine on 7.27 and now 7.29 too
  15. may add a sleep in there as the array needs some time to startup (and the vm service too) the virsh start cmd is correct, here is my VM Cycle script which i made for me to switch VM's while running (Desktop VM with GPU passthrough), not your usecase now, but u see the sleep's i added between to make sure ... #!/bin/bash vm1="AlsLinux" vm2="AlsPC" ## vm_running="running" vm_down="shut off" vm1_state=$(virsh domstate "$vm1") vm2_state=$(virsh domstate "$vm2") echo "$vm1 is $vm1_state" echo "$vm2 is $vm2_state" if [ "$vm1_state" = "$vm_running" ] && [ "$vm2_state" = "$vm_down" ]; then echo "$vm1 is running shutting down" virsh shutdown "$vm1" vm1_new_state=$(virsh domstate "$vm1") until [ "$vm1_new_state" = "$vm_down" ]; do echo "$vm1 $vm1_new_state" vm1_new_state=$(virsh domstate "$vm1") sleep 2 done echo "$vm1 $vm1_new_state" sleep 2 virsh start "$vm2" sleep 1 vm2_new_state=$(virsh domstate "$vm2") echo "$vm2 $vm2_new_state" else if [ "$vm2_state" = "$vm_running" ] && [ "$vm1_state" = "$vm_down" ]; then echo "$vm2 is running shutting down" virsh shutdown "$vm2" vm2_new_state=$(virsh domstate "$vm2") until [ "$vm2_new_state" = "$vm_down" ]; do echo "$vm2 $vm2_new_state" vm2_new_state=$(virsh domstate "$vm2") sleep 2 done echo "$vm2 $vm2_new_state" sleep 2 virsh start "$vm1" sleep 1 vm1_new_state=$(virsh domstate "$vm1") echo "$vm1 $vm1_new_state" else echo "$vm1 $vm1_state and $vm2 $vm2_state doesnt match" fi fi so a simple vm start after array start (wait 15 seconds before vm start command) #!/bin/bash vm1="your_vm_name_here" sleep 15 virsh start "$vm1" and you set in CA scripts
  16. das ist in manchen Konstellationen jedoch der Grund warum ein System als nicht erreichbar ist, custom:br0 aktiv (macvlan) in Kombi mit Docker(s) und VM, daher wurde in der 6.10 auch dafür ipvlan bei Docker(s) eingeführt um da gegenzusteuern .... Ich habe dieses Problem nicht, war jedoch häufiger vorgekommen da dies ein mehr oder weniger ein "hack" ist um das zu realisieren (host access usw ...). also wenn das aktiviert ist meine ich sprich, wenn das jetzt läuft kannst du auch in der gleichen config auf 6.10rc wechseln, dann weißt du es sicherer was es wirklich war ... Nur zur Info falls ich das richtig interpretiere mit deinem "custom"
  17. how did you change guac to listen on port 80 ? i hope now not by changing the value in the docker settings, this will only change the mapping when using a bridged network. in terms you want to change the tomcat listen port to 80, read up here https://guacamole.apache.org/doc/0.9.6/gug/installing-guacamole.html#mod-proxy
  18. ist na Ansage ... was hast du vor ? ich hab die 360er für meinen 10850k genommen, 240er ... ich hab jedoch kein so gut belüftetes Gehäuse, Lian Li PC-O11WXC ... daher einige Küfter drin um durchzublasen die ohne Lichterkette hab ich Board hab ich andere Präferenzen, daher wäre das jetzt nichts für mich, aber sicherlich keine schlechte Wahl
  19. da von Dir hierzu bisher nicht viel kam ... warum hab ich mich vor kurzem für einen i9-10850k mit Z590 er Board entschieden, mein usecase etwas umschrieben igpu von intel - geht einfach in den Anwendungen wo ich nutze, Plex, Emby, TVHeadend, ... Thema HW Transcoding ... - gvt-g fähig (für meine Homeoffice VM, igpu in der Remote VM mit Hardware Beschleunigung) Generell, ich betreibe im Maximal Fall 3 VM's, 2 davon per Nvidia passthrough (Desktop VM GTX1050, Gaming VM RTX3070), zzgl. die Homeoffice VM (intel gvt-g) und parallel laufen die Docker auch wenn es sein muss mit HW Transcoding für Plex und co ... 10/20 Kerne, getrennt isoliert, sauber kompatibel, keine Abstürze, alles gut. Wenn Du keine igpu benötigst und Du generell gute Erfahrungen gemacht hast mit AMD als Basis, hau rein Die Frage an sich kannst Du Dir nur selbst beantworten, bei AMD gibt es mehr fürs Geld ... daher sage ich ja auch "leider ...", wenn Du aber die Probleme siehst wo auftreten, gerade im iommu, vfio passthrough Bereich kann ich da aktuell nur Intel empfehlen ... und XEON wäre noch besser da hier die Boards in Kombi mit der CPU noch besser zusammen arbeiten ... nur nicht einfach zu bekommen, warum habe ich mich für ein Z590er Board entschlossen, da mein Server auch gleichzeitig der Desktop PC ist und ich am Case "bare metal" Feeling haben will benutze ich immer Boards welche 2 getrennte USB Controller haben sodass ich einen davon für unraid lassen kann (benötigt ...) und einen per PCI passthrough an die Desktop VM geben kann, gerade für die USB Slots am Case ... wie nativ am Desktop halt. Wenn der Schwerpunkt nicht bei VM's und passthrough liegt, sondern mehr auf NAS, Docker Apps, usw ... sieht es wieder anders aus.
  20. hier eine schöne Vorlage von @mgutt stellt sich jetzt die Frage wie du die "externe" Quelle erreichen kannst/willst ... oder mit GUI, Docker luckybackup von @ich777
  21. und ob AMD die bessere Wahl ist sei mal dahin gestellt ... sowie VM mit passthrough (GPU) ins Spiel kommt sind AMD Systeme in der Regel nicht unbedingt die beste Wahl ... (leider), hier treten häufiger Probleme auf. also, usecase bedenken, nachlesen was dafür passt
  22. just inside the session, nothing special todo ... may try the following, once you have your VM running and parsec installed. turn off the VM and remove the graphics and video part from the xml in the advanced VM edit tab. then start the VM, you wont be able to use the VNC session anymore, but then the VNC part is gone which may cause issues. sample from the buttom part from my gvt-g VM, you see no more video or graphics parts