alturismo

Moderators
  • Posts

    5830
  • Joined

  • Last visited

  • Days Won

    45

Everything posted by alturismo

  1. Mann Mann ... Danke für den Wink das werde ich mal weiterleiten was man sich dabei denkt ... Urgs. mea cul·pa
  2. in deinem Router, das ist ja dafür da deinen Unraid Server von außen zu erreichen ... port 443 aktuell. Ich (und wahrscheinlich die meisten) nutzen Reverse Proxy's ... und diese Funktion gar nicht ...
  3. this is a english only part here, so please edit the post in english, thanks. btw. you will have alot more ppl able to help then if you cant, may try your luck in the german part of the Forum.
  4. ich wiederhole mich nur ungern, aber ja ... mv /mnt/cache <> /mnt/diskX mv /mnt/diskX <-> /mnt/cache mv /mnt/diskX <> /mnt/diskX alles gut ... --- mv /mnt/user/.... <> /mnt/diskX/ mv /mnt/user/ <> /mnt/cache/ NICHT alles gut ... weil es viele viele gibt die das machen ... von user Share zu diskX/cache ... und dann knallt es gerne, daher nicht empfohlen. --- was du am Ende dafür benutzt, such Dir was aus Terminal direkt, mc, File Manager, Plugins wie unbalance, Docker wie Krusader, Disk Shares von einem PC Client aus, .... so wie es DIR gefällt, gehen tut alles, nur die Regel beachten NICHT von/zu User Shares von/zu disks direkt ... und das hat nichts mit konstruktiv zu tun, nicht konstruktiv wäre, geh dorthin wo du den Kram zu zfs gelesen / gesehen hast und frag da nach ... hier steht nirgends das zfs im Array empfohlen ist ... nur 1000+ Fragen weil es nicht läuft wie erwartet ... was auch klar ist wenn man kurz nachliest ... egal Schöne Weihnachten noch.
  5. but consider this driver is then not meant to be used with thats a different story as note, you can use the P4 on Host (Dockers) then ... but NOT simultan in VM / Docker, its a either / or usage ... driver for host (dockers) OR passed through to a (1) VM
  6. nennt sich simpel Backup entweder du legst deine 3 SSD als cache an 1/ alle 3 in einen cache 2/ alle 3 als ingle drive caches 3/ cache 1 mit 1 SSD, cache 2 mit 2 SSD's egal ... dann legst du deine Shares an, alle einfach mit primary storage cache, secondary none ... sprich, alle Daten bleiben NUR auf dem (jeweiligen) cache. Dann nimmst du dein Backup Tool deiner Wahl und machst alle 48 H ein Backup deiner cache/s und kopierst das auf das Array, fertig. Grundsätzlich geht das, ist halt keine Parity sondern ein Backup ... das ist der einzige "Denkfehler" Parity = Ausfallschutz und weiter arbeiten wenn eine Platte im Array ausfällt. Backup = Kopie deiner Daten um diese auf eine andere / neue Platte retour zu spielen wenn da mal was passiert. Parity = Echtzeit, Backup = je nach Zyklus (48 Stunden in deinem Fall) sprich, wenn eine Cache Platte bei Dir mal defekt geht sind die neueren Daten seit dem letzten Backup (0 - 48 Stunden) weg, das war es schon. um das Backup auch zu beschleunigen den unnötigen Subordner "ausklammern", /mnt/cacheX/system/docker/... darin befinden sich die Docker System Daten, was irre viele kleine Dateien sind und bei einer Wiederherstellung viel schneller über die Neuinstallation des Dockers wieder da, die Docker Start Einstellungen sind auf dem Stick und die persistent Data des Dockers unter /mnt/cacheX/appdata... diesen natürlich sichern
  7. keine, das ist die "aktuelle" Variante ... wenn du auf "alt" stellen willst mit ondemand, conservative, ... musst du den pstate Treiber "deaktivieren" ... am Einfachsten, syslinux ergänzen intel_pstate=passive mal zum Nachlesen ... https://wiki.archlinux.org/title/CPU_frequency_scaling
  8. wenn du weißt was du machst ... alles gut. unbalance macht im Grunde nichts anderes ... nur automatisiert ... zu zfs, sag ich nichts ... steht alles oben.
  9. may just change the time ... its a time where alot try to download ... here how it looks like correctly, my cron runs at 04.45 am, described in the .txt restart docker (like described) and check again with upper command if cron changed
  10. kurz, das ist nicht persönlich gegen dich gemeint, ich kann nur den (sorry) Stromsparwahn nicht mehr lesen ... geschweige denn die (nachten) Vergleiche zu benchen ohne Bestückung wo später 0 Aussagekraft haben ... aber egal. und wenn dann noch so Sachen ins Spiel kommen ... dabei dann noch die Hardware in Frage gestellt wird ... alles klar aber egal, alles gut, ich werde mich in Zukunft darauf beschränken das alles hier einfach zu ignorieren ... Schöne Feiertage noch @all
  11. thanks, but i have 1 already here for some time ... simple but working, just to "cacle" between VM's sharing the same GPU passthrough as userscript, run in background ... will turn the running VM off, will turn the other VM on (cycle) #!/bin/bash vm1="AlsPC" ## Name of first VM vm2="AlsPC_Linux" ## Name of second VM ############### End config vm_running="running" vm_down="shut off" vm1_state=$(virsh domstate "$vm1") vm2_state=$(virsh domstate "$vm2") echo "$vm1 is $vm1_state" echo "$vm2 is $vm2_state" if [ "$vm1_state" = "$vm_running" ] && [ "$vm2_state" = "$vm_down" ]; then echo "$vm1 is running shutting down" virsh shutdown "$vm1" vm1_new_state=$(virsh domstate "$vm1") until [ "$vm1_new_state" = "$vm_down" ]; do echo "$vm1 $vm1_new_state" vm1_new_state=$(virsh domstate "$vm1") sleep 2 done echo "$vm1 $vm1_new_state" sleep 2 virsh start "$vm2" sleep 1 vm2_new_state=$(virsh domstate "$vm2") echo "$vm2 $vm2_new_state" else if [ "$vm2_state" = "$vm_running" ] && [ "$vm1_state" = "$vm_down" ]; then echo "$vm2 is running shutting down" virsh shutdown "$vm2" vm2_new_state=$(virsh domstate "$vm2") until [ "$vm2_new_state" = "$vm_down" ]; do echo "$vm2 $vm2_new_state" vm2_new_state=$(virsh domstate "$vm2") sleep 2 done echo "$vm2 $vm2_new_state" sleep 2 virsh start "$vm1" sleep 1 vm1_new_state=$(virsh domstate "$vm1") echo "$vm1 $vm1_new_state" else echo "$vm1 $vm1_state and $vm2 $vm2_state doesnt match" fi fi
  12. das kann natürlich auch sein .... entweder die Docker Variable oder innerhalb paperless fixiert ... einfach mal dort deine Änderung vornehmen und dann nochmals den renamer ausführen, schon probiert ?
  13. Nein, dein Ausgabeformat ... Für paperless ... Gesendet von meinem SM-S911B mit Tapatalk
  14. Vielleicht einfach nicht kompatibel, probiert mal etwas anderes mit Ordnern ... Zumindest einen Unterordner Gesendet von meinem SM-S911B mit Tapatalk
  15. Nein, sauber nachgelesen und sollte normal passen ... was jedoch "ungewöhnlich" ist, du nutzt "-" ... sprich, keine Struktur ... alle Dateien im Hauptordner ... vielleicht ist das der Fehler. Mal im paperless log geschaut was da so steht ? processed hat er ja alles ...
  16. du hast auch den Port weitergeleitet ? und natürlich wie @cz13 bereits anmerkte, mit der internen Adresse hat das nichts am Hut, es geht um einen externen Zugang ... oder Unraid net extern zu nutzen.
  17. Stecker ziehen, froh sein dass du keinen Strom verbrauchst ... Was soll das ... 10 W ... was erwartest du denn, dass das Teil mit Luft und Liebe läuft ... ich bin echt "fassungslos" was manche erwarten ... naja, probier weiter ob du noch en Watt rausholen kannst. schöne Weihnachten noch an alle Stromsparer, hoffe Ihr habe auch keine Lichter an ...
  18. @xjmh2kSVLC5bnP hast du die syno firewall aktiv ? https://www.randomhacks.co.uk/how-to-allow-incoming-pings-through-synology-firewall/
  19. und du hast auch beides versucht, IP und Name, ich schätze dein Syno hat die ...140 Dec 21 16:00:41 unraid unassigned.devices: Removing configuration '//192.168.2.140/Backup-Unraid'. Dec 21 16:00:46 unraid unassigned.devices: Removing configuration 'DS1621:/volume1/Backup-Unraid'. und wäre es normal nicht noch .../volume./... bei ner syno, weiß es nicht genau da ich sowas nicht nutze wenn du von einem anderen Gerät im Lan pingst geht es ? ...140 und DS1621, wenn ja, bliebe ja fast nur DNS von Unraid ... wobei du da "schätze ich" 8.8.8.8 eingetragen hast, teste mal mit 192.168.2.1 als DNS Server (in der Hoffnung du hast keinen pihole oder adguard welcher vom Router dann auch provided wird ... wäre mein erster Ansatz. @dlandon may you see something in the logs aside unreachable ...
  20. ist auch nicht generell so ... nur halt auf keinen Fall empfohlen ... ich nutze auf meinem "kleinen" Unraid auch ne zusätzliche nvme ssd in nem USB Gehäuse ... ohne Probleme .... aber wenn dann wüsste ich dass dies halt nicht zielführend ist ... wobei ich trotzdem verwundert bin, da wenn die USB Platte verschwindet ... normal das Array und Unraid stehen bleibt ... was ja anscheinend nicht der Fall ist. und wenn ich jetzt die diags sichte, bin ich verwundert ... ebenso hier ... hattest du vorher mal mit cache probiert und getestet ? wenn ja, mach mal new config und stelle nochmal neu ein. ebenso crasht dein Server hier und ich sehe das bonding und bridging aktiv ist ... ebenso, ein Server mag immer eine feste IP kein DHCP aktivem Host access das hat jetzt nichts mit den Dockern zu tun dass die "verschwinden", aber steht auch an, siehe macvlan und release notes 6.12.4 oder im Wiki ...macvlan. 1/ wenn du nicht nochmal alles platt fahren willst, alle Docker Autostart aus. 2/ docker Dienst stoppen 3/ Array stoppen 4/ tools, new config, preserve NONE 5/ Array, disk zuweisen, Array starten 6/ docker, Image / Directory löschen 7/ Docker Dienst start 8/ Docker jeweils prüfen das IMMER /mnt/user/... hinterlegt ist und nirgends /mnt/cache/... steht 9/ jeweiligen Docker installieren, starten ... da /appdata ja vorhanden ist starten die mit den bisherigen settings 10/ Hoffen ... vorher noch das Thema bridging, bonding, korrigieren ... Das wäre mein Ansatz.
  21. das ist zu vernachlässigen, wenn überhaupt spürbar ... nichts was dich hier betreffen wird. @DataCollector Coole Idee, auch ein Ansatz das zu lösen ich frag aber einfach nochmal nach @EliteGroup, warum hast du die Meta's nicht einfach auf dem cache belassen anstelle einen zusätzlichen zu nutzen ? wenn es Dir um das moven gegangen wäre, mover tuning ... da wären 2 Ansätze drin gewesen. Min. Size oder file types in den Unterordnern nach Angabe ... Beispiel /mnt/cache/Filme/*.info < je nachdem welche Shares und welche Files bleiben sollten ... oder halt stumpf nach Größe ... aber dann wäre der ganze cache betroffen gewesen, mit file type list hättest du das limitieren können. aber so ist es getrennt und auch clean ... alles gut.
  22. Nein, da ist nichts mehr an pcie drin ... Nur die 4x USB und 2x HDD onboard. Gesendet von meinem SM-S911B mit Tapatalk
  23. Hier nochmals ein kleines Feedback zum Thema N100m, C States und effektiver Verbrauch hab jetzt mal die TV Karte ausgebaut (alles auf SAT IP), hab den Realtek Treiber installiert, hab Powertop laufen ... komme jetzt mit Powertop auf C3 (anstelle C2 mit TV Karte und OHNE powertop, mit powertop war c0 ) was hat sich jetzt effektiv geändert im Verbrauch ... ~ 3 Watt war 26 W im Idle, ist ~ 23 W im Idle ... also alleine C States und aspm bringt es auch nicht wirklich (hier zumindest wie immer ...) es müsste jetzt alles enabled sein was geht ... die 3 W weniger sollte die TV Karte alleine weniger ausmachen, C States hin oder her ... was jetzt noch frisst sind sicher die USB Geräte ... in Summe 4 Stück 1/ USB Unraid 2/ USB nvme Unraid cache2 drive (Backup) 3/ USB Sonoff Zigbee Stick 4/ USB Smargo Kartenleser meine persönliche Erkenntnis, C States / aspm sind nicht alles ... mal schauen wie er sich so entwickelt mit etwas Laufzeit, wird ja normal etwas besser mit der Zeit.
  24. Ich dachte du hast keinen Cache ... Ich schau später nach deinen diagnostics ... Btw, die kann man ruhigen Gewissens auch hier Posten, alles relevante wird anonymisiert [emoji6] Gesendet von meinem SM-S911B mit Tapatalk
  25. nope, meinte ich nicht, aber egal wenn nur eine Festplatte im Spiel ist ... also, prüfe bitte was du alles so an settings, plugins, ... hast welche Nachts laufen, da passiert ja offensichtlich was bei Dir ... wenn der Server über Nacht an war, kannst du auch gerne deine diagnostics hier hoch laden, dann kann man genauer schauen was passiert ist ...