DarkMan83

Members
  • Posts

    97
  • Joined

  • Last visited

Everything posted by DarkMan83

  1. Just stop your VM's and all dockers clickable again...*joking* Try not to use the dashboard for this,until the bug is fixed, since this is a beta, it's expected to have bugs...
  2. @linuxserver.io thing makes me very sad... I'm using many dockers from them... Currently the nvidia Unraid driver Settings is already no more working. This seems to be a very sad moment, i feel. From my perspective this is a massiv loss a functionality that is currently not available in Unraid itself. Maybe those two parties should take calm and go into discussion. I hope they not completely out of developing for the community things could be clarified... I hope they're really not stopping all of their great community dockers. I would encourage anyone else, who uses dockers or plugins from them, to write their two cents, so the impact on the community gets more attention.
  3. Hab ich das falsch in Erinnerung oder hab ich irgendwo gelesen, dass ab einer bestimmten Beta kein Downgrade mehr möglich ist. Weiß nimmer welche, habs vielleicht auch verpeilt, dann vergesst es einfach 😄
  4. Mal ne andere Frage: Lief eure Windows VM auch schon ohne Grafikkarte flüssig? Meine ruckelt sich einen zurecht beim verschieben von z.B. einem Explorer Fenster und ich habe schon "Inhalt während Bewegung anzeigen" auf aus... Mag natürlich auch an demXeon liegen (nur AVX1 usw.) Wie sind da so die Erfahrungen? Gruß Dark
  5. Joa ja, ich hab nochmal geschaut... Nach ein paar Stunden mehr Laufzeit is es letztenendes doch ein bissel weniger... Rund 10-20 WATT im Normalbetrieb und wenn noch zu den Docker-Containern eine VM läuft, sogar ~30 WATT weniger als vorher 🙂 Komisch war nur, dass das Tool ansich gar keine mW oder Watt angaben angezeigt hat, wenn es gemessen / überwacht hat.
  6. Interessant, hab Powertop mal laufen lassen, gefühlt 30 BAD-Einträge, alle korrigiert....Stromverbrauch is genauso wie vorher 🚱
  7. It's because of open file handles on the mounts i think. If you crazy you could manually unmount all array, cache or docker image mountpoints. But if the WebGui is still responsive click on stop array before you do this... umount -f -l /path While the -f is to force, the -l is the lazy option, which doesn't allow new handles on that mountpoint. And start with the docker image first... Worked for me several times, because of stalled docker service which won't close, even if you send sigseg or sigkill...whatever. But keep in mind, this is only a workaround with potantally dataloss!
  8. Ja und ist ssl in der unraid webgui erstmal aktiviert,dann kannstes nicht mehr ausschalten. Zumindest bei mir so,seitich den ein Zertifikat erstellen lassen habe, die buttons schmeißen dann javascript fehler, somit ist ein übernehmen der Einstellungen dann nicht möglich...
  9. NextCloud macht einen DNS-Bind auf die Domain, du wirst automatisch weitergeleitet. Wenn du dann in der Fritzbox den DNS-Rebind einträgst, wird das glaub ich dann auch lokal gehen...korrigier mich jemand, wenn ich falsch liege...
  10. Na bei IPv6 hat ja auch jeder Endpunkt eine eigene IP (es sei denn du hast das beschnitten mit local bla bla), da brauchst dann kein NAT (Portweiterleitungen) mehr, da jeder Endpunkt eindeutig identifizierbar ist.
  11. Natürlich ist das auch ne Lösung, es führen bekanntlich viele Wege nach ROM...ich habe meinem eine extra IP gegeben, da ich so viele Docker laufen habe und teilweise schon ganze Portranges auf dem Host belegt sind. Und zur Übersichtleichkeit
  12. Wieso einen zweiten Port? Einfach is doch egal ob Docker oder VM...du kannst den Dingern eine eigene IP zuordnen... Beispiele: Ich hab in meiner DE-Domain dann einfach eine Subdomain mit cloud.domain.de gemacht und lass das ganze über CloudFlare-DNS laufen (Vorteil is noch das standard SSL-Zerrtifikat, welches kostenlos ist), noch ein anderer Docker, der das DDNS updated, das aktualisieren bei Cloudflare dauert höchstens 10 Minuten, wenn man mal ne neue IP bekommt. (Alternativ geht auch noch DuckDNS, da gibts auch einen Docker für...) Mein Nextcloud funzt hier einwandfrei und da ich für 12,90 € noch nen Rootserver habe, wo auch die DE-Domain drüber läuft, kann ich darüber auch Mails von Nextcloud Weiterleiten... P.S. Ihr "Säcke" ich hätte auch gerne mal Glasfaser...bei uns wurde sogar der Supervectoringausbau verschoben...Ich glaub ich muss aufs Land ziehen, damit ich endlich Glasfaser bekomme! Wenn du heute in der Stadt wohnst, bist bestraft! Gruß Dark
  13. Maybe i missed something with those docker problems. When i try to get the bubuntux/nordvpn docker running correctly on first setup all is fine. If i try to change some settings (regardless of which setting of the ccontainer) it couldn't recreate this container. After that it can't be started, it is marked for deletion. But on deletion it gives an error too. I don't know if this behaviour is related to this beta. I will try to restart the docker service... This is only FYI.
  14. Was für eine Schreibwut hier. Ein paar Stunden nicht rein geschaut und schön wieder eine Seite voll. Ich glaube der deutsche Bereich ist schon fast am aktivsten. 😃
  15. On Beta 25 there was an note in the announcement: I waited for this a long time, since overheating HDD's are bad on high IO... Is this fixed now? 😅
  16. Jipp, this is exactly the same for my xeon... If i use /tower/share i get ~500 Mb/s and if i use /tower/cache/share i get ~980 MB/s... On direct share access one single core has 100% usage... However, as i have 128 GB ram an my cache is 10% even the nvme cache isn't used on file copy until it's finished. After that it gets flushed to cache at 3-4 GB/s. So RAM should always be fast, but it isn't, because of single thread on direct share writing. Greetings Dark
  17. Just read the: 6.9.0-beta25 vs. -beta24 Summary It's clearly stated, that it will be fixed in next Build! -> 6.9.0-beta26 or RC...dunno whats next.
  18. Dude this Spindown problem for Beta 25 seems to be normal, i had them spinning down the first 2 Weeks... After that they stopped spinning down on my HP-Server also....:-( Hardware, Container and VM wise nothing was changed 🙂 Hopefully that would get fixed in the next Beta/RC.
  19. Currently i've searched the Forums for exactly this problem i think. I'm on unraid v6.9-beta25. For Serverspecs see my sig. I have an NVME cachepool and that one is set to the share i'm transferring to. I've also tuned the... vm.dirty_background_ratio: 9% vm.dirty_ratio: 10% As i have 128 GB of ECC RAM, this should use ~12,8 GB RAM as cache. The file i'm transferring is ~11 GB. Using: /mnt/user/ShareName The maximum speed i get is ~500 MB/s and the cache has no IO going on, as the RAM is utilized. After the file is completly transferred, it gets flushed to the cache at ~500 MB/s. Using: /mnt/cache If i transfer the same file again i get ~1 GB/s and it is again written to the RAM. After the file is completly transferred, it gets flushed to the cache at ~2 GB/s. I wonder why the 500 MB/s manifesting as a magic barrier, regardless of what anyone tried. Greetings Dark
  20. Since i disabled NFS and several Server restarts, no more disappeared shares.
  21. Da liegt ihr ja noch niedrig, ich habe eine, die hat 8k+ Fehler... Lag aber damals daran, dass sie mal als Backup-Platte genutzt wurde bei mir und in einem externen USB-Gehäuse steckte, was einen scheiss Controller hatte. Dieser hatte Aussetzer, wenn er warm wurde. Eben diese Platte steckt nun im Unraid-System und läuft tadellos. Wie mein Vorredner schon sagte: Solange die Fehler dann nicht mehr werden, is alles gut. Gruß Dark
  22. I already checked the permissions and they're ok. Why shouldn't they? I've nothing changed on those files upgrading to v6.9.0-beta22.
  23. Maybe it's old, maybe it's not. I've also found that one topic, but i never had those issues before. On v6.8.3 all was fine and all shares worked like they should, no matter how many reboot's i've done. This only appeared after upgrading to v6.9.0-beta22 the first time and continues to reoccur after reboots randomly and than doesn't go away by simply rebooting. For the "/usr/mnt/" jipp, that is a typo, for sure it should name "/mnt/usr/...". Today i restared the server 2 times, but as this SMB thing is random, you my know it, the shares working so far. I'll report back, if this changes the next time. P.S. Edit of the first Post in the first 5 mins shouldn't be a problem at all. I see no Point in "not adding the Attachement" to the first post. Greetings Dark