Leaderboard

Popular Content

Showing content with the highest reputation on 01/11/24 in all areas

  1. Wenn als einzelnes Laufwerk: XFS Wenn im Pool als Raid: ZFS Zu BTRFS findest Du diverse Meldungen/Probleme hier im Forum... Eher einen Nachteil. Trim wird für SSD's im Array nicht unterstützt. In einem Pool sehr wohl. Kommt auf den Einsatzzweck an. Mein "cache" läuft mit zwei NVME's im ZFS. Der ist für Docker und sonstige schreibintensive Anwendungen. Und eben für einige Shares eingerichtet. Eine weitere SSD (SATA) habe ich als einzelnes Laufwerk im XFS. Dies fungiert als Laufwerk für VM's. Korrekt.
    3 points
  2. Yeah, this is nonsense, maybe somebody is dreaming? And of course the marketing department is the last to tell the truth. Anyway, pushing something into a direction it was never meant to go, usually fails miserably. And UNRAID failed a lot last year (with zfs and so on), so maybe its time for a new start. In general I am very pleased with it, but all the efforts of the last times went away from the basics and ended up in a "does not work well" scenario. They should stop this stuff and concentrate on things that are really missing like a global read cache. (They thought they could eleminate the demand by including zfs, but it turns out to be a boomerang)
    2 points
  3. Bitte mal in den Thread, den ich Dir verlinkt habe reinklicken. Dort wird auch diese Frage beantwortet. Unter der Überschrift "Benötige ich einen SSD Cache?".
    2 points
  4. dann mach es nicht als Array Platte (im Array ohne Trim support, sollte aber beim Datengrab nicht so relevant sein) als Pool (Cache) Platte, /system, /appdata, /domains als cache only (secondary none) konfigurieren ... Backup Strategie umsetzen, fertig.
    2 points
  5. We are excited to announce a new and improved Update OS flow for Unraid OS. With this latest update, we have made significant improvements to make the Update OS process more user-friendly and efficient and it is available today via the Unraid Connect plugin v2024.01.09.1413 - head to the Plugins page on your server to update your plugin. This is also coming soon for all users in an upcoming Unraid OS stable release. Please see our blog for full details: https://unraid.net/blog/new-update-os-tool Or, follow along with @zspearmintas he walks you through the new Update OS flow: Changes to Downgrade OS We’ve also improved the downgrade feature and moved it to its own page at Tools → Downgrade OS. This new page allows for easier rollbacks to your previous release and has a much better interface to walk through the process. Be sure to read the release notes both current and previous versions before rolling back, as incompatibilities or manual changes could be needed before downgrading.
    1 point
  6. I will have to get an external drive big enough and give that a go.. maybe this afternoon.
    1 point
  7. nope, wenn du Trim auf deinem Datengrab möchtest war es das ... die Shares wie bereits oben beschrieben dann nur auf den jeweiligen pool (cache, cache2, vmcache, wie_auch_immer) als primary only setzen) in so einem Fall ist und bleibt alles im Sahre appdata auf dem pool "cache"
    1 point
  8. klar, zu Fragen hierzu ab ins Proxmox Forum, dort musst du anfragen wie du das machst ...
    1 point
  9. Q1:- https://github.com/binhex/documentation/blob/master/docker/faq/vpn.md
    1 point
  10. MIt einem Reverse-Proxy auch. Der soll ja genau das ermöglichen.
    1 point
  11. Basically, I should have come here first before messing it up further. Duley noted!
    1 point
  12. Hallo, also ich habe nun die Backup-Festplatte direkt in den Server eingebaut, und nun kommt dieser Fehler nicht mehr. Es dürfte also wirklich ein Problem mit dem USB-SATA-Dock geben. Wobei ich es noch immer sehr seltsam finde, da es auf allen anderen Geräten wo ich es auch verwende ohne Probleme funktioniert. Wie auch immer... ich habe jetzt eine Lösung. Vielen Danke für Ehren Input und Hilfe!! vG Etze
    1 point
  13. XFS is still a valid option, and if you don't care about snapshots, send/receive, checksums, etc, might as well keep using it.
    1 point
  14. I was able to figure out an animation... attached: EDIT: Changed for better animation... yellow-jellyfin2.svg
    1 point
  15. so i have recreated docker, checked RAM for faults, 1 stick was bad, now i will see if problem persist last time i checked was 2 weeks ago and all was fine, i think this developed while i was trying to fix my server, force closing i dont think does help on RAM
    1 point
  16. Hey everyone, We've found the issue and will be patching with the next release.
    1 point
  17. Hi ich777, apologies for the delayed reply. Thanks for your reply that has been super useful. No I'm not using Unraid but I see now the different branches and their examples in github and it was exactly what I needed. Many thanks.
    1 point
  18. Empfehle für die DNS-Einrichtung auch den Router. So funktioniert die Weiterleitung auch im Falle, wenn mal der Server aus ist und man muss sich nicht selber um die Wartung des zusätxlichen Dockers kümmern. Solltest du noch andere Dienste in Zukunft online bringen wollen, die auch über die Web-ports 80 und 443 angesprochen werden wollen, dann ja. Sollte es aber bei "nur" Jellyfin bleiben, dann kannst du wie erwähnt ein einfaches Port-Fowarding in der Fritybox vornehmen und die beiden Ports 80 und 443 direkt an die Jellyfin IP und Port weiterreichen.
    1 point
  19. Das ist eine Aussage die so pauschal nicht richtig ist: Das Unraid Array kommt beim Schreiben (nur beim Schreiben) im Standardmodus auf die o.g. Werte da parallel eine Parity mitgeführt wird (Stichwort: Ausfallsicherheit). In diesem Modus sind nur die Platten aktiv die beschrieben werden. Beim Lesen hast Du native Performance der Platten. Man kann aber das selbe Unraid Array in einem anderen Modus betreiben und dann ist die Performance wie gewohnt. Dann werden beim Schreiben wie bei einem traditionellen RAID aber auch alle Platten gleichzeitig benutzt: Und selbst das ist beim Unraid Array noch nicht alles. Es gibt noch einen dritten Modus - mit vorgeschaltetem Schreibcache. Bei den Pools sieht es wiederum ganz anders aus. Dort erreichst Du nahezu ideale Werte - kommt aber auch hier auf das von Dir gewählte Dateisystem und den von Dir gewählten RAID Level an. Selbstverständlich erkauft man sich diesen Performancegewinn ebenfalls durch einen erhöhten Strombedarf (Stichwort: Platten Spin-Down). Unraid bietet halt im Gegensatz zu anderen Produkten das stromgünstige Array als zusätzliche Wahl an. Für ein Datengrab ist das unbezahlbar und unerreicht. Letztendlich hast Du aber bei Unraid eine große Anzahl von Wahlmöglichkeiten und es ist Deine Entscheidung.
    1 point
  20. ‘sure…. Let me work on it today. This would be a static icon. Can’t re-figure out how to do the animated stuff… What is the MASSIVE piracy scandal? I have not heard about it. What is SSO?
    1 point
  21. Thanks for the info, it seems to be other reasons, I may not able to help you. Please try the plugin with a brand new unraid system if possible. Or if you have no problem with current driver, better to keep using it.
    1 point
  22. Turnkey update: Ugreen NASync DXP2400 (2-bay) and Ugreen NASync DXP4800 (4-bay) to be released in a couple of months, both using the N100 CPU. No official page on their site at the moment, but here is one from the Google cache: archived: https://archive.is/saRkb original: https://webcache.googleusercontent.com/search?q=cache:https%3A%2F%2Fnasync.ugreen.com%2F And an article here: German: https://www.computerbase.de/2024-01/ugreen-nasync-neun-nas-mit-intel-cpus-und-10-gbe-enthuellt/ Google Translate: https://www-computerbase-de.translate.goog/2024-01/ugreen-nasync-neun-nas-mit-intel-cpus-und-10-gbe-enthuellt/?_x_tr_sl=de&_x_tr_tl=en&_x_tr_hl=en Both will come with two M.2 SSD slots, probably x1, one or two 2.5GbE NICs depending on the model, and only 8 GB of DDR5 memory, which you can update to 16 GB (officially), and maybe to 32 GB (inofficially). Unclear if you'll be able to install Unraid, but I assume it will be possible, similar to TerraMaster, Asustor et al.
    1 point
  23. Warum? Kann UNRAID doch eigentlich sehr gut mit Bordmitteln?! Auch wenn es vorher lief, könnte ich mir vorstellen dass sich Portainer und UNRAID da gegenseitig in die Quere kommen
    1 point
  24. You can try disabling SSL, type in the CLI: use_ssl no
    1 point
  25. entweder oder reicht ich würde immer den Router nehmen.
    1 point
  26. Ja, hat sie... Auch das, alle SATA. Nach einem Neustart des Servers heute morgen sind alle Temperaturen wieder da.
    1 point
  27. i've just seen the reddit post about the current installs expiring 1/1/24. i'm running controller 5.14.23 with 12 or so sites on it. can i migrate to this reborn or do i need to do something else? edit - went for it to 8.0.24. it went without a hitch and is working great. thank you.
    1 point
  28. sorry for you that you have read the wrong infos before buying. UNRAID is NOT a video center in the first place, its a file server. Everything else is optional and out of scope from the development team. If your VM crashes or not, is nothing of interest. (and yes, the used virtualizer "qemu" is the worst I have ever seen, but its no miracle, you could have found the info) As said, the benefits of UNRAID are about file handling. The unique feature to allow a RAID-like array with mixed drives is outstanding. Sadly people always want more, more and more. And someday "more" becomes "too much".
    1 point
  29. If you have the ports to spare, you can preclear the disks while keeping the original disks installed, and then replace. Doesn't matter if you use the same port as the original or not, it only matters that you assign the disk to the slot your are replacing. So really no need to remove anything if you are just going to reuse them anyway. If you really want to keep the ports corresponding to certain slots for some reason, you can change the ports around however you want anytime you want, Unraid only cares about the serial numbers for keeping assignment straight. Of course, you should always be careful of connections when mucking about. Bad connections are the main reason for problems. When you say you want to reuse the old parity drives, do you mean assign them to new data slots in the array? If so, then yes, Unraid will clear the disk if it isn't already clear so parity will remain valid.
    1 point
  30. Yeah, I knew it was 24 hour. So when I tried yesterday I added 12 to the PM hours. 🙂 But running it this morning I didn't need to since it was all AM times. When I first started trying to get the schedule to work, it wouldn't run at all. Someone suggested I turn on Console Mode and then it worked. So I thought I had to have that on. But you're getting it to work without. I have no clue what I'm doing. 😄
    1 point
  31. unRAID currently requires at least 1 drive to be configured in the unRAID Array. It can even be a flash drive however it does count against the total drive limit.
    1 point
  32. 10fps is quite high for detection. Frigate recommends 5fps. My cameras go up in 2s so 2,4,6,8,10 etc. have found 4fps works just as well with less cpu strain. See how you go with it. If you need more personalised help try creating an issue on the GitHub for frigate here and one of the devs will help. https://github.com/blakeblackshear/frigate/issues
    1 point
  33. Hat die Platte denn schon mal die Temperatur angezeigt? Wie sind die Platten (alle drei) angeschlossen? Alle auf onboard SATA? Es gibt dazu wohl auch einen recht alten, ungelösten Bug:
    1 point
  34. I assume this is Zandronum correct? Usually you just load the WAD file or the pk3 file, however I'm far from an expert on Zandronum since I did this dedicated server on request. It is working just fine if you simply load a WAD file.
    1 point
  35. I will try this in the next few days (and I hope I don't forget about that), my schedule is a bit complicated currently.
    1 point
  36. VM disk images have never been backed up, only the libvirt.img file which contains the VM configs. That's only a few kB's worth, and the useful files are what's in vm_meta.tgz instead of wasting space with the entire image file that's mostly empty.
    1 point
  37. But for safety, stop docker, do a backup (appdata backup/restores, zfs snapshot, manual or whatever), then change it.
    1 point
  38. another user (german forum) reported an idle of 25,1W which is pretty good
    1 point
  39. 两块4T的硬盘突然在重启后出现不识别空间大小,显示无法挂载:不支持的文件系统或无文件系统的错误(刚才忘截图了) 瞬间懵逼,8T的小姐姐啊,多少年的搜集!!赶紧谷歌之,万幸找到一篇帖子,尝试修复成功,这里记录下,算是给自己留个备份. 两个步骤 1.命令行或者SSH输入命令:blkid 查找硬盘实际编号,比如我的磁盘5出问题,那编号就是就是md5p1 2.输入命令:xfs_repair -v -L /dev/md5p1(红色字体就是上面找到的编号) 等待自动修复,完毕后重启unraid,应该就挂载上了. 就是这么简单,希望帮助到碰到同样问题的人. 还有个命令:btrfs check --repair /dev/磁盘(可能是修复文件系统是btrfs的命令,视情况尝试,我的文件系统是XFS)
    1 point
  40. I'm currently using code-server but I would love to use this image instead since I could use the official extensions from ms. Version 1.4.0 works as previously stated but my github login does not persists even if just reloading the browser tab.
    1 point
  41. Voici l'exemple de ma share principale pour les médias :
    1 point
  42. So, hier mal ein Update. System ist grundsätzlich konfiguriert und läuft Stabil. Bis heute Früh 14,8W IDLE (Unraid, 2x Kioxia Cache, 2x HDD im Array Spin-Down,.... Docker: Photoprism, LuckyBackup aktiv) Habe dann Home Assistant als VM eingerichtet, damit ist der Verbrauch auf 18,7W im Mittel gestiegen. (Die Spikes im Screenshot waren Installation der VM und eine Photoprism Indexierung). Ich bin damit zufrieden und am überlegen meinen parallel laufenden Proxmox Server (25W mittlerer Verbrauch) lahm zu legen und die übrigen Docker Container auch über Unraid laufen zu lassen (Jellyfin, Servarr Reihe, InfluxDB, Grafana, Homarr, Paperless-NGX). Aber dafür muss ich mich mit dem Backup und Fallback Konzept bei Unraid noch etwas beschäftigen, denn Proxmox in Verbindung mit Proxmox Backup Server ist dahingehend einfach phänomenal.
    1 point
  43. Managed to solve by reading the troubleshooting section : "If your WireGuard tunnels will not start, make a dummy change to each tunnel and save."
    1 point
  44. And thanks to all for the help
    1 point
  45. Bonjour, globalement oui. Toutefois, si tu as des VMs sur lesquels tu as passé des éléments HW, il faudra certainement y faire attention. Je ne suis pas un expert, mais si c'est le cas, je pourrais te donner quelques pistes. Oui, probablement en coupant les services Docker et VM auparavant pour que tout puisse être déplacé sans problème. Normalement, pas de désastre à prévoir. Mais quelques étapes à suivre. La plupart seront inutiles s'il n'y a pas de soucis, mais il vaut mieux prendre le temps de le faire plutôt que de regretter. En gros : mets à jour tous tes plugins (optionnel) lance un Parity check pour s'assurer qu'il n'y a pas de soucis désactive le démarrage automatique de l'Array désactive le démarrage automatique des dockers (onglet docker) désactive le démarrage automatique des VMs (onglet VM) désactive le service docker (onglet Settings) désactive le service VM (onglet Settings) déplace les données de ton cache vers l'Array soit avec le mover (mais ça demande de modifier toutes les Shares dans un sens, puis dans l'autre) soit avec un outil annexe (Unbalance, Midnight Commander) ; si tu n'es pas certain, demande ou reste avec le Mover fait une sauvegarde de ta clé USB exporte un diagnostics note l'assignation de tes disques (un imprime écran de Main fait souvent le taff) bascule tes disques sur ta nouvelle machine avec ton nouveau cache Boot vérifie que tous tes disques sont bien reconnus et bien assignés assigne ton nouveau cache démarre l'Array il devrait demander de formatter ton nouveau cache, vérifie que c'est bien le bon disque et si oui, fait le déplace les données de l'Array vers ton nouveau cache à l'inverse de la dernière fois active le service docker (onglet Settings) lance tes dockers un par un et vérifie qu'ils sont fonctionnels réactive le lancement auto des dockers que tu souhaites active le service VM (onglet Settings) lance tes VMs une par une et vérifie qu'elles sont fonctionnelles réactive le lancement auto des VMs que tu souhaites réactive le démarrage automatique de l'Array si tu le souhaites (optionnel) lance un Parity check pour s'assurer que tout s'est bien passé Si tu as un doute sur une étape ou une autre, demande. Si un truc se passe mal, demande. J'ai beaucoup décomposé, mais ça devrait bien se passer.
    1 point
  46. Hi there, I have recently updated my unraid server (from 6.11.5) to 6.12.4, and i am now running into a pretty unique issue. Every time a new SSH session is created, a new cgroup is created. Unfortunately this new cgroup does not get cleaned up when the session is closed. I use SSH to run some icinga monitoring checks on the host. this adds up pretty fast, reaching the cgroup limit of 65535 within a few weeks. When the limit is reached, i cannot start new docker containers: docker: error response from daemon: failed to create shim task: oci runtime create failed: runc create failed: unable to start container process: unable to apply cgroup configuration: mkdir /sys/fs/cgroup/docker/XXX: no space left on device: unknown. Restarting the SSH Daemon does not appear to work, i have to restart the server to clear the defunct cgroups. The amount of cgroups can be viewed using: cat /proc/cgroups #subsys_name hierarchy num_cgroups enabled cpuset 0 52 1 cpu 0 52 1 cpuacct 0 52 1 blkio 0 52 1 memory 0 52 1 devices 0 52 1 freezer 0 52 1 net_cls 0 52 1 perf_event 0 52 1 net_prio 0 52 1 hugetlb 0 52 1 pids 0 52 1 All these cgroups appear as /sys/fs/cgroup/cXX: /sys/fs/cgroup# ls c1/ c15/ c20/ c4/ cgroup.controllers cgroup.threads io.stat c10/ c16/ c21/ c5/ cgroup.max.depth cpu.stat machine/ c11/ c17/ c22/ c6/ cgroup.max.descendants cpuset.cpus.effective memory.numa_stat c12/ c18/ c23/ c7/ cgroup.procs cpuset.mems.effective memory.reclaim c13/ c19/ c24/ c8/ cgroup.stat docker/ memory.stat c14/ c2/ c3/ c9/ cgroup.subtree_control elogind/ I have found one similar issue on the interwebs from 6 years ago: https://stackoverflow.com/questions/45690117/ubuntu-server-every-ssh-connect-creates-non-deleted-cgroup It appears to be a pretty fringe issue. I do not have any other servers to try and reproduce this. i don't know if this is the right place for this issue, i can imagine this may go way deeper into openSSH/docker itself than just the plugin. Any help is appreciated.
    1 point
  47. As long as the lock icon on the right is locked (green), the wrench icon will not show up. When you unlock the icon (click on it and it turns red), the wrench icon (Content Management) then shows up in the dashboard.
    1 point
  48. This is old post but shown by google search so might be helpful for other people experiencing similar problem: BY default cifs mounts with owner = root and permissions of 755. You can set dir_mode to 777 when mounting: sudo mount -t cifs //192.xxx.x.xx/media /mnt/unraidtower -o username=pi,password=raspberry,dir_mode=0777,file_mode=0777
    1 point
  49. At some point you either redid the flash drive from scratch, or wound up deleting manually the files in /config/plugins/dockerMan/templates-user Your end-game here is to take a screen shot of all of the container's mappings, then delete the docker.img, then reinstall those apps again via CA adjusting your templates accordingly. Unless your flash did drop offline, in which case a reboot will bring everything back, but then you've got to solve the problem of your flash disappearing.
    1 point