Leaderboard

Popular Content

Showing content with the highest reputation since 03/21/24 in all areas

  1. This is a bug fix release, resolving a nice collection of problems reported by the community, details below. All users are encouraged to read the release notes and upgrade. Upgrade steps for this release As always, prior to upgrading, create a backup of your USB flash device: "Main/Flash/Flash Device Settings" - click "Flash Backup". Update all of your plugins. This is critical for the Connect, NVIDIA and Realtek plugins in particular. If the system is currently running 6.12.0 - 6.12.6, we're going to suggest that you stop the array at this point. If it gets stuck on "Retry unmounting shares", open a web terminal and type: umount /var/lib/docker The array should now stop successfully If you have Unraid 6.12.8 or Unraid Connect installed: Open the dropdown in the top-right of the Unraid webgui and click Check for Update. More details in this blog post If you are on an earlier version: Go to Tools -> Update OS and switch to the "Stable" branch if needed. If the update doesn't show, click "Check for Updates" Wait for the update to download and install If you have any plugins that install 3rd party drivers (NVIDIA, Realtek, etc), wait for the notification that the new version of the driver has been downloaded. Reboot This thread is perfect for quick questions or comments, but if you suspect there will be back and forth for your specific issue, please start a new topic. Be sure to include your diagnostics.zip.
    9 points
  2. I think it's two fold. One, there is a group of individuals that do this for a living and want to play around it to learn it for their job, or as a way to test if it's something they want to deploy at their workplace. Secondly, I think others do it because of the "cool" factor. Don't get me wrong, I still think it's a mighty fine solution (I've played around with it myself), but it takes a lot more configuration/know-how to get it working. Like you said, it doesn't have docker by default, so you either have to create a VM and/or LXC, install docker and go from there. Personally I've played around with Jellyfin on Proxmox...I did it in a VM, I did it with docker in a VM, as well as an LXC and while it was fun, it wasn't no where near as simple as Unraid, where it's click install, change a few parameters and go. I also see a lot of discussion around the "free" options out there. No offence, but these "free" options aren't new. They've been around just as long, if not longer than Unraid and guess what, people still chose Unraid. Why?, because it fits it target market...."home users." Easy to upgrade storage, similar easy to follow implementations for VMs and docker, a helpful/friendly community, plenty of good resources to help you along (ie: Spaceinvader One),etc... There's more to Unraid then just the software and it's why people chose Unraid over the others. People will pay for convenience, it's not always about getting stuff for free. Does Unraid have every feature that the other solutions have...no, but it doesn't need to and IMHO most of them don't really matter in a home environment anyways. I also agree there seems to be a lot of entitled individuals. I feel bad for software developers, because people want their stuff, they want them to make changes, add new features, etc... and oh btw, please do it for free, or charge someone else for it, thank you... I've seen a lot of arm chair business people here offering suggestions to just do what the others do; go make a business version, go sell hardware, etc... No offence, but those things sound way simpler than what it actually takes. Not to mention there's no guarantee that it will pay off in the long run and has the potential to put you in a worse situation compared to where you were before. For example, lets say they do offer a business solution and price it accordingly. Well guess who is going to demand more support, or the ones demanding the new features? It won't be us home users, it will be the businesses, and if they are the ones essentially funding the development, you can bet where the development efforts are going to go. I just want Lime Tech to focus on Unraid. I don't want them to focus of other avenues that can potentially make things worse in the long run because they have too much going on. Just focus on what they do best and that's Unraid. We can go back an forth all day long. At the end of the day, if you are that unhappy then please just move on (not you MrCrispy, just speaking generally hehe). While I can understand the reasoning behind the dissatisfaction, but to be honest, none of the naysayers have given Lime Tech a chance to prove themselves with this change. Sure we can talk about what "other" companies have done in the past, but in all honesty I don't care about "other" companies, all I care about is what Lime Tech does. Just because others have done terrible things, that doesn't mean every company will. It's ok to be skeptical, but you can be open minded as well. Give them a chance, don't just wish for them to shutdown and close up shop. I mean they've already listened and are offering a solution to those who want security updates/fixes for a period of time after the fact. Furthermore they've also upped the starter from 4 to 6 devices, so they are listening....yet people are still unhappy. Which leads me to believe there will be a group of entitled individuals who will never be happy no matter what they do.
    8 points
  3. As previously announced, Unraid OS licensing and upgrade pricing is changing. As we finish testing and dialing in our new website and infrastructure, we aim to launch on Wednesday, March 27th, 2024. What this Means You have until March 27th, 2024, to purchase our current Basic, Plus, and Pro licenses or to upgrade your license at the current prices. New License Types, Pricing, and Policies We are introducing three new license types: Starter $49 - Supports up to 6 attached storage devices. Unleashed $109 - Supports an unlimited number of devices. Annual Extension Fee for Starter and Unleashed: $36 Lifetime $249 - Unlimited devices. No extension fee. Starter and Unleashed licenses include one year of software updates with purchase. After one year, customers can pay an optional extension fee to make them eligible for an additional year of updates. If you choose not to extend your license, no problem. You still own the license and have full access to the OS. If your license extension lapses (as in, you do not pay your annual fee), you can download patch releases within the same minor OS version that was available to you at the time of the lapse. Please review our FAQ section below for more on this security update policy. Basic, Plus, and Pro Keys Will Become 'Legacy Keys' These changes do not apply to current Basic, Plus, or Pro license holders. As promised, you can still access all updates for life and upgrade your Basic or Plus license. Once Starter, Unleashed, and Lifetime are available, Legacy licenses will no longer be sold. Legacy License Upgrade Pricing Changes Along with the new license types, we are increasing our Upgrade pricing for all legacy keys. Legacy key holders will also be able to move into the new system if they choose. The pricing will be as follows: Basic to Plus: $59 Basic to Pro: $99 Basic to Unleashed: $49 Plus to Pro: $69 Plus to Unleashed: $19 FAQs Please refer to our blog for a full list of FAQs
    7 points
  4. Es gibt ein Problem mit 6.12.9 unter ganz bestimmten Umständen. Wer diese Konfiguration betreibt sollte 6.12.9 noch nicht installieren. Es geht um CIFS/SMB Remote Mounts die mit Unassigned Devices in Unraid angelegt werden (/mnt/remotes/xxx). Das heißt Unraid ist der Klient einer CIFS/SMB Verbindung. Die Funktion von Unraid als Server einer CIFS/SMB Verbindung ist nach derzeitigem Erkenntnisstand davon nicht betroffen. Es gibt zwei aktuelle Bug Reports, einer ist von mir: Weiterhin gibt es von @dlandon einen Hinweis wohin das Problem zeigt (Kernel/SAMBA): Erkennen könnt Ihr das Problem eindeutig an den CIFS VFS Fehlern in der syslog. Wenn diese auftauchen, dann seht Ihr oder Eure Software nur einen Teil der existierenden Ordner oder Dateien. Das kann erhebliche Probleme nach sich ziehen. Wer 6.12.9 über 6.12.8 bereits installiert hat, und diese Konfiguration betreibt bzw. den Fehler bekommt --> ein Downgrade auf 6.12.8 ist jederzeit problemlos möglich:
    5 points
  5. To be honest, based on the level of self entitlement shown by many posters regarding the licence changes, I don't know why Lime Tech should even bother trying to make you happy. From my perspective, Lime Tech have bent over backwards in an attempt to be fair and reasonable to existing and new licence holders. Do people think that software development is free? The entire world is in the midst of massive inflation, the cost of developing and maintaining software is not immune to this. Compared to the cost of hardware, the increases to licence costs are tiny. Some people need to grow up and get with the real world.
    5 points
  6. I must say that the new update box, getting the updates notes and known issues before updating (or needing to check them here) is an nice touch!
    4 points
  7. Ich hätte als Threadersteller die Lösung dem Problemlöser (ich777) zugesprochen anstatt sich selbst. Gibt ja auch ein Ranking hier im Forum.
    4 points
  8. I think it is just due to the nature of Unraid development and philosophy. Limetech historically has taken a very long time to develop and test new releases (even minor ones). There are a lot of variables in a product such as Unraid which tries to run on as many hardware platforms as possible. They also thoroughly test to make sure no data loss will result from a new version of the software. It all takes time. The product also seems to be driven a lot by user requests/needs and priorities can change. I think they would rather just "go with the flow" than publish roadmaps that may change a lot. I do not speak for Limetech. If they did provide roadmaps, we would all likely be complaining about versions/features not making published deadlines. I was a software product manager for 25 years and was in charge of many roadmaps. We rarely ever made the published timelines due to unforeseen engineering roadblocks and trying to control "feature creep." It got to the point that I really has to pad the timelines and then customers complained about excessively-long development cycles. Roadmaps are doubly difficult for small companies with limited resources.
    4 points
  9. 3.21.24 Update: We have a new blog up here that outlines our new pricing, timeline and some new FAQs.
    4 points
  10. We know that Dynamix File Manager is expected to be built-in for the 6.13 release
    3 points
  11. Und es geht wieder los: DataCollector mißt mal wieder Mist 😄 Im Rahmen meiner Messungen des Gigabyte B760M DS3H DDR4 kam des öfteren die Frage nach den Z690 Mainboards auf, weil es diese auch mit 8x SATA gibt. Okay, ein Z690 mit 8x SATA habe ich nicht, deshalb muß nun mein ASUS Prime Z690-P D4-CSM (90MB18P0-M0EAYC) dafür herhalten. Auch hier als Vorbemerkung: ich habe dieses Mainboard NICHT für unraid erworben und deshalb enthält es Komponenten, die den Stromverbrauch wohl etwas erhöhen könnten (wenn man sie nicht abschaltet). Aber da ich es nun einmal hier habe und gerade wach bin nehme ich das mal für eine Messung. Aktuell geht es erst einmal um den Stromverbrauch/C-States des Boards idle/in Minimalbestückung. Hardware und Beschaltung: - ASUS Prime Z690-P D4-CSM (90MB18P0-M0EAYC) (BIOS/UEFI: 2023-12-28 v3010) (BIOS auf Default und dann die unten im Bild 1 erkennbaren Abweichungen eingestellt). Ich habe versucht alles an zusätzlichen Geraffel, welches für unraid eigentlich nicht benötigt wird, zu deaktivieren. Da das Mainboard auf CSM getrimmt ist, hatte ich Probleme den unraid USB Stick (welcher von mir auf UEFI ausgelegt ist) zu starten. Ich wollte ihn aber so wenig wie möglich ändern (ich weiß, daß ich nur das EFI Verzeichnis umbenennen müßte) und das Mainboard hatte ich sowieso mit dem Hintergedanken an Legacy Zusatzkontroller unter Windows ausgewählt und stehe nun einmal d'rauf, daß die Zusatzkontroller schon beim Booten ihren Status auf den Bildschirm anzeigen können. Das hilft bei einer Fehlerdiagnose. Bei UEFI wird das meist unterdrückt. Und nur so nebenbei: Das Mainboard ist sehr pingelig, was Bootsticks angeht. Ich habe fast 1 Stunde gebraucht unraid da überhaupt booten zu können, da viele Optionen, wie da Abschalten von SecureBoot ausgeblendet/gar nicht möglich sind. Und das war auf nur eine einmalige Sache. Danach weigert sich das Board immer wieder den Stick zu booten. Hab sogar das BIOS auf V3205 von März2024 aktualisiert. Ich bekomme den Stick dort nicht erneut gebootet. !! (Man beachte: ich habe aus Stromspargründen im BIOS die CPU und PCH Geschwindigkeit auf PCIE 3.0 reduziert! Somit laufen auch die ggf. später eingesteckten Komponenten (auch NVME SSDs) mit PCIE 3.0) !! - Intel i5-12400 boxed (incl. Intel boxed CPU Kühler) - 2x 16GB DDR4-3200 Mushkin Essentials (MES4U320NF16) - kein SATA - interne Netzwerkkarte (Realtek RTL8125) 1GBLan Link aktiv - PCIe 5.0 x16: leer - PCIe 4.0 x16 (x4): leer - 1. PCIe 3.0 x16 (x4): leer - 2. PCIe 3.0 x16 (x4): leer - PCIe 3.0 x1: leer - M.2 NVME Slot neben CPU: leer - M.2 NVME Slot mitte: leer - M.2 NVME Slot am Boardrand: leer - M.2 Key-E: leer - Leicke ULL 156W Netzteil 12V 13A 5,5 * 2,5mm - Inter-Tech Mini-ITX PSU 160W, Wandlerplatine (88882188) 12V Input - USB Bootstick: Transcend Jetflash 600 32GB - USB 2.0 Y-Steckadapter Delock 41824: USB_SanDisk_3.2 Gen1 32GB als einzige Disk im Array (weil sich unraid sowieso ja nur mit Array vollständig nutzen läßt). Array mit Autostart, damit es immer gleich ist und ich nach einem Reboot für die Tests nicht erst ins WebGUI zum Starten gehen muß. Unraid hat alle Systemshares automatisch auf die USB Stick gelegt (weil ich ja keinen Pool/Cache-SSD eingebunden habe) und damit den USB Stick schon mit 28GB von den vorhandenen nominal 32GB belegt. Software: unraid 6.12.4 stable (weil ich keine Lust habe mich nur für diese Tests mit manuellen ASPM Einstellungen rumzuschlagen. Ich weiss da immer noch nicht so ganz, was ich da wirklich tue und will nicht durch Hardwareveränderungen wieder die passenden 'setpci' parameter rausfummeln.) Community App nerdtools + powertop-2.15-x86_64-1.txz Dynamix Cache Dirs Dynamix File Manager Dynamix System Temperature Unassigned Devices Unassigned Devices Plus Unassigned Devices Preclear im Go File: powertop --auto-tune alle tunables stehen auf "Good" WebGUI und Terminal geschlossen, idle, der Bildschirmschoner hat den angeschlossenen HDMI Ausgang schwarz geschaltet (das spart hier noch mal rund 1W, deshalb warte ich mindestens diesen 'Bildschirmschoner' ab). Messungen wieder mit AVM DECT200 Funksteckdose. Messung 1: nur die nackte (oben genannte) Konfiguration - knapp unter 10W (Siehe Bild 3) und die C-States gehen auch weitgehend auf bis zu 10 runter. Und auch hier wieder der Hinweis: diese nackte Messung dient nur der Vergleichbarkeit. Sobald da irgendein PCIe Device reingesteckt wird oder ein SATA Device mit seiner Firmware auf den SATA Kontroller einhämmert (also ein brauchbarer PC zusammengebaut wird) können diese Werte hoch gehen! Bild 1: BIOS Änderungen gegenüber "Optimized": Bild 2: Bootscreen Bild 3: Messungen ile und nackt:
    3 points
  12. I don't think Unraid is widely used in the commercial space. From it's inception, it has been designed and built to target the home market. Unraid first and foremost is a NAS. Business/enterprise customers looking for a NAS want very fast, robust, tried and true solutions and unfortunately, Unraid doesn't meet that criteria currently. Unraid's default storage scheme is good for ease of expansion, that still provides redundancy, but it's no speed demon. They've added caching to help with writes to the array, but when it comes to reads it's still slow. That being said, by adding ZFS Unraid is closing the gap. Whether or not that's enough to make it an option for businesses, remains to be seen. The other big factor in all of this is that a lot of business/enterprise customer's typically want support contracts and to be honest, I don't know if Lime Tech really wants to go down that path atm. Maybe if they grow enough to support it, but business/enterprise customers are different animals entirely compared to home users. The needs, wants and expectations from businesses are very different than home users. So I'd say for now, Unraid will still remain largely a solution targeted at home users, but who knows, that could change down the road. Yes and no, As I've said in my post above, I do understand the frustrations and skepticism, however, Lime Tech did in fact take some of that feedback and implemented some changes before the actual licensing terms changed (ie: increasing starter from 4 to 6 devices, and offering support updates to those who do not wish to renew the update licensing each year). Yet there wasn't even an acknowledgement of any kind from some of these people to at least say "ok Lime Tech is taking feedback into consideration and trying to alleviate customer concerns." I fully understand and I do not blame them one bit if they still feel skeptical and unsure, but to constantly be overly negative no matter what Lime Tech does to help alleviate concerns is just complaining plain and simple. Edited to make points a little clearer.
    3 points
  13. This is not without precedent. When fiber optic Internet came to my neighborhood 20+ years ago, we were all promised free installation ($2700 actual cost) and speed increases as they became available with just a monthly ISP payment. I was among the first to sign up. For 15 years they kept their promise. About 7 years ago we "legacy" users were told that our speed would be capped at 100 Mbps. If we wanted more, we had to renounce our legacy status and pay $30 a month to the fiber optic provider (a consortium formed by 15 cities) + the ISP fee or pay $2700 for the "installation" and skip the $30 a month fee. I have no crystal ball and have no idea what will happen in the future with legacy Unraid licences, but, given their transparancy up to this point, I don't think they will start penalizing legacy users unless they pay up.
    3 points
  14. NOTE: As of posting this the Unraid CA library may not have picked up my edits yet, it's usually pretty quick though. I have updated the ':latest' tag option in the Unraid CA template. Select the ':latest' option on a fresh install of RomM to get the new variable and repo. Check the 'Repository' is pre-set to "rommapp/romm:latest" If the template is correct the 'UMASK' will be in the "Show more settings..." section and pre-set to "000" Thank you to @Cryptic3258 & @ktfcaptain for posting up the changes here (above). 🏆 Please report back with any issues / results for me to keep the template up-to-date. 💪
    3 points
  15. +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+- |.|.|.|.|.|.|o|o|o|o|o|o|O|O|O|O|O|O|0|0|0|0|0|0|0|0|0|0|O|O|O|O|O|O|o|o|o|o|o|o||.|.|.|.|.|.| +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+- ██████╗░███████╗██████╗░░█████╗░██████╗░███╗░░██╗ ██╔══██╗██╔════╝██╔══██╗██╔══██╗██╔══██╗████╗░██║ ██████╔╝█████╗░░██████╦╝██║░░██║██████╔╝██╔██╗██║ ██╔══██╗██╔══╝░░██╔══██╗██║░░██║██╔══██╗██║╚████║ ██║░░██║███████╗██████╦╝╚█████╔╝██║░░██║██║░╚███║ ╚═╝░░╚═╝╚══════╝╚═════╝░░╚════╝░╚═╝░░╚═╝╚═╝░░╚══╝ ░█████╗░██████╗░███████╗░██╗░░░░░░░██╗ ██╔══██╗██╔══██╗██╔════╝░██║░░██╗░░██║ ██║░░╚═╝██████╔╝█████╗░░░╚██╗████╗██╔╝ ██║░░██╗██╔══██╗██╔══╝░░░░████╔═████║░ ╚█████╔╝██║░░██║███████╗░░╚██╔╝░╚██╔╝░ ░╚════╝░╚═╝░░╚═╝╚══════╝░░░╚═╝░░░╚═╝░░ +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+- |.|.|.|.|.|.|o|o|o|o|o|o|O|O|O|O|O|O|0|0|0|0|0|0|0|0|0|0|O|O|O|O|O|O|o|o|o|o|o|o||.|.|.|.|.|.| +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+- 🅟🅡🅞🅤🅓🅛🅨 🅟🅡🅔🅢🅔🅝🅣🅢 Docker tag: 8.1.113-unraid NEW: Current recommended Home User tag: 11notes/unifi:8.1.113-unraid NEW: Current Company/Corporate recommended tag: 11notes/unifi:8.1.113-unraid Current Critical Infrastructure (no downtime) tag: 11notes/unifi:7.5.187-unraid
    3 points
  16. I think the value proposition of Unraid is not being communicated to users and is getting lost. Unraid is primarily about the array - i.e. shfs using software real time parity, mix/match disk sizes, and NOT striping data. TrueNas or any of the custom NAS OS's don't do this. THIS is what keeps your data safe and allows you to grow. You can use mergerfs to combine disks. But the only alternative for parity is snapraid and its not real time. Everything else - vm's, dockers, community apps. all of that came much later, all of it its just a wrapper around open source projects you can use on any other distro or custom OS, with maybe a little bit more work. No one else has the data safefy. Not if you want to avoid striping and keep data in native format.
    3 points
  17. Seems fair to me. I likely will never have a need to change my current two pro and one plus licenses, but, at least I know what the path is should I choose to go that way. Legacy users are protected and security updates within minor release will be available even to those with lapsed support. I think this addresses most concerns and everyone has enough information to decide where they go with Unraid. Change is often difficult, but, I feel this has been handled well and with more transparency than is often the case in these situations.
    3 points
  18. No one has any right to be mad. They have a choice to be mad, but that choice is imperative upon how they choose to do so. The online outrage over this is simply ridiculous.
    3 points
  19. Steht im Thread. Lesen. Nicht alles x-mal fragen. Aber weil ich heute gute Laune habe geb ich Dir einen Spezialtip. Steht unter anderem auch auf exakt Seite 12 dieses Threads, sprich dieser Seite!!! PS: Ja das soll böse klingen. Es ist nicht akzeptabel alle Infos hier in dem Thread 10 mal zu wiederholen weil einige nicht gewillt sind zu lesen. Dadurch wird der Thread maximal unübersichtlich.
    2 points
  20. I've put some time into troubleshooting UD to see if there is something in the way UD is mounting remote shares. There doesn't seem to be anything that UD does or can do to cause this problem. I'm not one to play the blame game, but as we get into this I believe we are going to find it's related to a change in Samba or a Kernel change causing this. In our beta testing for one of the recent releases, we found an issue with CIFS mounts where 'df' would not report size, used, and free space on a CIFS mount point. When UD sees a CIFS mount with zero space, it disables the mount so UI browsing and other operations could not be performed. UD assumes there is a problem with the mount. It ended up being related to a 'stat' change in the Kernel failing on the CIFS mount. As has been said, this is related to remote mounts through UD. It does not affect the NAS file sharing functionality through SMB. I understand that this is an important functionality for many users and for the moment, downgrading to 6.12.8 is the answer. We will release a new version of Unraid as soon as we have an answer.
    2 points
  21. Issue is resolved for me with the fix in 6.12.9: root@Tower:~# grep -c ^processor /proc/cpuinfo 128 Thanks everyone
    2 points
  22. I have updated two computers from 6.12.8 to 6.12.9 without problems everything works great 👌
    2 points
  23. Updated from 6.12.8 --> 6.12.9 no issues. Thank you so much for your hard work, I sincerely appreciate all of you!
    2 points
  24. ^Blog post with bug fixes and improvements^
    2 points
  25. Here's what's to come in the near term^^^ Thank you for eloquently explaining this. With the new licenses, we will be forced to be more closely aligned to our users feature requests and desires.
    2 points
  26. Alle usb Ports durchtesten. Wenn das nicht hilft zusätzlichen PCI-USB-Controller versuchen.
    2 points
  27. you should of left it to complete, if you shutdown the container part way through then you will bugger up your database. if you now do have a corrupt database (likely if you did the above) then follow Q4 and Q5:- https://github.com/binhex/documentation/blob/master/docker/faq/plex.md
    2 points
  28. Nein. Das Array ist die Grundlage für Unraid.
    2 points
  29. Ich kann einfach meine Klappe nicht halten 😁 Wenn ich mir wirklich mehr Zeit nehmen würde, wären weniger Tippfehler drin. Die passieren mir überwiegend, wenn ich auf die Schnelle antworte.
    2 points
  30. I likely would have felt the same way at first glance if the new pricing was the pricing in 2011 when I bought my first Unraid license. I have faithfully avoided and abandoned all software that has gone to a subscription model over the years; however, what Limetech is moving to is not subscription pricing, it is an annual maintenance fee. If you don't pay the fee, your software still works, your data is still intact, etc. Subscriptions do not work this way. You don't pay and your software quits working. After looking at other options, I very probably would have come back to Unraid for my NAS if the new pricing had always been the way it is moving to and "gambled" yearly on whether or not to pay the fee while I saw where Unraid was headed. It is still a great bargain for what it provides. I have followed this pattern with software that offers a perpetual license for a particular version but comes out every year with a "new and improved" version for which I have to pay an upgrade fee. I will often skip a couple of years and run older software until something new comes along that compels me to upgrade. It will be interesting to see how this plays out for Limetech but I understand and support what they have done with pricing. I am just grateful now to be grandfathered in with my three perpetual licenses. After March 27, that option will not exist for new users.
    2 points
  31. Thank you!! I thought I messed up permissions all morning. Also need to replace Repository: with "rommapp/romm:latest" if it's not obvious to others(like me at first).
    2 points
  32. Aber das wird einen großen Teil deinens Stromverbauchs ausmachen, überleg dir lieber das auf Docker um zu ziehen.
    2 points
  33. It is what it is. I think the same and the future doesn't seem bright. I can understand that they want to live from the software, but let's be real it's a side job. I'm probably sure they could be more profitable going open source, setting up a donation button and bundle the software with some premade hardware. Time will tell, but I hope they'll give us a way to retain the paid software if they fail (like register a new usb key because the one you had just died). If they succeed, I'll apologize for being an unbeliever. Mark my word.
    2 points
  34. für den Notfall, manchmal "meckert" der neue Server bzgl. der BIOS Kennung ... daher, 1/ screenshot machen der VM Konfiguration 2/ vdisk kopieren von a nach b 3/ falls copy paste nicht will ... neue VM erstellen 4/ settings aus den screens übernehmen, bis auf die vdisk ... da "manual" nehmen und auf die vdisk verweisen feritg ... Alternativ, 1/ neue VM erstellen, settings egal 2/ die ovmf Kennung kopieren in die vorhandene xml (2x) 3/ kpl. die xml dann copy / paste in die "neue" VM (eigentlich die alte nur mit angepasster BIOS ID) 4/ vdisk Pfad prüfen ... ggf. anpassen fertig ... das nur falls copy / paste nicht starten sollte
    2 points
  35. Fixed it, it's always the simplest things. I had a trailing / at the end of the home server URL in the compose file. Removed that and it starts fine.
    2 points
  36. Am besten VM ausschalten -> Im Ordner Domains den VM Ordner der Vm die du verschieben möchtest auf die andere Maschine kopieren (ich gehe davon aus, dass du eine Virtuelle Festplatte erstellt hast) -> in deine VM einstellungen gehen (alte maschine) -> auf erweiterete Ansicht gehen -> den gesamten Text kopieren -> auf der neuen Maschine eine neue VM erstellen -> auf erweitert umschalten -> den eben kopierten Text dort einfügen -> von Erweitert wieder auf Basis umschalten -> Pfade prüfen deiner virtuellen Festplatte -> Speichern -> VM starten Wenn du eine Festplatte durchgeschliffen hast und dort dein OS für die VM gelagert hast, wird es bisl schwieriger.
    2 points
  37. But for how much longer??? Remember that Macrium used to allow their backup software (Reflect) for free and now they have subscription/major-version plan. Their business plan was similiar to what Truenas has been using. MS may be giving their software updates away but only until your current hardware dies or is obsolete. (Remember that WIN11 only will install on newer hardware...) Plus, what about the fees for MS Office and, now, Copilot. Even the lifetime version of MS Office will lose support, updates and support after a few short years. Plus, I know they are putting Adverts in a side bar on many of their 'free' games. When will they start putting them in Office??? The handwriting is on the wall. The day that the 'home' user gets quality software for free or one time purchase is disappearing. This is not like a book. You simply take it home and use it until it falls apart. I can remember back when TV had very little advertising on it (~1948). Then came advertising between programs. (on the half-hour or hour depending on program length.) Then one ad in the middle from the single sponsor of that program. It continued to evolve until they stop play in sport events for commercials! Most of the complainants are demanding lifetime warranty and support when they make their one time purchase. Those days are now behind us. The glory days where the 'computing' market was growing at what seemed an exponential rate are gone. We are now moving into the mature market phase and those companies who are going to survive this transition are going to have to adapt. (The 'cash' cow phase probably lies ahead...)
    2 points
  38. Manually extract the archive to a temp location and grab the file you want.
    2 points
  39. Yes the docker needs to use the host based drivers. As soon as you bind to vfio the host cannot no longer use the card and hence the docker does see the card. You either need to have two cards or gpus that support splitting up(GVT/sr-vio), but this would not support output to a screen for the VM. Just would provide gpu accelaration.
    2 points
  40. @KluthR I just wanted to say thank you very much for picking up this plugin.. I just had to restore a container for the first time and it worked perfectly and solved my problem.
    2 points
  41. Limetech have stated that all users who have one of the current Basic/Plus/Pro licences will be entitled to all future upgrades at no additional cost. Covered in some detail in their blog on the subject.
    2 points
  42. Wer es noch nicht mitbekommen hat. Am 27.03.2024 startet das neue Unraid Lizenzmodell. Wer also noch in den Genuß von lebenslang gültigen Basic und Plus Lizenzen kommen will, der sollte nun zuschlagen (Neukauf bzw. Upgrade). Das selbe gilt auch für die lebenslang gültige Pro Lizenz. Der Preis der Pro Lizenz (heißt dann Lifetime) wird fast doppelt so teuer. FAQs findet Ihr in diesem Beitrag: https://forums.unraid.net/topic/158737-new-unraid-os-license-pricing-timeline-and-faqs/
    2 points
  43. Correct Sent from my 22021211RG using Tapatalk
    2 points
  44. Price is different. Accounting, analytics, a firm delineation of past and future to name a few.
    2 points
  45. Wilkommen im Kurs: DataCollector nimmt sich wieder zu ernst und meint etwas helfen zu können. 😅 Und mal wieder ein Thema, das in der letzten Zeit ab und zu auftauchte. Bevor nun jede gute Seele das immer wieder von vorne schreibt, dachte ich mir, daß ich das mal zusammenkritzele. Stand: 12.03.2024 und betrifft die vermutlich alle unraidversionen. Aber in Wirklichkeit kenne ich nur unraid ab 6.9.x bis aktuell 6.12.x und da trifft es zu. Da man die unraid GUI Oberfläche auch durch andere Sprachpakete anpassen und man auch die Farben manuell verändern kann, beziehe ich mich hier auf die default englischsprachige GUI Oberfläche (egal ob gebootete GUI direkt am PC oder WebGUI). Definition: Dies hier hängt zusammen mit klassischen Festplatten mit in sich drehenden Plattern und beweglichen Köpfen, da dies dort am wichtigsten ist und die größte Stromersparnis im idle Zustand bewirken kann. SSDs lassen sich auch damit steuern, aber es hängt stark von der Firmware der SSD ab, ob diese das auch wirklich mitmachen oder einfach ignorieren. Übliche SSDs sind aber von Natur aus (fast) alle auf Stromsparen in idle getrimmt, weshalb sich das dort kaum auf den Strombedarf auswirkt (und eben deshalb vielleicht ignoriert wird?). Ausnahme sind überwiegend Enterprise-SSDs. Die haben gelegentlich nicht die selben Stromsparmechanismen und halten des öfteren einen PC sowieso unnötig 'wacher' als erforderlich. Zuerst: Man kann in unraid einstellen, wann (sich langweilende) Festplatten die Platter stoppen. Dies nennt sich 'spin down' und ist wohl die sparsamste Betriebsart einer Festplatte, wenn man mal von 'PC Abschalten' absieht. 🔌 Natürlich dauern dann erneute Zugriffe auf die Festplatte einige Sekunden, weil eben die Platter wieder die richtige Rotationsgeschwindigkeit erreichen müssen, damit die Festplattenköpfe ihre korrekte Flughöhe einnehmen und dann loslegen können. Pauschal wird pro Festplatte von rund 30 Sekunden Aufwachzeit geschrieben, wobei das in Wirklichkeit von Modell zu Modell leicht abweichen kann. Zu finden ist diese Einstelloption einmal zentral für alle Datenträger unter: Settings / Disk Settings / "Default spin down delay" Man kann aber auch für einzelne Datenträger dies individuell anders einstellen indem man beispielsweise unter: Main / Disk<Nr> / "Spin down delay" für diese gezielte Festplatte <Nr> extra konfiguriert. Wenn man es will kann man Datenträger auch manuell sofort anstoßen sich schlafen zu legen oder aufzuwachen indem man auf den kleinen Kreis links des Datenträgers klickt. Ist der Kreis grau schläft die Festplatte. Ist der Kreis grün dreht die Festplatte. So, num zum eigentlichen Thema: Warum schläft meine Festplatte nicht? SAS: Ein Punkt ist mir recht früh aufgefallen: Sollte man SAS Festplatten verwenden gibt es so einige Kontroller-Festplattenkombinationen, die das einfach ignorieren. Es gibt ein extra Plugin (SAS Spindown), welches dann doch einige SAS Festplatten dazu überreden kann, aber auch das wirkt nicht bei allen SAS Geräten. SATA: Hier kenne ich keine Einschränkungen, weshalb ich sage, daß sich direkt angeschlossene SATA Festplatten eigentlich immer in den "spin down" bringen lassen. Warum klappt das also nicht? In allen Beiträgen, die ich bisher las, lag es daran, daß auf den Festplatten noch Reste von oft angesprochenen Shares (Verzeichnissen) vorhanden sind und Zugriffe darauf eben die Festplatte entweder sofort wieder aufweckten oder gar dem Befehl zum "Spin down" so schnell wiedrsprachen, daß die Festplatte einfach weiter läuft. Nun ist man aber vielleicht der festen Überzeugung, daß man doch alles getan habe um die Shares auf einem Pool/Cache/SSD auszulagern und dennoch die Festplatten weiter drehen. Tja, es hat sich eigentlich immer gezeigt, daß da etwas übersehen wurde. Sofern ein Array mit Parity betroffen ist, kann das Verhalten der Paritydisk(s) Aufschluß über die Art der Zugriffe bieten. Wenn die Parity schläft, aber eine oder mehrere Datenfestplatten nicht einschlafen sind es lesende Zugriffe. Wenn die Parity auch aufwacht/wach bleibt sind es schreibende Zugriffe. Zu beachten: unraid hat 4 wichtige shares, ich nenne sie systemshares: appdata - hier finden sich Teile von Docker domains - hier befinden sich Virtuelle Disks von VM isos - hier werden ISO Dateien abgelegt (selten im Zugriff) system - hier finden sich auch Teile von Docker und libvirt Hier greift unraid drauf zu, wenn die Docker und VM Dienste benutzt werden. Um zu prüfen ob die wirklich alle richtig lokalisiert sind sollte man in der GUI unter shares / 'compute all' anklicken. Nach kurzer Recherche sieht man dann auf welchen Datenträgern sich diese Shares verteilen. (Links ist der Datenträger unter dem jeweiligen Share zu sehen und rechts, wieviel Platz das Share dort belegt.) Wenn die Festplatten schlafen sollen, ist es sehr zu empfehlen alle diese 4 Systemshares auf einen Pool/Cache/SSD zu verlagern. Selbst ein absolut leeres Share auf einer Festplatte kann dafür sorgen, dass das "Fuse" Dateisystem dennoch ab und zu dort nachsieht, ob da nicht doch zwischenzeitlich was drin ist und deshalb springt die Festplatte immer wieder an. Nachdem man dafür gesorgt hat, die Systemshares von den Disks weg auf den Pool/Cache/SSD zu verlagern, sollten die Festplatten sich dann auch wirklich schlafen legen können, selbst wenn Docker und VM laufen. Nebenbemerkung: Natürlich ist es dann ungeschickt, wenn man dennoch in einer VM oder Docker einen direkten Pfad angibt der dann beispielsweise downloads doch auf die Festplatte schreibt. Denn dann halten nicht die systemshares die Festplatte drehend, sondern das was man da manuell eingestellt hat und gerade durch die VM/Docker angesprochen wird. Falls man sich nicht mehr dran erinnert, was da schreiben könnte kann man beispielsweise mit dem Plugin "File Activity" sich eine Liste der Zugriffe auflisten lassen. Anhand der dort gelisteten und betroffenen Dateien sind dann Rückschlüsse möglich. USB: Warnung: Igitt! USB Festplatten/SSD sind im unraid Array nicht wirklich empfohlen und immer wieder ein Quell der Probleme (vielleicht nicht zu Anfang aber dann doch des öfteren später). Es gibt Berichte, bei denen USB Datenträger seit Jahren problemlos im Array funktionieren, aber seid gewarnt: wenn etwas schief geht, habt Ihr es gewusst und Euch gezielt dafür entschieden. In diversen Fällen ist dann Hilfe kaum möglich. Zum Thema: bei USB Festplatten hängt es stark von der Firmware in der USB-SATA Wandlerplatine ab, ob sie die daran verbaute Festplatte von einem PC dahingehend steuern läßt oder nicht. Bei vielen moderneren externen Gehäusen klappt es, auch externe Markenfestplatten machen das meist mit, aber wenn nicht: Pech gehabt. Mißverständnis S.M.A.R.T.: Gerne ist ungefär sowas zu lesen: "Meine Festplatte wird durch Abfrage der SMART-Attribute aufgeweckt, das habe ich im Syslog auch gesehen". Seid versichert, das ist nicht so. Es ist genau anders herum. Wenn eine Festplatte aufwacht, versucht unraid zu aller erst diese SMART-Attribute abzufragen. Und genau deshalb sieht es im Syslog so aus, als wenn diese SMART Operation für den "Spin up" verantwortlich sei. Irgendetwas anderes hat die Festplatte aufgeweckt und dann hat unraid sofort gelesen. Wenn man nicht weiß was es war: auch hier könnte das Plugin "File Activity" helfen die Dateien herauszufinden und daraus zurück zu schließen, wer oder was der Verursacher ist. So, mehr fällt mir jetzt nicht ein. Have a nice day with unraid!
    2 points
  46. I had to chime in, this hit a nerve. I agree with 1812, they want everything for free. Even downloading movies. They will spend the money for hardware but software they want for free or next to nothing. Take a look at the users that rant the most. They are fairly new members. I doubt they have experienced a hard disk failure. This is where Unraid shines. If they complain about pricing, I doubt they use parity drive(s). I say let them leave and go to an alternative. I chose Unraid 14 years ago. Back then the biggest concern was LT’s risk management since Tom was a one man show. I wanted a system to be expandable, I wanted to use my various sized hard disks. I wanted the disk to spin down and I liked the idea that you could still access a disk by itself. It had to be an unconventional server, Unraid fit the bill. I went with the pro license at that time since it was the only one that covered my hard disk count. I just checked my email invoice from “Tom” and it was on sale for $109 ($10 discount) at that time. I spent more for a UPS. Soon I was maxed out and bought two 1TB drives, then larger drives and survived through the 2TB limit! I have experienced the introduction of Joe L.’s creations; cache_dirs, unMENU and preclear. We endured a number of LT re-locations. Unraid has come along way. Thanks Tom! Sorry, I haven’t been active on this forum lately, I been busy doing other things and frankly, Unraid just works. I have recovered through a number of hard disk failures, parity swaps, array up sizing and array down sizing. All painlessly. BTW, I still have the original flash drive. I didn’t cheap out on that. I’ve recommended and help setup Unraid using the Pro license to lots of people and not one complained about the cost. When my kids finally move out, we will happily pay for the “Lifetime” license no matter what the cost.
    2 points
  47. There are many unexplained stories about Realtek cards and ASPM ... so I made a little investigation: The kernel in-tree r8169 driver is a generic driver for all Realtek network cards, despite its name. It contains lots of workaround for different Realtek chipset. It also has a very strict condition for using ASPM (this condition was removed for a few weeks last year then reverted back...). It enables ASPM only for RTL8125A and RTL8125B chipset and only if a bit in a register is set in the chip by the system vendor, which signals to the driver that vendor successfully tested ASPM 1.2 on this configuration. (Probably not many motherboard vendor bothers to do this ...). If this condition not met it tries to disable ASPM, if it is denied by BIOS then it uses ASPM whatever the chipset is ... This behaviour cannot be overridden. That basically means low chance for having ASPM with the in-tree driver. I also checked the r8125 driver (from Realtek) used by this plugin. It contains CONFIG_ASPM = n in the Makefile but this just sets the default value of ASPM, it is not a real compile time option. After installing this plugin you can easily enable ASMP if you create a file r8125.conf in /boot/config/modprobe.d with the following line: options r8125 aspm=1 It enables ASPM the correct way. With this my server reaches C10 package state... @jinlife please try to enable firmware load support with ENABLE_USE_FIRMWARE_FILE = y. The firmware files are already in /lib/firmware/rtl_nic/ as the in-tree driver uses them. Probably most of these cards are shipped with outdated firmware, so enabling this option would help. Correction: The r8125 source code contains the firmware file in binary form. No need to enable ENABLE_USE_FIRMWARE_FILE. The speed issues can be caused by EEE (Energy Efficient Ethernet) which is enabled by default by this driver. You can check the status with ethtool --show-eee eth0 Or disable it with an extra line in r8125.conf options r8125 eee=0
    2 points
  48. Settings, display settings - color codes in hex
    2 points
  49. Aha, Ill have another look tomorrow or so
    1 point
  50. rclone挂载网盘到本地(Alist篇) alist 最近折腾unraid存储服务器,对于云盘有很多的APP特别麻烦,所以想把所有不同的网盘都放在一起进行管理,先是用了CloudDrive2感觉很不错,图形界面设置很简单,小白都会。我也喜欢,但免费版只能挂两个云盘,一个本地。着实有点失望,开终身会员499.论价格只是unraid一半,但对免费用户来说 ,有点小贵。直到听说alist的大名,rclone是全系列的产品。苹果,Windows,linux等系统全支持。以前还没有用过,这次就来试试。如遇到问题可以去官方网站研究。 本次我们跳过所有官方方法安装,在unraid安装插件来实现本地挂载云盘。 安装 1.打开unRaid,到应用 2.搜索“rclone” 3.最新版会有两个rclone,一个docker版,一个插件版。 4.我们下载插件版。 5.如果无法安装。先下载一个docker版的v2rayA。架梯子安装。我用正版unRaid没有任何系统设置,把梯子架好后,添加节点。选择美丽的节点。运行梯子。就能正常下载rclone,不像网上说的那样要在系统go文件,或是在etc网络文件中添加设置才能用 。 5.安装完成后,选择插件,看看rclone有没有在插件中。如果有。 6.点右上角的“终端”打开 7.下面我们将开始配置rclone。 配置rclone rclone config # 进入rclone设置 1. No remotes found, make a new one? n) New remote # 创建新配置 s) Set configuration password # 为配置设置密码 q) Quit config # 退出配置 n/s/q> n enter。 #这里选择n 2. Enter name for new remote. name> 189Cloud enter。 # 设置名字(网络教程都是用remote为配置名)。 3. Option Storage. Type of storage to configure. Choose a number from below, or type in your own value. 前面省略50种连接……. 51 / Uptobox \ (uptobox) 52 / WebDAV \ (webdav) 53 / Yandex Disk \ (yandex) 54 / Zoho \ (zoho) 55 / premiumize.me \ (premiumizeme) 56 / seafile \ (seafile) Storage>52 enter。 #输入你做连接的服务器序号,这儿我们用webdav做连接,所以选择52 4. Option url. URL of http host to connect to. E.g. https://example.com. Enter a value. url> http://192.168.xxx.xxx:5244/dav/天翼云盘 enter # 设置远程地址url: http://your_alist_ip:port/dav/网盘名 #这里在alist的地址和端口后加/dav,是alist官方端口挂载要求的 5. # 这里选7就可以了,1-6都不是我们使用的 Name of the WebDAV site/service/software you are using Choose a number from below, or type in your own value Option vendor. Name of the WebDAV site/service/software you are using. Choose a number from below, or type in your own value. Press Enter to leave empty. 1 / Fastmail Files \ (fastmail) 2 / Nextcloud \ (nextcloud) 3 / Owncloud \ (owncloud) 4 / Sharepoint Online, authenticated by Microsoft account \ (sharepoint) 5 / Sharepoint with NTLM authentication, usually self-hosted or on-premises \ (sharepoint-ntlm) 6 / rclone WebDAV server to serve a remote over HTTP via the WebDAV protocol \ (rclone) 7 / Other site/service or software \ (other) vendor>7 enter。 #因为我们选择的是webdav方法挂载云盘。这里选择其它方式连接到服务器就可以了 6. Option user. User name. In case NTLM authentication is used, the username should be in the format 'Domain\User'. Enter a value. Press Enter to leave empty. user> admin #这里是你alist的用户名 7. Option pass. Password. Choose an alternative below. Press Enter for the default (n). y) Yes, type in my own password #是的,输入我自己的密码 g) Generate random password #生成随机密码 n) No, leave this optional password blank (default) # 否,将此可选密码留空(默认) y/g/n>y enter #这里输入y Enter the password: password: #这输入你的密码,密码是看不到的 Confirm the password: password: #再次输入你的密码 enter 8. Option bearer_token. Bearer token instead of user/pass (e.g. a Macaroon). Enter a value. Press Enter to leave empty. bearer_token> enter # 这里是填写密钥的,如果没有可以留空 #直接回车 9. Edit advanced config? y) Yes n) No (default) y/n>n enter #默认配置就可以了 #高级配置或默认配置。 10. Configuration complete. Options: - type: webdav - url: http://192.168.xxx.xxx:5244/dav/天翼云盘 - vendor: other - user: admin - pass: *** ENCRYPTED *** Keep this "189Cloud" remote? y) Yes this is OK (default) #是的,我确认默认配置 e) Edit this remote #编辑配置 d) Delete this remote #删除配置 y/e/d> y enter 确认配置无误后,确认。 11. Current remotes: Name Type ==== ==== 189Cloud webdav alist webdav e) Edit existing remote n) New remote d) Delete remote r) Rename remote c) Copy remote s) Set configuration password q) Quit config e/n/d/r/c/s/q> q # 最后按q退出设置 挂载到本地 1: 查看是否连接成功,使用以下命令可以确认是否已经挂载上了alist和天翼云盘 rclone lsd Onedrive: rclone lsd 189Cloud: # 查看alist的文件目录 #查看天翼云盘的文件目录 2: rclone ls Onedrive: rclone ls 189Cloud: # 查看Onedrive的文件 #查看天翼云盘的文件 如果发生下面的结构,应该检查,你输入的运行脚本是不是正确,查找错误,更正后,就可以看到你的网盘结构了。 # 一、 前台模式挂载到本地 (建议用户使用后台挂载) #1.将Onedrive挂载到本地目录/webdav rclone mount Onedrive:/ /mnt/user/webdav/alist/Onedrive --copy-links --no-gzip-encoding --no-check-certificate --allow- other --allow-non-empty --umask 000 --use-mmap 挂载完成后,发现控制台就卡住了,在官方文档看了半天,发现这是前台命令,会一直运行,ctrl+c之后就会退出本地挂载。 #2. 将天翼挂载到本地目录/webdav (建议用户使用后台挂载) rclone mount 189Cloud:/ /mnt/user/webdav/alist/189Cloud --copy-links --no-gzip-encoding --no-check-certificate --allow-other --allow-non-empty --umask 000 --use-mmap 二、 后台模式挂载到本地 # 1.将Onedrive挂载到本地目录/webdav # --daemon 强制后台模式 rclone mount Onedrive:/ /mnt/user/webdav/alist/Onedrive --copy-links --no-gzip-encoding --no-check-certificate --allow-other --allow-non-empty --umask 000 --use-mmap --daemon 官方文档只是提了以下这个命令,并没有太详细的信息。 # 2.将189Cloud挂载到本地目录/webdav # --daemon 强制后台模式 rclone mount 189Cloud:/ /mnt/user/webdav/alist/天翼云盘 --copy-links --no-gzip-encoding --no-check-certificate --allow-other --allow-non-empty --umask 000 --use-mmap --daemon # 3.将189Cloud挂载到本地目录/webdav # --daemon 强制后台模式 rclone mount baiduCloud:/ /mnt/user/webdav/alist/百度网盘 --copy-links --no-gzip-encoding --no-check-certificate --allow-other --allow-non-empty --umask 000 --use-mmap --daemon 其它的云盘挂都是一样的配置。只是把下面改在成你所用的云盘就行。 Onedrive:/ /mnt/user/webdav/alist/Onedrive 189Cloud:/ /mnt/user/webdav/alist/天翼云盘 baiduCloud:/ /mnt/user/webdav/alist/百度网盘 115:/ /mnt/user/webdav/alist/115 结构简析: Onedrive:/ /mnt/user/webdav/alist/Onedrive Onedrive:/ rclone配置名称(自己创建)。为网盘的名字不特指微软网盘test为要挂载的网盘文件夹路径,不填留为挂载整个网盘 /mnt/user/rclone/onedrive 本地用于挂载的目录 关于其他参数含义,可自行查阅最下方命令说明 如需要给emby之类使用,挂载文件夹不显示文件,请修改--umask 000 在emby终端输入 umask / # umask 0022 / # 将示例中--umask 000修改为--umask 0022emby即可正常访问文件 解除本地挂载 # 解除本地挂载,后面跟的是挂载的本地目录 # 当自动取消挂载失败时,也可以这样手动取消挂载 fusermount -qzu /webdav 开机自动挂载 上面的手动挂载方式,在机器重启后,就失效了,每次都要手动在设置一遍,很麻烦。我们可以使用service文件来进行自动挂载。 一、使用User Scripts插件新建开机任务 在 Unraid 应用中心安装 User Script 插件。安装后打开插件,添加新脚本,此处命名为 automount_rclone 1. 添加新脚本 2. 脚本名称命名为:automount_rclone 3. 保存 4. 编辑脚本 5. 把要挂载的网盘的后台运行脚本全都添加到编辑栏中 6. 如果有两条或更多回车后再添加一条。 7. 保存脚本。 8. 计划任务以“陈列启动时运行” 9. Apply(应用) 10.Done(完成) 设置好之后,就可以开机启动阵列自动挂载了。 二、 修改Service文件新建开机任务,输入示例命令 (本人未测试,但作为保留) 设置service文件 #创建service文件 vim /usr/lib/systemd/system/rclone.service 文件内容: [Unit] Description=rclone [Service] User=root ExecStart=/usr/bin/rclone mount alist: /webdav --copy-links --no-gzip-encoding --no-check-certificate --allow-other --allow-non-empty --umask 000 --use-mmap [Install] WantedBy=multi-user.target 设置开机自启 # reload守护进程 systemctl daemon-reload # 设置service文件自启 systemctl enable rclone.service # 启动service文件 systemctl start rclone.service 总结 相对来说alist配置配置还是比较简单,很快就能通过文档设置好。相对比较麻烦的是rclone,会出现报错情况,只能一点一点排查,如果按照文档走,大概率可以规避掉一些问题。
    1 point