Leaderboard

Popular Content

Showing content with the highest reputation on 03/29/21 in Posts

  1. and because I did my time in purgatory waiting for like 2 months for this while on the previous version that sucked so you guys can try the next one and take one for the team.
    2 points
  2. Je reprends le message d'avertissement de @jonp qui mérite d'être aussi diffusé en français. Vous trouverez le sujet d'origine ici : https://forums.unraid.net/topic/104669-warning-unraid-servers-exposed-to-the-internet-are-being-hacked/ Bonjour à la communauté Unraid ! Ces derniers jours, nous avons constaté une augmentation significative du nombre de serveurs Unraid compromis en raison de pratiques de sécurité insuffisantes. Le but de ce post est d'aider notre communauté à contrôler que leurs serveurs sont sécurisés et de fournir des recommandations utiles sur les bonnes pratiques pour s'assurer que votre système ne devienne pas une autre victime. Nous vous invitons à consulter les recommandations ci-dessous sur votre/vos serveur(s) afin de vous assurer qu'ils sont sécurisés. Choisissez un mot de passe root robuste Comme pour de nombreux routeurs, les systèmes Unraid n'ont pas de mot de passe par défaut. Cela permet de s'assurer que vous pouvez rapidement et facilement accéder à la console de gestion immédiatement après l'installation du système. Cependant, cela ne signifie pas que vous ne devez pas en définir un. C'est très simple. Il suffit de naviguer dans l'onglet Utilisateurs et de cliquer sur root. Définissez ensuite un mot de passe. À partir de là, vous devrez vous authentifier à chaque fois que vous voudrez vous connecter au webGUI. En complément, il existe un plugin disponible dans Community Applications appelé Dynamix Password Validator. Ce plugin fournit des indications sur la robustesse du mot de passe que vous créez en se basant sur des règles de complexité (le nombre de lettres majuscules et minuscules, de chiffres, de symboles et la longueur totale du mot de passe sont utilisés pour en juger). Pensez à l'installer pour obtenir des conseils supplémentaires sur la robustesse des mots de passe. Examinez les mappages de ports sur votre routeur La redirection de ports vers votre serveur est nécessaire pour certains services spécifiques que vous souhaitez rendre accessibles par Internet, tels que Plex, les serveurs FTP, les serveurs de jeux, les serveurs VoIP, etc. Mais la redirection vers de mauvais ports peut exposer votre serveur à un important risque de sécurité. Voici quelques ports auxquels vous devez faire très attention lors de la redirection : Port 80 : Utilisé pour accéder au webGUI sans SSL (sauf si vous avez défini l'accès à un autre port sur la page des paramètres d'accès de gestion). NE PAS rediriger le port 80. La redirection de ce port par défaut vous permettra d'accéder au webGUI à distance, mais sans SSL pour sécuriser la connexion, les équipements entre votre navigateur et le serveur pourraient " sniffer " les paquets pour voir ce que vous faites. Si vous voulez rendre le webGUI accessible à distance, installez le plugin Unraid.net pour activer Mes Serveurs sur votre système, ce qui peut fournir une solution d'accès à distance sécurisée qui utilise le SSL pour assurer que votre connexion est entièrement cryptée. Port 443 : Utilisé pour accéder au webGUI avec SSL. Ce port n'est préférable au port 80 que si vous avez défini un mot de passe root. Si aucun mot de passe root n'est défini et que vous redirigez ce port, des utilisateurs non autorisés peuvent se connecter à votre webGUI et avoir un accès complet à votre serveur. En outre, si vous transférez ce port sans utiliser le plugin Unraid.net et My Servers, les tentatives de connexion au webGUI via un navigateur présenteront un avertissement de sécurité en raison de l'absence d'un certificat SSL. Envisagez de vous faciliter la vie et d'utiliser Unraid.net avec My Servers pour permettre un accès à distance simple, sûr et sécurisé à vos systèmes Unraid. NOTA : Lorsque vous configurez l'accès à distance dans My Servers, nous vous recommandons fortement de choisir un port quelconque au-dessus de 1000 plutôt que d'utiliser le port 443 par défaut. Port 445 : Utilisé pour SMB (partages). Si vous redirigez ce port vers votre serveur, tout partage public peut être connecté à n'importe quel utilisateur sur Internet. D'une manière générale, il n'est jamais conseillé d'exposer les partages SMB directement sur Internet. Si vous avez besoin de pouvoir accéder à vos partages à distance, nous vous suggérons d'utiliser un VPN de type Wireguard pour créer un tunnel sécurisé entre votre appareil et le serveur. En outre, si le disque flash lui-même est exposé à l'aide de SMB et que ce port est redirigé, son contenu peut facilement être supprimé et la clé que vous avez payée peut facilement être dérobée. Évitez tout simplement de le faire. Port 111/2049 : Utilisé pour NFS (partages). Bien que NFS soit désactivé par défaut, si vous utilisez ce protocole, assurez-vous de ne pas rediriger ces ports par votre routeur. Comme pour SMB, il suffit d'utiliser Wireguard pour créer un tunnel sécurisé à partir de tout périphérique distant qui doit se connecter au serveur via NFS. Port 22/23 : Utilisé par Telnet et SSH pour l'accès à la console. C'est particulièrement dangereux pour les utilisateurs qui n'ont pas de mot de passe root. Comme pour SMB, nous ne recommandons pas de rediriger ces ports du tout, mais plutôt de suggérer aux utilisateurs d'utiliser une connexion VPN Wireguard pour se connecter à l'aide de l'un de ces protocoles. Ports de la plage 57xx : Ces ports sont généralement utilisés par les VM pour l'accès VNC. Bien que vous puissiez rediriger ces ports pour permettre l'accès VNC à distance pour vos VM, la meilleure et plus facile façon de le faire est d'installer le plugin Unraid.net et d'activer Mes Serveurs. Cela garantit que ces connexions sont sécurisées via SSL et ne nécessite pas le transfert de ports individuels pour chaque VM. En règle générale, vous ne devriez pas avoir besoin de rediriger beaucoup de ports vers votre serveur. Si vous voyez une règle de transfert que vous ne comprenez pas, essayez de la supprimer, voyez si les utilisateurs se plaignent, et si c'est le cas, vous pouvez toujours la remettre en place. Ne mettez jamais et au grand jamais votre serveur dans la DMZ Même si vous pensez avoir parfaitement sécurisé votre serveur, il n'est jamais recommandé de le placer dans la zone démilitarisée de votre réseau. En faisant cela, vous redirigez chaque port de votre adresse IP publique vers votre serveur et tous les services accessibles localement sont également accessibles à distance. Même si vous pensez avoir sécurisé votre serveur, le placer dans la zone démilitarisée l'expose à des risques inutiles. Ne faites jamais ça. Considérez le réglage des partages comme privés avec des noms d'utilisateurs et des mots de passe. L'accès aux partages sans mot de passe est très pratique. Nous le savons et c'est pourquoi nous ne vous obligeons pas à définir des mots de passe pour vos partages. Cependant, il y a un risque de sécurité pour vos données lorsque vous faites ça, même si vous ne transférez pas de ports vers votre serveur et que vous avez un mot de passe root fort. Si la sécurité d'un autre appareil de votre réseau, tel qu'un PC, un Mac, un téléphone, une tablette, un appareil IoT, etc. était compromise, il pourrait être utilisé pour établir une connexion locale aux partages de votre serveur. Par défaut, les partages sont configurés pour être accessibles en lecture/écriture de façon publique, ce qui signifie que ces appareils malveillants peuvent être utilisés pour dérober, supprimer ou chiffrer les données qu'ils contiennent. En outre, des utilisateurs malveillants pourraient également utiliser cette méthode pour placer sur votre serveur des données que vous ne souhaitiez pas. Pour ces raisons, si vous devez créer des partages publics, nous vous recommandons fortement de définir l'accès en lecture seule. Seuls les utilisateurs autorisés disposant d'un mot de passe fort doivent être en mesure d'écrire des données sur vos partages. Ne partagez pas votre clé USB, et si vous le faites, faites en sorte qu'elle soit sécurisée. La clé USB elle-même peut être exposée via SMB. C'est pratique si vous devez effectuer des modifications complexes sur votre système, comme modifier le fichier go dans le répertoire de configuration. Cependant, le périphérique flash lui-même contient les fichiers nécessaires pour démarrer Unraid ainsi que vos données de configuration (affectations de disque, partages, etc). Exposer ce contenu publiquement peut être extrêmement dangereux, aussi nous vous déconseillons de le faire à moins que ce ne soit absolument indispensable, et lorsque vous le faites, il est conseillé de le faire de manière sécurisée, en demandant un nom d'utilisateur et un mot de passe pour voir et modifier le contenu. Tenez votre serveur à jour Indépendamment des autres mesures que vous prenez, il est essentiel de maintenir votre serveur à jour avec la ou les dernières versions pour garantir sa sécurité. Il y a constamment des notifications de sécurité (CVEs) publiées pour les différents composants utilisés dans Unraid OS. Chez Lime Technology, nous faisons de notre mieux pour nous assurer que toutes les vulnérabilités sont corrigées en temps voulu par des mises à jour logicielles. Toutefois, ces mises à jour ne vous seront d'aucune utilité si vous ne les appliquez pas également en temps voulu. Il est simple de maintenir votre système d'exploitation à jour. Il suffit de naviguer dans Outils > Mise à jour du système d'exploitation pour vérifier la présence de mises à jour et les appliquer. Vous pouvez configurer des notifications pour vous avertir lorsqu'une nouvelle mise à jour est disponible à partir de la page Paramètres > Notifications. Autres recommandations de bonnes pratiques Configurez et utilisez WireGuard, OpenVPN ou nginxProxyManager pour un accès distant sécurisé à vos partages. Pour la configuration de WireGuard, voir ce tutoriel très pratique. Configurez le 2FA sur votre compte Unraid Forum. Configurez un serveur Syslog à distance. Installez le plugin Fix Common Problems. L'installation de ce plugin vous alertera en cas de multiples tentatives de connexion échouées et bien plus encore. Changez le mot de passe de votre modem pour quelque chose d'autre que le mot de passe par défaut. Envisagez d'installer ClamAV. En plus de toutes les recommandations ci-dessus, nous avons demandé à SpaceInvaderOne de préparer une vidéo avec encore plus de détails sur les bonnes pratiques liées à la sécurité d'Unraid. Nous posterons un lien dès que la vidéo sera disponible pour vous permettre de voir ce qu'il y a de plus à faire pour améliorer la sécurité de votre système. Il est vital que tous les utilisateurs examinent ces recommandations concernant leurs systèmes dès que possible afin de s'assurer que vous fassiez tout ce qui est nécessaire pour protéger vos données. Chez Lime Technology, nous nous engageons à faire d'Unraid une plateforme sûre et sécurisée pour tous vos contenus numériques personnels, mais notre capacité d'action dans ce domaine est très limité. Au final, c'est vous, en tant qu'utilisateur, qui êtes responsable de vous assurer que votre réseau et les appareils qui s'y trouvent sont conformes aux bonnes pratiques en matière de sécurité.
    2 points
  3. I'm new to UnRAID having used it for about a week now. I found this link telling me how to remove a drive from my array: https://www.lime-technology.com/wiki/index.php/Replacing_Multiple_Data_Drives_with_a_Single_Larger_Drive I'm at the point where I've removed the drive I wanted to remove (after rsync'ing the data to another drive)... The linked procedure says "Use New Config to unassign removed drive(s)." Where is this in the webGUI? I've unassigned the drive, but the option I get for Array Operation is: "Start will disable the missing disk and then bring the array on-line. Install a replacement disk as soon as possible." I don't want to start it with UnRAID assuming I want to eventually replace the missing disk. How do a new a "new config"? Is this terminology from an older version of UnRAID? Edit: Nevermind! I found it under Tools. I should have just looked around a bit more before posting. Sorry!
    1 point
  4. I am still kinda confused, how does dual parity work. Does it really mean, that having unRAID use dual parity I could recover from ANY 2 drives failing? Like they say, a picture is worth a thousand words...
    1 point
  5. Information: Je crée ce tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Créer un WORDPRESS avec une base de données MySQL Je n'aborderais que la partie installation de WORDPRESS, ce tuto n'est pas destiné à la configuration de WORDPRESS ni de son utilisation. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip du NAS - si vous avez déjà installé le conteneur MariaDB, passé directement à l'étape pour créer un utilisateur dans MariaDB Installation: 1) Installation de MariaDB a) Téléchargement de l'image MariaDB Recherché dans l'onglet "APPS" le conteneur "MariaDB - linuxserver's Repository": b) Paramétrage du conteneur host port 1 = port utilisé pour mariadb MYSQL_ROOT_USER = nom de l'utilisateur avec accès "root" key 3 = mot de passe du l'utilisateur "root_user" MYSQL_USER = nom de l'utilisateur avec accès simple utilisateur MYSQL_PASSWORD = mot de passe utilisateur MYSQL_DATABASE = nom de la base de données AppData_config_path = chemin du conteneur c) Création d'une base de données et d'un utilisateur dans MariaDB Ouvrir la console de commande pour MariadDB: Il va falloir entrer quelques commandes (adapter nom et mot de passe) D'abord, ont ce connecte en utilisateur "root" (avec les identifiants crées au-dessus lors de l'installation du conteneur MariaDB) mysql -uroot -p Le password demandé est celui crée lors de l'installation: key 3 = mot de passe du l'utilisateur "root_user" Créer un utilisateur et un mot de passe (il faut garder les ' qui encadre le nom et mot de passe) CREATE USER 'nom_utilisateur' IDENTIFIED BY 'mdp'; Création d'une base de données pour WORDPRESS: CREATE DATABASE IF NOT EXISTS nom_de_base; Autorisé l'utilisateur à accéder à la base de données: (il faut garder les ' qui encadre le nom et mot de passe) GRANT ALL PRIVILEGES ON nom_de_base.* TO 'nom_utilisateur' IDENTIFIED BY 'mdp'; Puis ont quitte proprement: quit !!! ATTENTION!!! DE BIEN NOTER LES IDENTIFIANTS ET LE NOM DE BASE DE DONNEES QUELQUE PART Si tout ce passe bien vous devez obtenir ceci: 2) Installation de WORDPRESS a) Téléchargement de l'image Recherché dans l'onglet "APPS" le conteneur "WORDPRESS" Kru-X's Repository: b) Paramétrage du conteneur WORDPRESS Conteneur Port = Port utilisé par WORDPRESS www = Chemin du conteneur WORDPRESS WORDPRESS_DB_HOST = IP_DU_NAS + port du conteneur MariaDB WORDPRESS_DB_USER = utilisateur crée dans le conteneur MariaDB WORDPRESS_DB_PASSWORD = mot de passe crée dans le conteneur MariaDB c) Ajout d'une variable au conteneur WORDPRESS on ajoute la variable WORDPRESS_DB_NAME avec le nom de la base de données créé dans le conteneur MariaDB d) Accès Interface WORDPRESS Pour accéder à l'interface WORDPRESS, utiliser: http://IP_DU_NAS:8080 le port choisi lors de l'installation du conteneur ci-dessus (dans mon cas 8080) Si tout ce passe bien vous devez obtenir ceci sur la page du navigateur: FIN
    1 point
  6. Here is my build, which started very modest a few years back. On the right side of the chassie Unraid Server build on a workstation xeon mainboard: unRAID 6.91 Pro CPU: 2 x Xeon Gold 6226R Motherboard: Asus C621E Sage RAM: 4 x 32 GB Samsung DDR4-2933 RDIMM PC4-23466R Dual Rank x4 Module Case: Lian Li DK-05F Drive Cage(s): 2 x 3 HDD cages Power Supply: CORSAIR AX1600i SATA Expansion Card(s): Using the motherboard NIC: Mellanox MCX314A Cables: ...of God..... Radioators: 1 x EK 480 and 1 x EK 360 Fans: 4 x EK-Meltemi 120ER and 3 x EK-Vardar X3M 120ER D-RGB Parity Drive: 18TB Seagate ST18000NM000J-2TV103 Data Drives: 3x 10TB details later Cache Drive: 4 x Corsair MP510 960GB. Total Drive Capacity: 30TB in the Array. Primary Use: Data storage, Plex streaming, Roon Server, FaH. Likes: No need for apartment heating. Dislikes: No need for apartment heating. Add Ons Used: Details later Future Plans: An AMD Ryzen Threadripper Pro build maybe. In the left side is the Game Machine: Windows 10 Pro CPU: Ryzen 9 3950X Motherboard: Asus ROG Crosshair VIII Hero RAM: 4 x 8 GB (4000Mhz) GPU: Zotac RTX 2080-ti water-cooled Case: Lian Li DK-05F Power Supply: XILENCE Performance X 1250 Watt SATA Expansion Card(s): Using the motherboard Cables: ...of God..... Radioators: 1 x EK 480 and 1 x EK 360 Fans: 4 x EK-Meltemi 120ER and 3 x EK-Vardar X3M 120ER D-RGB OS drive: Samsung 980 Pro NVMe SSD. Data Drives: Samsung 970 Pro NVMe SSD. Primary Use: Gaming, more specific Dirt Rally 2., checking what mining is. FoldingHome. Likes: It works great. Dislikes: Original plan was run run a Game VM on the unRAID server, but I had trouble with the wheel. Which turned out to be the wheel and not the VM. Plex setup: I have setup a Supermicro SuperWorkstation 7049A-T (Mini) as a file server running Windows Server 2019. The content is stored on a 3 tier Storage Spaces share. 2 x 1 TB NVme ssd as cache, 8 TB SSD and 2 x 10 TB. Mini is connected directly to the Unraid server with Mellanox MCX314A-40Gb. I am running a Plex container and Quadro RTX4000 for transcoding. I have followed @mgutt setup for Plex transcoding in RAM. Plex media library is a "remote" share, which is the media share on Mini connected with 40Gb NIC´s. Plex is crisp. Cheers, Frode
    1 point
  7. si je dis de bêtise. nano cest la commande qui permet d'éditer un fichier en ssh. mais je trouve cela pas pratique quand ont a pas l'habitude
    1 point
  8. Il faut créer un utilisateur dans Unraid avec les mêmes paramêtres Login/Password que la session Windows utilisée. Si mon utilisateur windows était toto avec un mdp zero, il faudrait créer une utilisateur toto / zero dans Unraid. Pour modifier un fichier dans directement depuis Unraid, je crois avoir entendu parler de nano, mais je ne suis pas un pro de linux. Je pense que ça doit se lancer depuis la console (je suis au bureau, pas facile et trop de temps de tester ).
    1 point
  9. Je dirais oui, mais pas forcement pour cette question en particulier. Avec Public tu peux normalement modifier ce fichier. C'est probablement un droit d'accès Linux qui te posait soucis ? Quoi qu'il en soit, je pense que totoleouf a raison et qu'il vaut mieux chercher dans les options / plugins de Nextcloud pour faire ce que tu veux. Là où je pense qu'il faut que tu revois tes réglages c'est que mettre une share en Public c'est un peu dangereux je trouve en général. Je préfère au minimum Secure ou Private pour être tranquille personnellement. L'idée étant de limiter les risques au maximum et ne laisser l'accès R ou R/W que là où c'est nécessaire. Appdata par exemple n'est utile que pour les dockers. Pas nécessaire normalement d'aller dedans depuis son PC, moins encore de modifier les fichiers. Pour des médias, ou des documents ça peut se défendre par contre. Je dirais réflechi bien au réglage sécurity de chaque Share mais aussi les accès individuels de chaque utilisateur. N'importe quelle personne qui se connecte à mon réseau n'a pas besoin de tout voir ou tout pouvoir modifier, même un pote.
    1 point
  10. Salut @Raks et bienvenue sur le forum. Question bête : quels sont les droits de ton utilisateur windows sur le share appdata ?
    1 point
  11. They are usually fine, I have several myself, but there's an unusually high number of SMART "seek rate error" failing now reported errors, but like mentioned it's not limited to Unraid, possibly a firmware issue, since most times the raw value returns to normal after a power cycle.
    1 point
  12. I fixed this issue yesterday. I fought the problem the entire day. It turned out to be a bad USB flash drive. I'm not sure when my most recent backup was or where I put the backup. So I created a new flash drive with the Unraid USB Creator. I then copied the config folder from the old drive to the new one. Everything started up and worked fine. What made the issue most confusing was that I thought the problem was somehow something I had caused. After troubleshooting for the entire day I think the flash drive was my issue right from the get go.
    1 point
  13. Don't think there is a thread, and I rarely check here so best bet is add a feature request issue on GitHub and I'll eventually get round to adding it in
    1 point
  14. As long as you work exclusively with direct disk paths, yes, that is the extent of the damage you can do. The real issue that can lose data occurs when you mix /mnt/user paths with direct disk paths, where the exact same physical file shows up in two paths, so moving a file can result in the OS erasing the content of that file. Normally we tell people to avoid disk shares and work exclusively with user shares, but you want to do multiple disk copies at once, so disk to disk is easier to deal with, and as long as you understand how to make user shares by creating root disk folders you should be fine. You can view and read your user shares over the network during this process so you see how things act. Any root disk folder automatically becomes a user share with default public access. You can update that however you wish in the GUI on the shares tab.
    1 point
  15. Thanks mate, is that a 4gb card? That won't work for mining Ethereum because the DAG size is larger than 4gb now ☹️ I mean, you could try setting -daglim to do it: -daglim <n> (AMD Polaris, Baffin, Tonga, or Fiji cards only) Limit the DAG size to <n> MB to allow mining on 4 GB cards a few weeks after epoch 373 on Windows (or 381 on Linux). The possible values except the exact DAG limit are also 0 (turn off the DAG limit), 1 (automatic DAG limit size, usually 4023 MB under Windows; this is the default). Note that the hashrate will drop significantly with each epoch after the DAG limit is in effect. If the hashrate drops too much (e.g. from 28 MH/s to just 2-3 MH/s, you need to use lower value, for example -daglim 3996 or even lower. But I doubt you will get too far because Ethereum is up to (I believe) epoch 404. You might still be able to find a profitable coin to mine with but you'd need to get your hash rate up above around 6MH/s to even break even (based on energy prices in Australia, I have no idea how much energy costs in the UK) You can calculate profitability on a site like this, that's based on US energy prices of course but if you enter your converted cost the formula is the same. @NixonInnes Damn, it was worth a shot. That's a good card, I'm sure you could get way more out of it than what you're getting, but it might make your system unstable if you start pushing it with OC options. My RX 580 is running custom bios, but that's a risk to damaging your GPU. I hope you're mining on both of them 😉
    1 point
  16. Ich schon... Geht nicht. Der Server schläft immer noch
    1 point
  17. ...der Pfad innerhalb des containers ist " /var/lib/influxdb" ...einfach das mapping erstellen im Template. Allerdings ist das neueste Image (influxdb:latest) seit ein paar Wochen nun influxdb V2.0...da ist eine Authentifizierung notwendig, wenn man auf die DB zugreifen will. Das war bis zur Vorversion (V1.8.x) nicht so. Wenn Du also als Neuling den alten "klassischen" Anleitungen im Internet folgen willst, installiere die letzte V1.8 -> also im Docker Template bei "Repository" die "influxdb:1.8" eingeben
    1 point
  18. Cache filesystem looks fine so far, but the docker image is corrupt, delete and recreate.
    1 point
  19. I applied New Config, set disks 1, 2 and parity correctly, did parity sync and everything is working perfectly again! Thank you for your help!
    1 point
  20. Doing that will indeed set the server's address as static but that particular address is one of the pool of addresses that your DHCP server can allocate to any device that requests one. Therefore it could just as easily allocate it to your phone or tablet or other connected device. If you want to set a static address on your server you need to choose one that isn't in the DHCP server's pool. Suppose, for example that your router address is 192.168.100.1 and the DHCP server's pool consists of the range 192.168.10.2 to 192.168.10.100, then any address between 192.168.10.101 and 192.168.10.254 would be safe to use, as long as it's unique and not allocated to anything else. If you use static addresses then you have to take responsibility for managing them.
    1 point
  21. Hey man, thanks! Got the miner & stats up and running pretty easily with my meagre RX 570 👍
    1 point
  22. In most cases, that's a consequence of using a consumer motherboard. Server motherboards handle IOMMU groups much better.
    1 point
  23. I've just had an idea for this. With Squid's Mover Tuning plugin, I have set an exemption for file type '.DS_Store'. Now I'm going to delete all previous .DS-Store files and *hopefully* the new ones will stay on the SSD cache. I'm wondering if this is the root of many Mac users' problems with cache dir.
    1 point
  24. okay, this helps alot! This looks normal. The "Move Now" under the "Mover Settings" in Scheduler, calls the plug-in. This is a change from 6.8 version. Your cache pool is never getting above the 65% limit to initiate a move. So it doesn't move anything. If you want to run the original mover. I added a button in the bottom right of the "Mover Tuning w/Age - Days old" area. Bottom right. This will just call the original mover script that came with unRAID.
    1 point
  25. Thanks, didn't realize the script and gui was only triggered when the password was typed into the users change password interface. Makes sense though.
    1 point
  26. 配置 i3-10100 + B460M AORUS PRO + i350 t4 ,unraid版本6.9 pcie acs override设置为downstream的情况下,i350的4个网口依然在同一个IOMMU group下,不能分配给多个虚拟机使用。 目前蓝冰血魄大佬的最新版IOMMU分组补丁还没出,不清楚打了补丁是否有用。6.8.1/2版本的补丁是有效的,既然可以在软件层面解决问题,官方是否可以直接解决。 请问还有没有其他的解决方案。 ------------------------------------------------------ 补充一下,6.9.1系统下使用蓝冰血魄大佬的“unRAIDServer-6.9.1-iommu分组”补丁,可以将非CPU直出插槽的i350四个网口分组。
    1 point
  27. Thank you so much for this very detailed answer.🤩 You pined out the thing I didn't understand as I naturally was willing to point the root domain to a A name. I think I understood how I'm gonna deal with my redirection problems. I hope I'm not gonna break everything especially my Nextcloud setup even though I know I will be able to revert it back. It's gonna be a tweecking sunday for me. Thanks again for all your amazing videos I've learn so much since I start playing with Unraid. You deserve a good sunday 🍺, hopping you'll find an open pub !
    1 point
  28. So I tried both builds before and after I changed the blacklisting. amdgpu only got me: lnxd/phoenixminer:v1.0.0-20.45 - command failed - no log file on attempted start lnxd/phoenixminer:v1.0.0-18.20 - command failed - no log file on attempted start Reboot and amdgpu and radeon on got me: lnxd/phoenixminer:v1.0.0-20.45 - command successful Project: PhoenixMiner 5.5c Author: lnxd Base: Ubuntu 20.04 Target: Unraid 6.9.0 - 6.9.1 Wallet: 0x9498eb2019EBeD208977FE73d473810b36fE0641 Pool: us1.ethermine.org:4444 Starting PhoenixMiner 5.5c with the following arguments: -pool us1.ethermine.org:4444 -wal 0x9498eb2019EBeD208977FE73d473810b36fE0641.pronto-server -tt 75 -tstop 85 -tstart 80 -cdm 1 -cdmport 5450 -amd Phoenix Miner 5.5c Linux/gcc - Release build -------------------------------------------- [0mNo OpenCL platforms found [91mNo avaiable GPUs for mining. Please check your drivers and/or hardware. [0m lnxd/phoenixminer:v1.0.0-18.20 - command successful Project: PhoenixMiner 5.5c Author: lnxd Base: Ubuntu 20.04 Target: Unraid 6.9.0 - 6.9.1 Wallet: 0x9498eb2019EBeD208977FE73d473810b36fE0641 Pool: us1.ethermine.org:4444 Starting PhoenixMiner 5.5c with the following arguments: -pool us1.ethermine.org:4444 -wal 0x9498eb2019EBeD208977FE73d473810b36fE0641.pronto-server -tt 75 -tstop 85 -tstart 80 -cdm 1 -cdmport 5450 -amd Phoenix Miner 5.5c Linux/gcc - Release build -------------------------------------------- amdgpu_device_initialize: DRM version is 2.50.0 but this driver is only compatible with 3.x.x. ./mine.sh: line 15: 6 Segmentation fault ./PhoenixMiner -pool $POOL -wal $WALLET.$PASSWORD -tt $TT -tstop $TSTOP -tstart $TSTART -cdm 1 -cdmport 5450 $ADDITIONAL Attached is Diag after I changed both drivers to "ON" Cheers...? lol EDIT: # ls -alh /boot/config/modprobe.d/ total 8.0K drwx------ 2 root root 4.0K Mar 28 09:18 ./ drwx------ 12 root root 4.0K Mar 28 09:27 ../ -rw------- 1 root root 0 Mar 27 13:00 amdgpu.conf -rw------- 1 root root 0 Mar 28 09:18 radeon.conf Don't know if anything needs to be in these files, so right now they are empty.. pronto-server-diagnostics-20210328-0933.zip
    1 point
  29. This just sreams, how Unraid has poor security. How long till we can setup more users and control permissions like on any other linux distro? Will we ever get SFTP of NFSv4 with password protection...
    1 point
  30. I just wanted to say thank you very much for making this as well as the Previous Apps option in CA. It saved my butt tonight!!!
    1 point
  31. I would start with Ich777s ARK container, then when you catch the addiction look at my instructions for spinning up a cluster.
    1 point
  32. No, you need to execute the command for every dataset inside the pool. https://forums.unraid.net/topic/41333-zfs-plugin-for-unraid/?do=findComment&comment=917605 I'm using following script in UserScripts to be executed at "First Start Array only" #!/bin/bash #from testdasi (https://forums.unraid.net/topic/41333-zfs-plugin-for-unraid/?do=findComment&comment=875342) #echo "[pool]/[filesystem] /mnt/[pool]/[filesystem] zfs rw,default 0 0" >> /etc/mtab #just dump everything in for n in $(zfs list -H -o name) do echo "$n /mnt/$n zfs rw,default 0 0" >> /etc/mtab done
    1 point
  33. In all my templates (at least in the ones that I don't forget to set it... ) the settings are never automatically changed and everything is up to the user... Eventually because the template had the option to update itself in it to update itself (this is what I try to avoid and my containers or at least templates should not do that).
    1 point
  34. A short video. PS! Camera man is not druknk. https://share.icloud.com/photos/0vEElS3WvYfirNLSmntb3gxbA
    1 point
  35. It's likely you need to change "data_units_written" to "total_LBAs_written" and add *512 to your math function. not all SSDs have the same names. you should be able to click in the data_units_written field and in the dropdown you should find a synonym
    1 point
  36. I've manually changed the Influxdb to 1.8 That fixed my auth issues. But a could days ago or so I have a notice that there is an update to influxdb. If I set the version for 1.8, why is it still saying there is an update available?
    1 point
  37. Hey guys, ich777's kernel builder solved it for me. He's made it very straight forward: 1. Add the container via community applications and select the options you want. Deselect anything you don't need but mark vendor-reset as true, it will compile a kernel for you 2. Back up your existing kernel just in case (download a dump of your flash drive via the GUI), copy the generated kernel files from the output folder to the root level of the flash drive, overwriting the existing ones. 3. Reboot You'll see the discussion I had with him in that post as well, I had to change to a legacy boot mode to get my Asus RX 580 OC working in VMs but that might depend on your other hardware. It's working fine for me on 6.9.0, I haven't upgraded to 6.9.1 just yet, but I'll be doing that shortly. My understanding is the vendor-reset patch is still technically in Beta, but I'm hoping Unraid devs can move to include it in the kernel soon as it's pretty much impossible to use anything other than brand new AMD GPUs with Unraid otherwise. EDIT: Just upgraded to 6.9.1, still works like a charm with my RX 580.
    1 point
  38. Wie kann ich eine GPU in einer VM nutzen? HVM und IOMMU müssen aktiv sein: Falls einer der Optionen nicht aktiviert ist, findet man diese im BIOS in der Regel unter den folgenden Begriffen: HVM = Intel VT-x bzw AMD-v IOMMU = VT-d, Directed I/O, IOMMU, SVM Falls dort "Not available/Nicht verfügbar" steht, dann ist die Hardware nicht kompatibel. Wenn diese Voraussetzungen erfüllt sind, kann man die GPU inkl dem Audio Controller (und evtl sogar USB) über Werkzeuge (Tools) -> Systemgeräte (System Devices) anklicken und nach einem Neustart ist die GPU an "VFIO gebunden". Damit ist die GPU nicht mehr für Unraid nutzbar und kann von einer VM genutzt werden. Hinweise: Bei Neustart-Problemen kann die Datei "vfio-pci.cfg" vom USB-Stick gelöscht werden um den Vorgang rückgängig zu machen. Wer nur eine GPU verbaut hat, kann danach nicht mehr die Terminal-Ausgabe von Unraid sehen (die Unraid WebGUI im Browser und das dort integrierte WebTerminal ist natürlich nach wie vor erreichbar) Viele Nutzer konnten Neustart-Probleme beheben, in dem sie Unraid eine GPU verwenden lassen zB die iGPU der CPU oder eine GT710, GTX1030, etc Die mehrfache Nutzung einer GPU durch Unraid und einer oder mehrerer VMs ist nicht standardmäßig möglich. Eher zu den neuen Projekten gehört zB das Intel-GVT-g Plugin um die von Unraid verwendete iGPU auch zur Beschleunigung einer VM nutzen zu können. Bei Nvidia GPUs gab es wohl einen Hack, aber ich vermute, dass eine Nutzung in Unraid auch damit nicht möglich wird, da es mit den Enterprise GPUs nur geht, wenn man ein kompatibles Betriebssystem verwendet. Sofern euch also die Leistung einer Intel iGPU nicht reicht, wäre Stand heute eine dGPU pro VM notwendig. Allerdings kann man sie im Wechsel verwenden. Also eine VM herunterfahren und die nächste mit der selben dGPU wieder hochfahren. Das geht. Fährt man eine VM herunter oder schickt sie in den Standby, geht die GPU nicht schlafen. Im Gegenteil. Ihr Stromverbrauch steigt deutlich an. Daher lohnt es sich eigentlich nicht die VM herunterzufahren. In einer VM spielen ist möglich, beachtet aber bitte, dass manche Spiele einen Anti-Cheat-Mechanismus verwenden, der das Spielen in einer VM verbietet. zB alle Spiele, die mit BattlEye geschützt werden, gelten als inkompatibel. Am besten mit einer Suchmaschine eurer Wahl nach dem Spielnamen und "Unraid VM" suchen. es gibt Nutzer, die mit inoffiziellen Plugins die Nutzung von MacOS in einer VM ernöglichen. Apple hat sich meines Wissens nach hier bisher nicht zu Wort gemeldet, aber manche Nutzer vermuten, dass es gegen die Lizenzrechte verstößt. Es kann also gehen, muss aber nicht legal sein und keinesfalls wird es offiziell von Unraid unterstützt. Da es schon Beschwerden gab, weil so eine VM nicht lief, muss ich das einfach erwähnen.
    1 point
  39. I guess it finally caught up to all of us. Here are the answers from the faq:
    1 point
  40. brawny had the answer in another thread that helped me. put simply, check Local IPv4 address, under status and interface options (the wrench) in sabnzbd and make sure that they are the same for sonarr and radarr. While you are at it ensure that you haven't changed/generated a new API key as I had, while trying to fix the issue. Good Luck Chas
    1 point
  41. 在启动U盘里面找到config-vfio-pci.cfg,用notepad++等软件编辑去掉网卡数字,或者直接删除掉vfio-pci.cfg,插回U盘启动。
    1 point
  42. The vendor-reset got an update for navi users. I tested it on my system. I have no broken audio anymore after resets. For me this is a real breakthrough! I don't need the old navi patch anymore now. I can now boot between Windows 10 20H2, macOS Big Sur 11.1 and Ubuntu 20.10. For all navi user who wanna try it out: Force update the docker Edit the docker and add a variable like this: Try and hopefully enjoy! Keep in mind, this only fixes the specific audio issue for navi users. Please report your expierences here. Special Thanks to @ich777 for that fast edit.
    1 point
  43. From github https://github.com/shirosaidev/diskover Requirements: Elasticsearch 5.6.x (local or AWS ES Service) Elasticsearch 6 not supported, ES 7 supported in Enterprise version Redis 4.x Working steps: (if you do anything wrong, remove the docker, remove the docker's config folder in appdata, (but can keep docker image to avoid download again).) 0. install redis from apps jj9987's Repository, no config needed. 1. Install CA User Scripts plugin Create a new script named vm.max_map_count navigate to \flash\config\plugins\user.scripts\scripts\vm.max_map_count open 'description' file write some readable description about what this script does. open 'script' file, contents of script as follows: #!/bin/bash sysctl -w vm.max_map_count=262144 Set script schedule to At Startup of Array Run the script once. Navigate to "Docker" tab and then the "Docker Repositories" sub-tab in the unRAID webui Enter in a URL of https://github.com/OFark/docker-templates in the "Template repositories" field Click on the "Save" button Click back to "Docker" tab and then click on the "Add Container" button Click on the "Template" dropdown menu and select the Elasticsearch5 image Use pre config, no change needed. 2. go to apps, find diskover, click install put in ip of the redis and elastic server , which should be your unraid ip not 127 or localhost ES_USER : elastic ES_PASS : changeme change appdata path to /mnt/cache/appdata/diskover/ data path I use /mnt/user/ which is going to index everything from the user webgui port I changed to 8081 because I have qBittorrent on 8080 add a new variable, DISKOVER_AUTH_TOKEN value is from https://github.com/shirosaidev/diskover/wiki/Auth-token click start, and you shoud good to go with the webui of diskover, select the 1st indice and happy searching. It might take half a minute for the 1st indice to appear. For the whole process, you do not seem to need to change any folder/file permissions. One problem I got is, while the file index goes to 94.5% it stuck there for hours. So I have to delete the 3 dockers and do it again, this time, it got 100% and seems to be ok. But this also means this setup could have problem like stuck indexing sometime. The OFark's docker template use Elasticsearch 5 which might be a bit old for the current version diskover. Or running from docker caused this. OFark's docker image is a preconfiged working one. If anyone has time, maybe try to build a version 6 or 7 docker image to work with the current version diskover
    1 point
  44. Hello, we have our backups done mainly through Macrium Reflect cloning software and all images are in .mrimg file. Anyone knows the fastest procedure to mount those images as VM? Ideally, we would be able to just boot from those images directly - something that MacriumViBoot is able to do through Hyper-V. What would the options be? Thanks in advance!
    1 point
  45. ok - I got it working by using and XMLTV feed as you can't channel map if using emby's EPG. what a bloody palava - who knew simply filtering and channel mapping an m3u feed was going to be soooooooo overly complicated and such a pita.?
    1 point
  46. I was able to fix the greyed out "extend partition" in Windows 10 by downloading a free third party partition tool for windows. Odd that Windows disk manager cant address the issue but a free tool can.
    1 point
  47. Have you tried to use http://kb.macrium.com/KnowledgebaseArticle50005.aspx?Keywords=VHD and then convert the VHD to IMG with something like qemu-img convert -f vpc -O raw lamp-3-x86.vhd lamp.raw ?
    1 point
  48. The drive is fine! That usually indicates an issue with the SATA cable or connectors, so I would replace the cable with a good one, and check ALL cable connections (both ends of the cables) for tight connections. It's also possible there was a power glitch. CRC errors just indicate that a corrupted packet was detected, and they're always re-sent. A CRC error does not usually cause a disabled drive. I suspect something else happened, and the evidence may be in the syslog that covered that moment. Maybe there was a BIG power glitch!
    1 point