Leaderboard

Popular Content

Showing content with the highest reputation on 03/29/21 in all areas

  1. and because I did my time in purgatory waiting for like 2 months for this while on the previous version that sucked so you guys can try the next one and take one for the team.
    2 points
  2. Je reprends le message d'avertissement de @jonp qui mérite d'être aussi diffusé en français. Vous trouverez le sujet d'origine ici : https://forums.unraid.net/topic/104669-warning-unraid-servers-exposed-to-the-internet-are-being-hacked/ Bonjour à la communauté Unraid ! Ces derniers jours, nous avons constaté une augmentation significative du nombre de serveurs Unraid compromis en raison de pratiques de sécurité insuffisantes. Le but de ce post est d'aider notre communauté à contrôler que leurs serveurs sont sécurisés et de fournir des recommandations utiles sur les bonnes pratiques pour s'assurer que votre système ne devienne pas une autre victime. Nous vous invitons à consulter les recommandations ci-dessous sur votre/vos serveur(s) afin de vous assurer qu'ils sont sécurisés. Choisissez un mot de passe root robuste Comme pour de nombreux routeurs, les systèmes Unraid n'ont pas de mot de passe par défaut. Cela permet de s'assurer que vous pouvez rapidement et facilement accéder à la console de gestion immédiatement après l'installation du système. Cependant, cela ne signifie pas que vous ne devez pas en définir un. C'est très simple. Il suffit de naviguer dans l'onglet Utilisateurs et de cliquer sur root. Définissez ensuite un mot de passe. À partir de là, vous devrez vous authentifier à chaque fois que vous voudrez vous connecter au webGUI. En complément, il existe un plugin disponible dans Community Applications appelé Dynamix Password Validator. Ce plugin fournit des indications sur la robustesse du mot de passe que vous créez en se basant sur des règles de complexité (le nombre de lettres majuscules et minuscules, de chiffres, de symboles et la longueur totale du mot de passe sont utilisés pour en juger). Pensez à l'installer pour obtenir des conseils supplémentaires sur la robustesse des mots de passe. Examinez les mappages de ports sur votre routeur La redirection de ports vers votre serveur est nécessaire pour certains services spécifiques que vous souhaitez rendre accessibles par Internet, tels que Plex, les serveurs FTP, les serveurs de jeux, les serveurs VoIP, etc. Mais la redirection vers de mauvais ports peut exposer votre serveur à un important risque de sécurité. Voici quelques ports auxquels vous devez faire très attention lors de la redirection : Port 80 : Utilisé pour accéder au webGUI sans SSL (sauf si vous avez défini l'accès à un autre port sur la page des paramètres d'accès de gestion). NE PAS rediriger le port 80. La redirection de ce port par défaut vous permettra d'accéder au webGUI à distance, mais sans SSL pour sécuriser la connexion, les équipements entre votre navigateur et le serveur pourraient " sniffer " les paquets pour voir ce que vous faites. Si vous voulez rendre le webGUI accessible à distance, installez le plugin Unraid.net pour activer Mes Serveurs sur votre système, ce qui peut fournir une solution d'accès à distance sécurisée qui utilise le SSL pour assurer que votre connexion est entièrement cryptée. Port 443 : Utilisé pour accéder au webGUI avec SSL. Ce port n'est préférable au port 80 que si vous avez défini un mot de passe root. Si aucun mot de passe root n'est défini et que vous redirigez ce port, des utilisateurs non autorisés peuvent se connecter à votre webGUI et avoir un accès complet à votre serveur. En outre, si vous transférez ce port sans utiliser le plugin Unraid.net et My Servers, les tentatives de connexion au webGUI via un navigateur présenteront un avertissement de sécurité en raison de l'absence d'un certificat SSL. Envisagez de vous faciliter la vie et d'utiliser Unraid.net avec My Servers pour permettre un accès à distance simple, sûr et sécurisé à vos systèmes Unraid. NOTA : Lorsque vous configurez l'accès à distance dans My Servers, nous vous recommandons fortement de choisir un port quelconque au-dessus de 1000 plutôt que d'utiliser le port 443 par défaut. Port 445 : Utilisé pour SMB (partages). Si vous redirigez ce port vers votre serveur, tout partage public peut être connecté à n'importe quel utilisateur sur Internet. D'une manière générale, il n'est jamais conseillé d'exposer les partages SMB directement sur Internet. Si vous avez besoin de pouvoir accéder à vos partages à distance, nous vous suggérons d'utiliser un VPN de type Wireguard pour créer un tunnel sécurisé entre votre appareil et le serveur. En outre, si le disque flash lui-même est exposé à l'aide de SMB et que ce port est redirigé, son contenu peut facilement être supprimé et la clé que vous avez payée peut facilement être dérobée. Évitez tout simplement de le faire. Port 111/2049 : Utilisé pour NFS (partages). Bien que NFS soit désactivé par défaut, si vous utilisez ce protocole, assurez-vous de ne pas rediriger ces ports par votre routeur. Comme pour SMB, il suffit d'utiliser Wireguard pour créer un tunnel sécurisé à partir de tout périphérique distant qui doit se connecter au serveur via NFS. Port 22/23 : Utilisé par Telnet et SSH pour l'accès à la console. C'est particulièrement dangereux pour les utilisateurs qui n'ont pas de mot de passe root. Comme pour SMB, nous ne recommandons pas de rediriger ces ports du tout, mais plutôt de suggérer aux utilisateurs d'utiliser une connexion VPN Wireguard pour se connecter à l'aide de l'un de ces protocoles. Ports de la plage 57xx : Ces ports sont généralement utilisés par les VM pour l'accès VNC. Bien que vous puissiez rediriger ces ports pour permettre l'accès VNC à distance pour vos VM, la meilleure et plus facile façon de le faire est d'installer le plugin Unraid.net et d'activer Mes Serveurs. Cela garantit que ces connexions sont sécurisées via SSL et ne nécessite pas le transfert de ports individuels pour chaque VM. En règle générale, vous ne devriez pas avoir besoin de rediriger beaucoup de ports vers votre serveur. Si vous voyez une règle de transfert que vous ne comprenez pas, essayez de la supprimer, voyez si les utilisateurs se plaignent, et si c'est le cas, vous pouvez toujours la remettre en place. Ne mettez jamais et au grand jamais votre serveur dans la DMZ Même si vous pensez avoir parfaitement sécurisé votre serveur, il n'est jamais recommandé de le placer dans la zone démilitarisée de votre réseau. En faisant cela, vous redirigez chaque port de votre adresse IP publique vers votre serveur et tous les services accessibles localement sont également accessibles à distance. Même si vous pensez avoir sécurisé votre serveur, le placer dans la zone démilitarisée l'expose à des risques inutiles. Ne faites jamais ça. Considérez le réglage des partages comme privés avec des noms d'utilisateurs et des mots de passe. L'accès aux partages sans mot de passe est très pratique. Nous le savons et c'est pourquoi nous ne vous obligeons pas à définir des mots de passe pour vos partages. Cependant, il y a un risque de sécurité pour vos données lorsque vous faites ça, même si vous ne transférez pas de ports vers votre serveur et que vous avez un mot de passe root fort. Si la sécurité d'un autre appareil de votre réseau, tel qu'un PC, un Mac, un téléphone, une tablette, un appareil IoT, etc. était compromise, il pourrait être utilisé pour établir une connexion locale aux partages de votre serveur. Par défaut, les partages sont configurés pour être accessibles en lecture/écriture de façon publique, ce qui signifie que ces appareils malveillants peuvent être utilisés pour dérober, supprimer ou chiffrer les données qu'ils contiennent. En outre, des utilisateurs malveillants pourraient également utiliser cette méthode pour placer sur votre serveur des données que vous ne souhaitiez pas. Pour ces raisons, si vous devez créer des partages publics, nous vous recommandons fortement de définir l'accès en lecture seule. Seuls les utilisateurs autorisés disposant d'un mot de passe fort doivent être en mesure d'écrire des données sur vos partages. Ne partagez pas votre clé USB, et si vous le faites, faites en sorte qu'elle soit sécurisée. La clé USB elle-même peut être exposée via SMB. C'est pratique si vous devez effectuer des modifications complexes sur votre système, comme modifier le fichier go dans le répertoire de configuration. Cependant, le périphérique flash lui-même contient les fichiers nécessaires pour démarrer Unraid ainsi que vos données de configuration (affectations de disque, partages, etc). Exposer ce contenu publiquement peut être extrêmement dangereux, aussi nous vous déconseillons de le faire à moins que ce ne soit absolument indispensable, et lorsque vous le faites, il est conseillé de le faire de manière sécurisée, en demandant un nom d'utilisateur et un mot de passe pour voir et modifier le contenu. Tenez votre serveur à jour Indépendamment des autres mesures que vous prenez, il est essentiel de maintenir votre serveur à jour avec la ou les dernières versions pour garantir sa sécurité. Il y a constamment des notifications de sécurité (CVEs) publiées pour les différents composants utilisés dans Unraid OS. Chez Lime Technology, nous faisons de notre mieux pour nous assurer que toutes les vulnérabilités sont corrigées en temps voulu par des mises à jour logicielles. Toutefois, ces mises à jour ne vous seront d'aucune utilité si vous ne les appliquez pas également en temps voulu. Il est simple de maintenir votre système d'exploitation à jour. Il suffit de naviguer dans Outils > Mise à jour du système d'exploitation pour vérifier la présence de mises à jour et les appliquer. Vous pouvez configurer des notifications pour vous avertir lorsqu'une nouvelle mise à jour est disponible à partir de la page Paramètres > Notifications. Autres recommandations de bonnes pratiques Configurez et utilisez WireGuard, OpenVPN ou nginxProxyManager pour un accès distant sécurisé à vos partages. Pour la configuration de WireGuard, voir ce tutoriel très pratique. Configurez le 2FA sur votre compte Unraid Forum. Configurez un serveur Syslog à distance. Installez le plugin Fix Common Problems. L'installation de ce plugin vous alertera en cas de multiples tentatives de connexion échouées et bien plus encore. Changez le mot de passe de votre modem pour quelque chose d'autre que le mot de passe par défaut. Envisagez d'installer ClamAV. En plus de toutes les recommandations ci-dessus, nous avons demandé à SpaceInvaderOne de préparer une vidéo avec encore plus de détails sur les bonnes pratiques liées à la sécurité d'Unraid. Nous posterons un lien dès que la vidéo sera disponible pour vous permettre de voir ce qu'il y a de plus à faire pour améliorer la sécurité de votre système. Il est vital que tous les utilisateurs examinent ces recommandations concernant leurs systèmes dès que possible afin de s'assurer que vous fassiez tout ce qui est nécessaire pour protéger vos données. Chez Lime Technology, nous nous engageons à faire d'Unraid une plateforme sûre et sécurisée pour tous vos contenus numériques personnels, mais notre capacité d'action dans ce domaine est très limité. Au final, c'est vous, en tant qu'utilisateur, qui êtes responsable de vous assurer que votre réseau et les appareils qui s'y trouvent sont conformes aux bonnes pratiques en matière de sécurité.
    2 points
  3. Information: Je crée ce tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Créer un WORDPRESS avec une base de données MySQL Je n'aborderais que la partie installation de WORDPRESS, ce tuto n'est pas destiné à la configuration de WORDPRESS ni de son utilisation. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip du NAS - si vous avez déjà installé le conteneur MariaDB, passé directement à l'étape pour créer un utilisateur dans MariaDB Installation: 1) Installation de MariaDB a) Téléchargement de l'image MariaDB Recherché dans l'onglet "APPS" le conteneur "MariaDB - linuxserver's Repository": b) Paramétrage du conteneur host port 1 = port utilisé pour mariadb MYSQL_ROOT_USER = nom de l'utilisateur avec accès "root" key 3 = mot de passe du l'utilisateur "root_user" MYSQL_USER = nom de l'utilisateur avec accès simple utilisateur MYSQL_PASSWORD = mot de passe utilisateur MYSQL_DATABASE = nom de la base de données AppData_config_path = chemin du conteneur c) Création d'une base de données et d'un utilisateur dans MariaDB Ouvrir la console de commande pour MariadDB: Il va falloir entrer quelques commandes (adapter nom et mot de passe) D'abord, ont ce connecte en utilisateur "root" (avec les identifiants crées au-dessus lors de l'installation du conteneur MariaDB) mysql -uroot -p Le password demandé est celui crée lors de l'installation: key 3 = mot de passe du l'utilisateur "root_user" Créer un utilisateur et un mot de passe (il faut garder les ' qui encadre le nom et mot de passe) CREATE USER 'nom_utilisateur' IDENTIFIED BY 'mdp'; Création d'une base de données pour WORDPRESS: CREATE DATABASE IF NOT EXISTS nom_de_base; Autorisé l'utilisateur à accéder à la base de données: (il faut garder les ' qui encadre le nom et mot de passe) GRANT ALL PRIVILEGES ON nom_de_base.* TO 'nom_utilisateur' IDENTIFIED BY 'mdp'; Puis ont quitte proprement: quit !!! ATTENTION!!! DE BIEN NOTER LES IDENTIFIANTS ET LE NOM DE BASE DE DONNEES QUELQUE PART Si tout ce passe bien vous devez obtenir ceci: 2) Installation de WORDPRESS a) Téléchargement de l'image Recherché dans l'onglet "APPS" le conteneur "WORDPRESS" Kru-X's Repository: b) Paramétrage du conteneur WORDPRESS Conteneur Port = Port utilisé par WORDPRESS www = Chemin du conteneur WORDPRESS WORDPRESS_DB_HOST = IP_DU_NAS + port du conteneur MariaDB WORDPRESS_DB_USER = utilisateur crée dans le conteneur MariaDB WORDPRESS_DB_PASSWORD = mot de passe crée dans le conteneur MariaDB c) Ajout d'une variable au conteneur WORDPRESS on ajoute la variable WORDPRESS_DB_NAME avec le nom de la base de données créé dans le conteneur MariaDB d) Accès Interface WORDPRESS Pour accéder à l'interface WORDPRESS, utiliser: http://IP_DU_NAS:8080 le port choisi lors de l'installation du conteneur ci-dessus (dans mon cas 8080) Si tout ce passe bien vous devez obtenir ceci sur la page du navigateur: FIN
    1 point
  4. So an update. I can tell you that AP's and Switches on this new version(I dont have a USG or any of that stuff) all work fine on this version. No CPU issues or anything and speeds all normal. I am using TAG: version-6.1.71 Firmware for AP's : 4.3.28.11361 Firmware for switch: 5.43.23.12533 All the issues on the forum primarily revolve around the new UI being rubbish, the advert thing and setting either not working in either the classic or the new UI so for some settings you have to use the new UI and some settings you change in the classic UI. Other than that annoyance, which is largely cosmetic, there are not showstoppers. I use the app on my phone a lot and that seems just fine, and any setting not in the phone, I have had no issue on the classic settings on the web UI. So if you dont mind cosmetic problems, and are really just wanting a stable 6 release where your devices dont max their CPU or any of that stuff, Im pretty happy with it overall. No doubt the advert thing is here to stay and over time the UI bugs will be worked out. For me this version works ok, I dont sit poking around the controller all day, as I setup my network a long time ago and its configured how I want. I dont change anything very often and just wanted a stable version of the controller. I might use this one for a while. If you can live with the interface changes then this might be fine for you also. If anyone else wants to test and post feedback that would be great. I probably wont change from this version for a bit as its working for me.
    1 point
  5. Information: Je crée ce tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Le but de ce tuto est de vous montrer comment masquer plusieurs conteneurs DOCKER derrière UNE seule connexion VPN ! En effet, celon le fournisseur VPN vous pouvez être limité à un nombre de connexion. La connexion VPN se fera via le conteneur OpenVPN-Client, Les conteneurs seront alors connectés "sous" le réseau OpenVPN-Client, (ex: chrome, ruTorrent, etc...) Pour finir, nous allons vérifier qu'OpenVPN-Client est toujours connecté et relancer le ou les conteneurs si la connexion est perdue. Le conteneur REBUILD-DNDC sera installé pour surveiller le conteneur OpenVPN-Clien, si la connexion venait à décrocher, REBUILD-DNDC relancera le conteneur OpenVPN-Client ainsi que tous les conteneurs sous le même réseau. PS: mon UNRAID est en français, c'est la version Bêta du coup si vous avez l'interface en anglais je vous laisse adapter les menus. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip de votre routeur - que vous connaissez votre IP public - que vous avez accès depuis votre ordinateur au dossier de stockage des conteneurs (/mnt/user/appdata) - que vous avez un fournisseur VPN (ex: ExpressVPN, NordVPN etc...) - que vous savez récupérer les identifiants OPENVPN de votre fournisseur - que vous savez vous récupérer chez votre fournisseur VPN un fichier ".opvpn" Installation: 1) Installation de OpenVPN-Client a) Téléchargement de l'image OpenVPN-Client b) Paramétrage du conteneur On renomme tout de suite le conteneur: (important pour la suite) Nom = openvpn Valider le conteneur comme cela, il ne démarrera pas en l'état. Nous allons ajouter les fichiers d'identification. c) Ajout des identifiants VPN Depuis votre ordinateur, dans le dossier docker ou à été crée le conteneur OpenVPN-client, avec le bloc-notes créer un fichier nommé "vpn.auth". Ajouter l'un en dessous de l'autre votre Identifiant puis Mot de passe récupéré chez votre fournisseur VPN. d) Ajout du fichier .opvpn Récupérer auprès de votre fournisseur VPN, un fichier pointant vers un serveur de votre fournisseur VPN (.opvpn) Le placer dans le dossier du conteneur avec le fichier "vpn.auth" crée juste avant. e) Démarrer maintenant le conteneur renommé "openvpn" au-dessus: Vérifier que la connexion ce fait correctement. Ouvrir le journal du conteneur "openvpn" si tout ce passe bien, vous devez avoir tout en bas des logs sur la dernière ligne ceci: 2) Création d'un réseau "openvpn" (Il faut que le nom du conteneur VPN ne comporte pas de symbole c'est pour cela que nous l'avons renommé au début du tuto) - Connecté vous en SSH depuis UNRAID: - Entrer la commande suivant : docker network create container:openvpn - si tout va bien vous obtenez ceci: 3) Installation d'un conteneur CHROME Pour le tuto je vais crée un seul conteneur "sous" le réseau openvpn, mais vous pouvez en mettre autant que vous voulez. Le principe de configuration sera le même que pour CHROME. a) Téléchargement de l'image CHROME Rechercher le conteneur "chromium" dans APPS: b) Paramétrage du conteneur - Pour commencer nous allons supprimer la ligne suivant: (le port sera défini après dans le conteneur "openvpn", noté le bien) - Dans "type de réseau" sélectionner "container:openvpn" (réseau crée plus haut en ligne commande) 4) Retour sur le conteneur "openvpn" - Ouvrir le conteneur et ajouter un port correspondant à "chrome" 5) Installation du conteneur "REBUILD-DNDC" C'est bien joli tout ça, nous avons crée une connexion VPN et si la connexion est perdue nos conteneurs ne sont plus accessible. Mais nous pouvons faire encore mieux, le conteneur "REBUILD-DNDC" va tester à intervalle régulier que le conteneur "openvpn" est bien connecté à internet. Et si la connexion est perdue, il va redémarrer le ou les conteneurs masqués derrière le conteneur "openvpn" a) Téléchargement de l'image b) Paramétrage du conteneur Master Container Name = nom du conteneur VPN à tester Master Container Connection Check: = activer la vérification de la connexion Ping IP = IP de votre routeur Ping IP Alt = choisir un DNS (1.1.1.1 DNS Cloudflare) Ping Count = nombre de ping par test Sleep Secs = délai d'attente avant de reconstruire les conteneurs après une perte de connexion VPN CRON Schedule = intervalle de test 6) Vérification que vous êtes bien sous une IP de votre VPN Connecté vous à l'interface de "CHROME" depuis: IP_DU_NAS:8080 et allez sur le site: www.mon-ip.com et vérifier que cela ne correspond pas à votre IP public. FIN
    1 point
  6. si je dis de bêtise. nano cest la commande qui permet d'éditer un fichier en ssh. mais je trouve cela pas pratique quand ont a pas l'habitude
    1 point
  7. Il faut créer un utilisateur dans Unraid avec les mêmes paramêtres Login/Password que la session Windows utilisée. Si mon utilisateur windows était toto avec un mdp zero, il faudrait créer une utilisateur toto / zero dans Unraid. Pour modifier un fichier dans directement depuis Unraid, je crois avoir entendu parler de nano, mais je ne suis pas un pro de linux. Je pense que ça doit se lancer depuis la console (je suis au bureau, pas facile et trop de temps de tester ).
    1 point
  8. Je dirais oui, mais pas forcement pour cette question en particulier. Avec Public tu peux normalement modifier ce fichier. C'est probablement un droit d'accès Linux qui te posait soucis ? Quoi qu'il en soit, je pense que totoleouf a raison et qu'il vaut mieux chercher dans les options / plugins de Nextcloud pour faire ce que tu veux. Là où je pense qu'il faut que tu revois tes réglages c'est que mettre une share en Public c'est un peu dangereux je trouve en général. Je préfère au minimum Secure ou Private pour être tranquille personnellement. L'idée étant de limiter les risques au maximum et ne laisser l'accès R ou R/W que là où c'est nécessaire. Appdata par exemple n'est utile que pour les dockers. Pas nécessaire normalement d'aller dedans depuis son PC, moins encore de modifier les fichiers. Pour des médias, ou des documents ça peut se défendre par contre. Je dirais réflechi bien au réglage sécurity de chaque Share mais aussi les accès individuels de chaque utilisateur. N'importe quelle personne qui se connecte à mon réseau n'a pas besoin de tout voir ou tout pouvoir modifier, même un pote.
    1 point
  9. Salut @Raks et bienvenue sur le forum. Question bête : quels sont les droits de ton utilisateur windows sur le share appdata ?
    1 point
  10. il doit y avoir un problème de droit d'accès, c'est pour cela tu y accède pas. mais je déconseille de tripoter le fichier .htaccess. regarde du côté des extensions il y en a une qui permet de régler la taille d'upload.
    1 point
  11. Wenn Du zB die IP des Containers nicht anpingen kannst, stimmt mMn an der Stelle etwas nicht. Connection refused heisst aber doch wohl, das der Container (IP) erreicht wird, aber der Port nicht aktiviert ist. Kann der ioBroker Adapter (bzw. die installierte Version) mit der neuen, Token basierten Authentifizierungsmethode von influxdb V2 umgehen?
    1 point
  12. I fixed this issue yesterday. I fought the problem the entire day. It turned out to be a bad USB flash drive. I'm not sure when my most recent backup was or where I put the backup. So I created a new flash drive with the Unraid USB Creator. I then copied the config folder from the old drive to the new one. Everything started up and worked fine. What made the issue most confusing was that I thought the problem was somehow something I had caused. After troubleshooting for the entire day I think the flash drive was my issue right from the get go.
    1 point
  13. Don't think there is a thread, and I rarely check here so best bet is add a feature request issue on GitHub and I'll eventually get round to adding it in
    1 point
  14. As long as you work exclusively with direct disk paths, yes, that is the extent of the damage you can do. The real issue that can lose data occurs when you mix /mnt/user paths with direct disk paths, where the exact same physical file shows up in two paths, so moving a file can result in the OS erasing the content of that file. Normally we tell people to avoid disk shares and work exclusively with user shares, but you want to do multiple disk copies at once, so disk to disk is easier to deal with, and as long as you understand how to make user shares by creating root disk folders you should be fine. You can view and read your user shares over the network during this process so you see how things act. Any root disk folder automatically becomes a user share with default public access. You can update that however you wish in the GUI on the shares tab.
    1 point
  15. Thanks mate, is that a 4gb card? That won't work for mining Ethereum because the DAG size is larger than 4gb now ☹️ I mean, you could try setting -daglim to do it: -daglim <n> (AMD Polaris, Baffin, Tonga, or Fiji cards only) Limit the DAG size to <n> MB to allow mining on 4 GB cards a few weeks after epoch 373 on Windows (or 381 on Linux). The possible values except the exact DAG limit are also 0 (turn off the DAG limit), 1 (automatic DAG limit size, usually 4023 MB under Windows; this is the default). Note that the hashrate will drop significantly with each epoch after the DAG limit is in effect. If the hashrate drops too much (e.g. from 28 MH/s to just 2-3 MH/s, you need to use lower value, for example -daglim 3996 or even lower. But I doubt you will get too far because Ethereum is up to (I believe) epoch 404. You might still be able to find a profitable coin to mine with but you'd need to get your hash rate up above around 6MH/s to even break even (based on energy prices in Australia, I have no idea how much energy costs in the UK) You can calculate profitability on a site like this, that's based on US energy prices of course but if you enter your converted cost the formula is the same. @NixonInnes Damn, it was worth a shot. That's a good card, I'm sure you could get way more out of it than what you're getting, but it might make your system unstable if you start pushing it with OC options. My RX 580 is running custom bios, but that's a risk to damaging your GPU. I hope you're mining on both of them 😉
    1 point
  16. Ich schon... Geht nicht. Der Server schläft immer noch
    1 point
  17. Cache filesystem looks fine so far, but the docker image is corrupt, delete and recreate.
    1 point
  18. I applied New Config, set disks 1, 2 and parity correctly, did parity sync and everything is working perfectly again! Thank you for your help!
    1 point
  19. Doing that will indeed set the server's address as static but that particular address is one of the pool of addresses that your DHCP server can allocate to any device that requests one. Therefore it could just as easily allocate it to your phone or tablet or other connected device. If you want to set a static address on your server you need to choose one that isn't in the DHCP server's pool. Suppose, for example that your router address is 192.168.100.1 and the DHCP server's pool consists of the range 192.168.10.2 to 192.168.10.100, then any address between 192.168.10.101 and 192.168.10.254 would be safe to use, as long as it's unique and not allocated to anything else. If you use static addresses then you have to take responsibility for managing them.
    1 point
  20. Yes. It is that easy. Many prefer to assign the static address in the router if that is supported and leave unRAID at DHCP in Network Settings. However, if your router does not support assigning static addresses to clients (most do support this). The way you mentioned is the way to do it in unRAID.
    1 point
  21. Could it be that only the devices connected to NUMA node 0 are being displayed?
    1 point
  22. In most cases, that's a consequence of using a consumer motherboard. Server motherboards handle IOMMU groups much better.
    1 point
  23. I've just had an idea for this. With Squid's Mover Tuning plugin, I have set an exemption for file type '.DS_Store'. Now I'm going to delete all previous .DS-Store files and *hopefully* the new ones will stay on the SSD cache. I'm wondering if this is the root of many Mac users' problems with cache dir.
    1 point
  24. okay, this helps alot! This looks normal. The "Move Now" under the "Mover Settings" in Scheduler, calls the plug-in. This is a change from 6.8 version. Your cache pool is never getting above the 65% limit to initiate a move. So it doesn't move anything. If you want to run the original mover. I added a button in the bottom right of the "Mover Tuning w/Age - Days old" area. Bottom right. This will just call the original mover script that came with unRAID.
    1 point
  25. Thanks, didn't realize the script and gui was only triggered when the password was typed into the users change password interface. Makes sense though.
    1 point
  26. Thank you so much for this very detailed answer.🤩 You pined out the thing I didn't understand as I naturally was willing to point the root domain to a A name. I think I understood how I'm gonna deal with my redirection problems. I hope I'm not gonna break everything especially my Nextcloud setup even though I know I will be able to revert it back. It's gonna be a tweecking sunday for me. Thanks again for all your amazing videos I've learn so much since I start playing with Unraid. You deserve a good sunday 🍺, hopping you'll find an open pub !
    1 point
  27. This just sreams, how Unraid has poor security. How long till we can setup more users and control permissions like on any other linux distro? Will we ever get SFTP of NFSv4 with password protection...
    1 point
  28. I just wanted to say thank you very much for making this as well as the Previous Apps option in CA. It saved my butt tonight!!!
    1 point
  29. I would start with Ich777s ARK container, then when you catch the addiction look at my instructions for spinning up a cluster.
    1 point
  30. No, you need to execute the command for every dataset inside the pool. https://forums.unraid.net/topic/41333-zfs-plugin-for-unraid/?do=findComment&comment=917605 I'm using following script in UserScripts to be executed at "First Start Array only" #!/bin/bash #from testdasi (https://forums.unraid.net/topic/41333-zfs-plugin-for-unraid/?do=findComment&comment=875342) #echo "[pool]/[filesystem] /mnt/[pool]/[filesystem] zfs rw,default 0 0" >> /etc/mtab #just dump everything in for n in $(zfs list -H -o name) do echo "$n /mnt/$n zfs rw,default 0 0" >> /etc/mtab done
    1 point
  31. In all my templates (at least in the ones that I don't forget to set it... ) the settings are never automatically changed and everything is up to the user... Eventually because the template had the option to update itself in it to update itself (this is what I try to avoid and my containers or at least templates should not do that).
    1 point
  32. A short video. PS! Camera man is not druknk. https://share.icloud.com/photos/0vEElS3WvYfirNLSmntb3gxbA
    1 point
  33. It's likely you need to change "data_units_written" to "total_LBAs_written" and add *512 to your math function. not all SSDs have the same names. you should be able to click in the data_units_written field and in the dropdown you should find a synonym
    1 point
  34. I've manually changed the Influxdb to 1.8 That fixed my auth issues. But a could days ago or so I have a notice that there is an update to influxdb. If I set the version for 1.8, why is it still saying there is an update available?
    1 point
  35. Hey guys, ich777's kernel builder solved it for me. He's made it very straight forward: 1. Add the container via community applications and select the options you want. Deselect anything you don't need but mark vendor-reset as true, it will compile a kernel for you 2. Back up your existing kernel just in case (download a dump of your flash drive via the GUI), copy the generated kernel files from the output folder to the root level of the flash drive, overwriting the existing ones. 3. Reboot You'll see the discussion I had with him in that post as well, I had to change to a legacy boot mode to get my Asus RX 580 OC working in VMs but that might depend on your other hardware. It's working fine for me on 6.9.0, I haven't upgraded to 6.9.1 just yet, but I'll be doing that shortly. My understanding is the vendor-reset patch is still technically in Beta, but I'm hoping Unraid devs can move to include it in the kernel soon as it's pretty much impossible to use anything other than brand new AMD GPUs with Unraid otherwise. EDIT: Just upgraded to 6.9.1, still works like a charm with my RX 580.
    1 point
  36. Wie kann ich eine GPU in einer VM nutzen? HVM und IOMMU müssen aktiv sein: Falls einer der Optionen nicht aktiviert ist, findet man diese im BIOS in der Regel unter den folgenden Begriffen: HVM = Intel VT-x bzw AMD-v IOMMU = VT-d, Directed I/O, IOMMU, SVM Falls dort "Not available/Nicht verfügbar" steht, dann ist die Hardware nicht kompatibel. Wenn diese Voraussetzungen erfüllt sind, kann man die GPU inkl dem Audio Controller (und evtl sogar USB) über Werkzeuge (Tools) -> Systemgeräte (System Devices) anklicken und nach einem Neustart ist die GPU an "VFIO gebunden". Damit ist die GPU nicht mehr für Unraid nutzbar und kann von einer VM genutzt werden. Hinweise: Bei Neustart-Problemen kann die Datei "vfio-pci.cfg" vom USB-Stick gelöscht werden um den Vorgang rückgängig zu machen. Wer nur eine GPU verbaut hat, kann danach nicht mehr die Terminal-Ausgabe von Unraid sehen (die Unraid WebGUI im Browser und das dort integrierte WebTerminal ist natürlich nach wie vor erreichbar) Viele Nutzer konnten Neustart-Probleme beheben, in dem sie Unraid eine GPU verwenden lassen zB die iGPU der CPU oder eine GT710, GTX1030, etc Die mehrfache Nutzung einer GPU durch Unraid und einer oder mehrerer VMs ist nicht standardmäßig möglich. Eher zu den neuen Projekten gehört zB das Intel-GVT-g Plugin um die von Unraid verwendete iGPU auch zur Beschleunigung einer VM nutzen zu können. Bei Nvidia GPUs gab es wohl einen Hack, aber ich vermute, dass eine Nutzung in Unraid auch damit nicht möglich wird, da es mit den Enterprise GPUs nur geht, wenn man ein kompatibles Betriebssystem verwendet. Sofern euch also die Leistung einer Intel iGPU nicht reicht, wäre Stand heute eine dGPU pro VM notwendig. Allerdings kann man sie im Wechsel verwenden. Also eine VM herunterfahren und die nächste mit der selben dGPU wieder hochfahren. Das geht. Fährt man eine VM herunter oder schickt sie in den Standby, geht die GPU nicht schlafen. Im Gegenteil. Ihr Stromverbrauch steigt deutlich an. Daher lohnt es sich eigentlich nicht die VM herunterzufahren. In einer VM spielen ist möglich, beachtet aber bitte, dass manche Spiele einen Anti-Cheat-Mechanismus verwenden, der das Spielen in einer VM verbietet. zB alle Spiele, die mit BattlEye geschützt werden, gelten als inkompatibel. Am besten mit einer Suchmaschine eurer Wahl nach dem Spielnamen und "Unraid VM" suchen. es gibt Nutzer, die mit inoffiziellen Plugins die Nutzung von MacOS in einer VM ernöglichen. Apple hat sich meines Wissens nach hier bisher nicht zu Wort gemeldet, aber manche Nutzer vermuten, dass es gegen die Lizenzrechte verstößt. Es kann also gehen, muss aber nicht legal sein und keinesfalls wird es offiziell von Unraid unterstützt. Da es schon Beschwerden gab, weil so eine VM nicht lief, muss ich das einfach erwähnen.
    1 point
  37. @BVD Thanks for this! Mellanox ConnectX-2 Firmware Upgrade / unRAID config for SR-IOV Don't buy these cards! (see post below). I already had a handful of these so I wanted to make use of them. If you're in the same boat, or you can get them very cheap, then below are my notes for getting them to work. SR-IOV is not supported by these cards as sold and requires reconfiguration/firmware update to a version beyond anything supported by Mellanox. Your mileage may vary. Some of what's below is repeating @BVD's post, but I thought it might be useful to have a set of complete steps to get this working specifically for Mellanox adapters. I believe these should be the same steps for ConnectX-3 cards, they may not need the firmware update though. If you want to upgrade firmware on them, make sure you use fw-ConnectX3-rel.mlx instead! Mellanox firmware updating is a bit janky and Mellanox/nVidia sure as hell don't make it easy to find firmware downloads for unsupported adapters. These are my notes from doing this on a Windows machine for MNPA19-XTR ConnectX-2 adapters. Grab latest firmware fw-ConnectX2-rel-2_10_0720.zip from: https://drive.google.com/open?id=1Vdaup5hDYW9XItEaVqDDeJDMxlk0dp-B (not my link, PM me if it stops working) Extract the zip to a folder, open a command prompt as Administrator, and cd to that folder. mst status This should return something like: MST devices: ------------ mt26448_pciconf0 mt26448_pci_cr0 We're interested in the second device name, mt26448_pci_cr0. If you mess something up, you may be able to recover the card by flashing your firmware backup. You may have to restore your backup firmware to the first device instead of the second device (worked for me) Backup current firmware to backup.bin: mstflint -d mt26448_pci_cr0 ri backup.bin Read the current configuration of the card and store it in backup.ini mstflint -d mt26448_pci_cr0 dc > backup.ini Make a copy of backup.ini called sriov.ini. In the copy, insert this at the bottom of the [HCA] section: num_pfs = 1 total_vfs = 64 sriov_en = true Now create firmware image firmware-sriov.bin based on the latest firmware file + your modified configuration: mlxburn -fw fw-ConnectX2-rel.mlx -conf sriov.ini -wrimage firmware-sriov.bin Write this firmware to the device ID that you identified previously - in my case this is mt26448_pci_cr0 mstflint -d mt26448_pci_cr0 -i firmware-sriov.bin b Reboot You should see FW version 2.10.720 with this command: flint -d mt26448_pci_cr0 query The card should now support SR-IOV (as well as RDMA, RSS, etc) unRAID configuration I couldn't get either of @BVD's methods for enabling VFs to work. As of unRAID 6.9 we can now issue commands to kernel modules via files in /boot/config/modprobe.d In unRAID Tools / System Devices, check the vendor/device ID and confirm the kernel driver used is mlx4_core: lspci -vv -d 15b3:6750 | grep -A 2 'Kernel driver' Kernel driver in use: mlx4_core Kernel modules: mlx4_core Create this file: /boot/config/modprobe.d/mlx4_core.conf with: options mlx4_core num_vfs=8 Reboot. Bind to vfio on startup Option 1 - unRAID GUI In unRAID Tools \ System Devices, select all the "Virtual Function" devices and click Bind Selected to vfio at boot If we do nothing else, this will fail because vfio-pci script is run before device drivers are loaded as noted here Tell unRAID to re-run the vfio-pci script again (but after device drivers have loaded) by calling it in the /boot/config/go file: # Relaunch vfio-pci script to bind virtual function adapters that didn't exist at boot time /usr/local/sbin/vfio-pci >>/var/log/vfio-pci Reboot. If you check Tools \ System Devices \ View vfio logs, you should see the first run where the bindings failed, and then a second run where the bindings succeeded. Option 2 - Manual Check the pcie addresses of the VIrtual Function devices: lspci | grep Mellanox 03:00.0 Ethernet controller: Mellanox Technologies MT26448 [ConnectX EN 10GigE, PCIe 2.0 5GT/s] (rev b0) 03:00.1 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.2 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.3 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.4 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.5 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.6 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.7 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:01.0 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) Install the script to bind the virtual functions to vfio-pci: wget 'https://raw.githubusercontent.com/andre-richter/vfio-pci-bind/master/vfio-pci-bind.sh'; mv vfio-pci-bind.sh /boot/config/ BVD refers to using "User Scripts" to run the bind commands. There may be a good reason for that, but I ended up just adding these to /boot/config/go sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.1 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.2 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.3 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.4 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.5 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.6 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.7 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:01.1 Permanent MAC addresses Assuming your SR-IOV-enabled network interface is eth0: ip link show dev eth0 13: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether 00:02:c9:55:ba:e6 brd ff:ff:ff:ff:ff:ff vf 0 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 1 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 2 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 3 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 4 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 5 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 6 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 7 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto If the virtual function has a MAC address of 00:00:00:00:00:00, it will be assigned a random MAC address that will change on subsequent reboots. Add something like this to assign MAC addresses in /boot/config/go ip link set eth0 vf 0 mac 00:25:8b:ff:01:00 ip link set eth0 vf 1 mac 00:25:8b:ff:01:01 ip link set eth0 vf 2 mac 00:25:8b:ff:01:02 ip link set eth0 vf 3 mac 00:25:8b:ff:01:03 ip link set eth0 vf 4 mac 00:25:8b:ff:01:04 ip link set eth0 vf 5 mac 00:25:8b:ff:01:05 ip link set eth0 vf 6 mac 00:25:8b:ff:01:06 ip link set eth0 vf 7 mac 00:25:8b:ff:01:07 As far as I'm aware, it doesn't matter too much what MAC addresses you choose (as long as they don't conflict with other devices on your network). To satisfy my OCD, I looked up Mellanox here, and assigned MACs with one of those prefixes. This way the VMs assigned a virtual function device will show up as a Mellanox adapter to other devices on the network: It seems like Windows 10 / Server 2019 have built-in drivers for Mellanox virtual function devices, though you can install the latest Win-OF (not Win-OF2) drivers. https://www.mellanox.com/products/adapter-software/ethernet/windows/winof-2 ie. current version is 5.50.54000 for Server 2019, or 5.50.53000 for Windows 10/2016/2012R2, etc. As with the updated firmware, these drivers aren't advertised as supporting ConnectX-2 cards, but they work (for now). Your mileage may vary!
    1 point
  38. I guess it finally caught up to all of us. Here are the answers from the faq:
    1 point
  39. brawny had the answer in another thread that helped me. put simply, check Local IPv4 address, under status and interface options (the wrench) in sabnzbd and make sure that they are the same for sonarr and radarr. While you are at it ensure that you haven't changed/generated a new API key as I had, while trying to fix the issue. Good Luck Chas
    1 point
  40. 在启动U盘里面找到config-vfio-pci.cfg,用notepad++等软件编辑去掉网卡数字,或者直接删除掉vfio-pci.cfg,插回U盘启动。
    1 point
  41. To prevent misunderstanding, it is best to make the deliberate effort to change the way we are thinking and talking about pools. Up to 6.8.3 there was only one pool and the named was fixed : cache. Even if the caching functionality was not use, and/or it had other use case. One of the thing that can help make it clear for you in your use case is to chose the names of the pools so it is clearly understandable for you. And maybe not use the name cache at all. One thing that can help understand is to go back the configuration and the possibilities. For each Share, you can selection a pool association (pool A, pool B, etc.) and the expected behavior (No / Yes / Prefer / Only). I do think that the Option names could be changed in order not to induce this confusion on the Share page. From your post, you want a pool for your static data (appdata, etc) and one for temporary files (torrents, etc.) My advice, create two pools: the first named static (or whatever name makes the most sense to you) with your 1TB the second named scratch (or whatever name makes the most sense to you) with your 500GB Then, on a share by share basis, decide what pool to associate and the way the pool shall work with this share. Some examples to help you: appdata share set to static pool and Use cache pool set to Only (potentially to Prefer). This way it stays there. torrent share set to scratch pool and Use cache pool set to Prefer (or Only). This way the downloads and temporary files stay on scratch unless this gets too large. When the download and sharing phase is done, the files can be moved to the appropriate Media share (below). Media share set to scratch pool and Use cache pool set to Yes. This way, the files stay on the share until the Mover is scheduled. I hope this is clearer. If not, ask for details. If you need help to get from your actual setup to something like this and you are not sure how, do not hesitate to ask.
    1 point
  42. In case anyone finds this thread like i did looking for a solution. There is a round about way to do this, https://knowledgebase.macrium.com/display/KNOW7/Restore+to+VHD
    1 point
  43. Hello, we have our backups done mainly through Macrium Reflect cloning software and all images are in .mrimg file. Anyone knows the fastest procedure to mount those images as VM? Ideally, we would be able to just boot from those images directly - something that MacriumViBoot is able to do through Hyper-V. What would the options be? Thanks in advance!
    1 point
  44. I'm new to UnRAID having used it for about a week now. I found this link telling me how to remove a drive from my array: https://www.lime-technology.com/wiki/index.php/Replacing_Multiple_Data_Drives_with_a_Single_Larger_Drive I'm at the point where I've removed the drive I wanted to remove (after rsync'ing the data to another drive)... The linked procedure says "Use New Config to unassign removed drive(s)." Where is this in the webGUI? I've unassigned the drive, but the option I get for Array Operation is: "Start will disable the missing disk and then bring the array on-line. Install a replacement disk as soon as possible." I don't want to start it with UnRAID assuming I want to eventually replace the missing disk. How do a new a "new config"? Is this terminology from an older version of UnRAID? Edit: Nevermind! I found it under Tools. I should have just looked around a bit more before posting. Sorry!
    1 point
  45. ok - I got it working by using and XMLTV feed as you can't channel map if using emby's EPG. what a bloody palava - who knew simply filtering and channel mapping an m3u feed was going to be soooooooo overly complicated and such a pita.?
    1 point
  46. I was able to fix the greyed out "extend partition" in Windows 10 by downloading a free third party partition tool for windows. Odd that Windows disk manager cant address the issue but a free tool can.
    1 point
  47. Have you tried to use http://kb.macrium.com/KnowledgebaseArticle50005.aspx?Keywords=VHD and then convert the VHD to IMG with something like qemu-img convert -f vpc -O raw lamp-3-x86.vhd lamp.raw ?
    1 point
  48. The drive is fine! That usually indicates an issue with the SATA cable or connectors, so I would replace the cable with a good one, and check ALL cable connections (both ends of the cables) for tight connections. It's also possible there was a power glitch. CRC errors just indicate that a corrupted packet was detected, and they're always re-sent. A CRC error does not usually cause a disabled drive. I suspect something else happened, and the evidence may be in the syslog that covered that moment. Maybe there was a BIG power glitch!
    1 point