Leaderboard

Popular Content

Showing content with the highest reputation on 03/29/21 in all areas

  1. Je reprends le message d'avertissement de @jonp qui mérite d'être aussi diffusé en français. Vous trouverez le sujet d'origine ici : https://forums.unraid.net/topic/104669-warning-unraid-servers-exposed-to-the-internet-are-being-hacked/ Bonjour à la communauté Unraid ! Ces derniers jours, nous avons constaté une augmentation significative du nombre de serveurs Unraid compromis en raison de pratiques de sécurité insuffisantes. Le but de ce post est d'aider notre communauté à contrôler que leurs serveurs sont sécurisés et de fournir des recommandations utiles sur les bonnes pratiques pour s'assurer que votre système ne devienne pas une autre victime. Nous vous invitons à consulter les recommandations ci-dessous sur votre/vos serveur(s) afin de vous assurer qu'ils sont sécurisés. Choisissez un mot de passe root robuste Comme pour de nombreux routeurs, les systèmes Unraid n'ont pas de mot de passe par défaut. Cela permet de s'assurer que vous pouvez rapidement et facilement accéder à la console de gestion immédiatement après l'installation du système. Cependant, cela ne signifie pas que vous ne devez pas en définir un. C'est très simple. Il suffit de naviguer dans l'onglet Utilisateurs et de cliquer sur root. Définissez ensuite un mot de passe. À partir de là, vous devrez vous authentifier à chaque fois que vous voudrez vous connecter au webGUI. En complément, il existe un plugin disponible dans Community Applications appelé Dynamix Password Validator. Ce plugin fournit des indications sur la robustesse du mot de passe que vous créez en se basant sur des règles de complexité (le nombre de lettres majuscules et minuscules, de chiffres, de symboles et la longueur totale du mot de passe sont utilisés pour en juger). Pensez à l'installer pour obtenir des conseils supplémentaires sur la robustesse des mots de passe. Examinez les mappages de ports sur votre routeur La redirection de ports vers votre serveur est nécessaire pour certains services spécifiques que vous souhaitez rendre accessibles par Internet, tels que Plex, les serveurs FTP, les serveurs de jeux, les serveurs VoIP, etc. Mais la redirection vers de mauvais ports peut exposer votre serveur à un important risque de sécurité. Voici quelques ports auxquels vous devez faire très attention lors de la redirection : Port 80 : Utilisé pour accéder au webGUI sans SSL (sauf si vous avez défini l'accès à un autre port sur la page des paramètres d'accès de gestion). NE PAS rediriger le port 80. La redirection de ce port par défaut vous permettra d'accéder au webGUI à distance, mais sans SSL pour sécuriser la connexion, les équipements entre votre navigateur et le serveur pourraient " sniffer " les paquets pour voir ce que vous faites. Si vous voulez rendre le webGUI accessible à distance, installez le plugin Unraid.net pour activer Mes Serveurs sur votre système, ce qui peut fournir une solution d'accès à distance sécurisée qui utilise le SSL pour assurer que votre connexion est entièrement cryptée. Port 443 : Utilisé pour accéder au webGUI avec SSL. Ce port n'est préférable au port 80 que si vous avez défini un mot de passe root. Si aucun mot de passe root n'est défini et que vous redirigez ce port, des utilisateurs non autorisés peuvent se connecter à votre webGUI et avoir un accès complet à votre serveur. En outre, si vous transférez ce port sans utiliser le plugin Unraid.net et My Servers, les tentatives de connexion au webGUI via un navigateur présenteront un avertissement de sécurité en raison de l'absence d'un certificat SSL. Envisagez de vous faciliter la vie et d'utiliser Unraid.net avec My Servers pour permettre un accès à distance simple, sûr et sécurisé à vos systèmes Unraid. NOTA : Lorsque vous configurez l'accès à distance dans My Servers, nous vous recommandons fortement de choisir un port quelconque au-dessus de 1000 plutôt que d'utiliser le port 443 par défaut. Port 445 : Utilisé pour SMB (partages). Si vous redirigez ce port vers votre serveur, tout partage public peut être connecté à n'importe quel utilisateur sur Internet. D'une manière générale, il n'est jamais conseillé d'exposer les partages SMB directement sur Internet. Si vous avez besoin de pouvoir accéder à vos partages à distance, nous vous suggérons d'utiliser un VPN de type Wireguard pour créer un tunnel sécurisé entre votre appareil et le serveur. En outre, si le disque flash lui-même est exposé à l'aide de SMB et que ce port est redirigé, son contenu peut facilement être supprimé et la clé que vous avez payée peut facilement être dérobée. Évitez tout simplement de le faire. Port 111/2049 : Utilisé pour NFS (partages). Bien que NFS soit désactivé par défaut, si vous utilisez ce protocole, assurez-vous de ne pas rediriger ces ports par votre routeur. Comme pour SMB, il suffit d'utiliser Wireguard pour créer un tunnel sécurisé à partir de tout périphérique distant qui doit se connecter au serveur via NFS. Port 22/23 : Utilisé par Telnet et SSH pour l'accès à la console. C'est particulièrement dangereux pour les utilisateurs qui n'ont pas de mot de passe root. Comme pour SMB, nous ne recommandons pas de rediriger ces ports du tout, mais plutôt de suggérer aux utilisateurs d'utiliser une connexion VPN Wireguard pour se connecter à l'aide de l'un de ces protocoles. Ports de la plage 57xx : Ces ports sont généralement utilisés par les VM pour l'accès VNC. Bien que vous puissiez rediriger ces ports pour permettre l'accès VNC à distance pour vos VM, la meilleure et plus facile façon de le faire est d'installer le plugin Unraid.net et d'activer Mes Serveurs. Cela garantit que ces connexions sont sécurisées via SSL et ne nécessite pas le transfert de ports individuels pour chaque VM. En règle générale, vous ne devriez pas avoir besoin de rediriger beaucoup de ports vers votre serveur. Si vous voyez une règle de transfert que vous ne comprenez pas, essayez de la supprimer, voyez si les utilisateurs se plaignent, et si c'est le cas, vous pouvez toujours la remettre en place. Ne mettez jamais et au grand jamais votre serveur dans la DMZ Même si vous pensez avoir parfaitement sécurisé votre serveur, il n'est jamais recommandé de le placer dans la zone démilitarisée de votre réseau. En faisant cela, vous redirigez chaque port de votre adresse IP publique vers votre serveur et tous les services accessibles localement sont également accessibles à distance. Même si vous pensez avoir sécurisé votre serveur, le placer dans la zone démilitarisée l'expose à des risques inutiles. Ne faites jamais ça. Envisagez de régler vos partages en mode 'privé' avec des noms d'utilisateurs et des mots de passe. L'accès aux partages sans mot de passe est très pratique. Nous le savons et c'est pourquoi nous ne vous obligeons pas à définir des mots de passe pour vos partages. Cependant, il y a un risque de sécurité pour vos données lorsque vous faites ça, même si vous ne transférez pas de ports vers votre serveur et que vous avez un mot de passe root fort. Si la sécurité d'un autre appareil de votre réseau, tel qu'un PC, un Mac, un téléphone, une tablette, un appareil IoT, etc. était compromise, il pourrait être utilisé pour établir une connexion locale aux partages de votre serveur. Par défaut, les partages sont configurés pour être accessibles en lecture/écriture de façon publique, ce qui signifie que ces appareils malveillants peuvent être utilisés pour dérober, supprimer ou chiffrer les données qu'ils contiennent. En outre, des utilisateurs malveillants pourraient également utiliser cette méthode pour placer sur votre serveur des données que vous ne souhaitiez pas. Pour ces raisons, si vous devez créer des partages publics, nous vous recommandons fortement de définir l'accès en lecture seule. Seuls les utilisateurs autorisés disposant d'un mot de passe fort doivent être en mesure d'écrire des données sur vos partages. Ne partagez pas votre clé USB, et si vous le faites, faites en sorte qu'elle soit sécurisée. La clé USB elle-même peut être exposée via SMB. C'est pratique si vous devez effectuer des modifications complexes sur votre système, comme modifier le fichier go dans le répertoire de configuration. Cependant, le périphérique flash lui-même contient les fichiers nécessaires pour démarrer Unraid ainsi que vos données de configuration (affectations de disque, partages, etc). Exposer ce contenu publiquement peut être extrêmement dangereux, aussi nous vous déconseillons de le faire à moins que ce ne soit absolument indispensable, et lorsque vous le faites, il est conseillé de le faire de manière sécurisée, en demandant un nom d'utilisateur et un mot de passe pour voir et modifier le contenu. Tenez votre serveur à jour Indépendamment des autres mesures que vous prenez, il est essentiel de maintenir votre serveur à jour avec la ou les dernières versions pour garantir sa sécurité. Il y a constamment des notifications de sécurité (CVEs) publiées pour les différents composants utilisés dans Unraid OS. Chez Lime Technology, nous faisons de notre mieux pour nous assurer que toutes les vulnérabilités sont corrigées en temps voulu par des mises à jour logicielles. Toutefois, ces mises à jour ne vous seront d'aucune utilité si vous ne les appliquez pas également en temps voulu. Il est simple de maintenir votre système d'exploitation à jour. Il suffit de naviguer dans Outils > Mise à jour du système d'exploitation pour vérifier la présence de mises à jour et les appliquer. Vous pouvez configurer des notifications pour vous avertir lorsqu'une nouvelle mise à jour est disponible à partir de la page Paramètres > Notifications. Autres recommandations de bonnes pratiques Configurez et utilisez WireGuard, OpenVPN ou nginxProxyManager pour un accès distant sécurisé à vos partages. Pour la configuration de WireGuard, voir ce tutoriel très pratique. Configurez le 2FA sur votre compte Unraid Forum. Configurez un serveur Syslog à distance. Installez le plugin Fix Common Problems. L'installation de ce plugin vous alertera en cas de multiples tentatives de connexion échouées et bien plus encore. Changez le mot de passe de votre modem pour quelque chose d'autre que le mot de passe par défaut. Envisagez d'installer ClamAV. En plus de toutes les recommandations ci-dessus, nous avons demandé à SpaceInvaderOne de préparer une vidéo avec encore plus de détails sur les bonnes pratiques liées à la sécurité d'Unraid. Nous posterons un lien dès que la vidéo sera disponible pour vous permettre de voir ce qu'il y a de plus à faire pour améliorer la sécurité de votre système. Il est vital que tous les utilisateurs examinent ces recommandations concernant leurs systèmes dès que possible afin de s'assurer que vous fassiez tout ce qui est nécessaire pour protéger vos données. Chez Lime Technology, nous nous engageons à faire d'Unraid une plateforme sûre et sécurisée pour tous vos contenus numériques personnels, mais notre capacité d'action dans ce domaine est très limité. Au final, c'est vous, en tant qu'utilisateur, qui êtes responsable de vous assurer que votre réseau et les appareils qui s'y trouvent sont conformes aux bonnes pratiques en matière de sécurité.
    2 points
  2. and because I did my time in purgatory waiting for like 2 months for this while on the previous version that sucked so you guys can try the next one and take one for the team.
    2 points
  3. Hello, we have our backups done mainly through Macrium Reflect cloning software and all images are in .mrimg file. Anyone knows the fastest procedure to mount those images as VM? Ideally, we would be able to just boot from those images directly - something that MacriumViBoot is able to do through Hyper-V. What would the options be? Thanks in advance!
    1 point
  4. I'm new to UnRAID having used it for about a week now. I found this link telling me how to remove a drive from my array: https://www.lime-technology.com/wiki/index.php/Replacing_Multiple_Data_Drives_with_a_Single_Larger_Drive I'm at the point where I've removed the drive I wanted to remove (after rsync'ing the data to another drive)... The linked procedure says "Use New Config to unassign removed drive(s)." Where is this in the webGUI? I've unassigned the drive, but the option I get for Array Operation is: "Start will disable the missing disk and then bring the array on-line. Install a replacement disk as soon as possible." I don't want to start it with UnRAID assuming I want to eventually replace the missing disk. How do a new a "new config"? Is this terminology from an older version of UnRAID? Edit: Nevermind! I found it under Tools. I should have just looked around a bit more before posting. Sorry!
    1 point
  5. 配置 i3-10100 + B460M AORUS PRO + i350 t4 ,unraid版本6.9 pcie acs override设置为downstream的情况下,i350的4个网口依然在同一个IOMMU group下,不能分配给多个虚拟机使用。 目前蓝冰血魄大佬的最新版IOMMU分组补丁还没出,不清楚打了补丁是否有用。6.8.1/2版本的补丁是有效的,既然可以在软件层面解决问题,官方是否可以直接解决。 请问还有没有其他的解决方案。 ------------------------------------------------------ 补充一下,6.9.1系统下使用蓝冰血魄大佬的“unRAIDServer-6.9.1-iommu分组”补丁,可以将非CPU直出插槽的i350四个网口分组。
    1 point
  6. I am still kinda confused, how does dual parity work. Does it really mean, that having unRAID use dual parity I could recover from ANY 2 drives failing? Like they say, a picture is worth a thousand words...
    1 point
  7. Information: Je crée ce tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Le but de ce tuto est de vous montrer comment masquer plusieurs conteneurs DOCKER derrière UNE seule connexion VPN ! En effet, celon le fournisseur VPN vous pouvez être limité à un nombre de connexion. La connexion VPN se fera via le conteneur OpenVPN-Client, Les conteneurs seront alors connectés "sous" le réseau OpenVPN-Client, (ex: chrome, ruTorrent, etc...) Pour finir, nous allons vérifier qu'OpenVPN-Client est toujours connecté et relancer le ou les conteneurs si la connexion est perdue. Le conteneur REBUILD-DNDC sera installé pour surveiller le conteneur OpenVPN-Clien, si la connexion venait à décrocher, REBUILD-DNDC relancera le conteneur OpenVPN-Client ainsi que tous les conteneurs sous le même réseau. PS: mon UNRAID est en français, c'est la version Bêta du coup si vous avez l'interface en anglais je vous laisse adapter les menus. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip de votre routeur - que vous connaissez votre IP public - que vous avez accès depuis votre ordinateur au dossier de stockage des conteneurs (/mnt/user/appdata) - que vous avez un fournisseur VPN (ex: ExpressVPN, NordVPN etc...) - que vous savez récupérer les identifiants OPENVPN de votre fournisseur - que vous savez vous récupérer chez votre fournisseur VPN un fichier ".opvpn" Installation: 1) Installation de OpenVPN-Client a) Téléchargement de l'image OpenVPN-Client b) Paramétrage du conteneur On renomme tout de suite le conteneur: (important pour la suite) Nom = openvpn Valider le conteneur comme cela, il ne démarrera pas en l'état. Nous allons ajouter les fichiers d'identification. c) Ajout des identifiants VPN Depuis votre ordinateur, dans le dossier docker ou à été crée le conteneur OpenVPN-client, avec le bloc-notes créer un fichier nommé "vpn.auth". Ajouter l'un en dessous de l'autre votre Identifiant puis Mot de passe récupéré chez votre fournisseur VPN. d) Ajout du fichier .opvpn Récupérer auprès de votre fournisseur VPN, un fichier pointant vers un serveur de votre fournisseur VPN (.opvpn) Le placer dans le dossier du conteneur avec le fichier "vpn.auth" crée juste avant. e) Démarrer maintenant le conteneur renommé "openvpn" au-dessus: Vérifier que la connexion ce fait correctement. Ouvrir le journal du conteneur "openvpn" si tout ce passe bien, vous devez avoir tout en bas des logs sur la dernière ligne ceci: 2) Création d'un réseau "openvpn" (Il faut que le nom du conteneur VPN ne comporte pas de symbole c'est pour cela que nous l'avons renommé au début du tuto) - Connecté vous en SSH depuis UNRAID: - Entrer la commande suivant : docker network create container:openvpn - si tout va bien vous obtenez ceci: 3) Installation d'un conteneur CHROME Pour le tuto je vais crée un seul conteneur "sous" le réseau openvpn, mais vous pouvez en mettre autant que vous voulez. Le principe de configuration sera le même que pour CHROME. a) Téléchargement de l'image CHROME Rechercher le conteneur "chromium" dans APPS: b) Paramétrage du conteneur - Pour commencer nous allons supprimer la ligne suivant: (le port sera défini après dans le conteneur "openvpn", noté le bien) - Dans "type de réseau" sélectionner "container:openvpn" (réseau crée plus haut en ligne commande) 4) Retour sur le conteneur "openvpn" - Ouvrir le conteneur et ajouter un port correspondant à "chrome" 5) Installation du conteneur "REBUILD-DNDC" C'est bien joli tout ça, nous avons crée une connexion VPN et si la connexion est perdue nos conteneurs ne sont plus accessible. Mais nous pouvons faire encore mieux, le conteneur "REBUILD-DNDC" va tester à intervalle régulier que le conteneur "openvpn" est bien connecté à internet. Et si la connexion est perdue, il va redémarrer le ou les conteneurs masqués derrière le conteneur "openvpn" a) Téléchargement de l'image b) Paramétrage du conteneur Master Container Name = nom du conteneur VPN à tester Master Container Connection Check: = activer la vérification de la connexion Ping IP = IP de votre routeur Ping IP Alt = choisir un DNS (1.1.1.1 DNS Cloudflare) Ping Count = nombre de ping par test Sleep Secs = délai d'attente avant de reconstruire les conteneurs après une perte de connexion VPN CRON Schedule = intervalle de test 6) Vérification que vous êtes bien sous une IP de votre VPN Connecté vous à l'interface de "CHROME" depuis: IP_DU_NAS:8080 et allez sur le site: www.mon-ip.com et vérifier que cela ne correspond pas à votre IP public. FIN
    1 point
  8. Here is my build, which started very modest a few years back. On the right side of the chassie Unraid Server build on a workstation xeon mainboard: unRAID 6.91 Pro CPU: 2 x Xeon Gold 6226R Motherboard: Asus C621E Sage RAM: 4 x 32 GB Samsung DDR4-2933 RDIMM PC4-23466R Dual Rank x4 Module Case: Lian Li DK-05F Drive Cage(s): 2 x 3 HDD cages Power Supply: CORSAIR AX1600i SATA Expansion Card(s): Using the motherboard NIC: Mellanox MCX314A Cables: ...of God..... Radioators: 1 x EK 480 and 1 x EK 360 Fans: 4 x EK-Meltemi 120ER and 3 x EK-Vardar X3M 120ER D-RGB Parity Drive: 18TB Seagate ST18000NM000J-2TV103 Data Drives: 3x 10TB details later Cache Drive: 4 x Corsair MP510 960GB. Total Drive Capacity: 30TB in the Array. Primary Use: Data storage, Plex streaming, Roon Server, FaH. Likes: No need for apartment heating. Dislikes: No need for apartment heating. Add Ons Used: Details later Future Plans: An AMD Ryzen Threadripper Pro build maybe. In the left side is the Game Machine: Windows 10 Pro CPU: Ryzen 9 3950X Motherboard: Asus ROG Crosshair VIII Hero RAM: 4 x 8 GB (4000Mhz) GPU: Zotac RTX 2080-ti water-cooled Case: Lian Li DK-05F Power Supply: XILENCE Performance X 1250 Watt SATA Expansion Card(s): Using the motherboard Cables: ...of God..... Radioators: 1 x EK 480 and 1 x EK 360 Fans: 4 x EK-Meltemi 120ER and 3 x EK-Vardar X3M 120ER D-RGB OS drive: Samsung 980 Pro NVMe SSD. Data Drives: Samsung 970 Pro NVMe SSD. Primary Use: Gaming, more specific Dirt Rally 2., checking what mining is. FoldingHome. Likes: It works great. Dislikes: Original plan was run run a Game VM on the unRAID server, but I had trouble with the wheel. Which turned out to be the wheel and not the VM. Plex setup: I have setup a Supermicro SuperWorkstation 7049A-T (Mini) as a file server running Windows Server 2019. The content is stored on a 3 tier Storage Spaces share. 2 x 1 TB NVme ssd as cache, 8 TB SSD and 2 x 10 TB. Mini is connected directly to the Unraid server with Mellanox MCX314A-40Gb. I am running a Plex container and Quadro RTX4000 for transcoding. I have followed @mgutt setup for Plex transcoding in RAM. Plex media library is a "remote" share, which is the media share on Mini connected with 40Gb NIC´s. Plex is crisp. Cheers, Frode
    1 point
  9. So an update. I can tell you that AP's and Switches on this new version(I dont have a USG or any of that stuff) all work fine on this version. No CPU issues or anything and speeds all normal. I am using TAG: version-6.1.71 Firmware for AP's : 4.3.28.11361 Firmware for switch: 5.43.23.12533 All the issues on the forum primarily revolve around the new UI being rubbish, the advert thing and setting either not working in either the classic or the new UI so for some settings you have to use the new UI and some settings you change in the classic UI. Other than that annoyance, which is largely cosmetic, there are not showstoppers. I use the app on my phone a lot and that seems just fine, and any setting not in the phone, I have had no issue on the classic settings on the web UI. So if you dont mind cosmetic problems, and are really just wanting a stable 6 release where your devices dont max their CPU or any of that stuff, Im pretty happy with it overall. No doubt the advert thing is here to stay and over time the UI bugs will be worked out. For me this version works ok, I dont sit poking around the controller all day, as I setup my network a long time ago and its configured how I want. I dont change anything very often and just wanted a stable version of the controller. I might use this one for a while. If you can live with the interface changes then this might be fine for you also. If anyone else wants to test and post feedback that would be great. I probably wont change from this version for a bit as its working for me.
    1 point
  10. If you have a way to create these call traces on demand that would be helpful (of course we need diagnostics to further investigate). I have host access enabled but don't have any of these call traces, and as such it is hard to reproduce the issue for me. In the next Unraid version some more conntrack modules will be loaded, it would hopefully help to tackle the problem in more detail.
    1 point
  11. si je dis de bêtise. nano cest la commande qui permet d'éditer un fichier en ssh. mais je trouve cela pas pratique quand ont a pas l'habitude
    1 point
  12. Il faut créer un utilisateur dans Unraid avec les mêmes paramêtres Login/Password que la session Windows utilisée. Si mon utilisateur windows était toto avec un mdp zero, il faudrait créer une utilisateur toto / zero dans Unraid. Pour modifier un fichier dans directement depuis Unraid, je crois avoir entendu parler de nano, mais je ne suis pas un pro de linux. Je pense que ça doit se lancer depuis la console (je suis au bureau, pas facile et trop de temps de tester ).
    1 point
  13. Je dirais oui, mais pas forcement pour cette question en particulier. Avec Public tu peux normalement modifier ce fichier. C'est probablement un droit d'accès Linux qui te posait soucis ? Quoi qu'il en soit, je pense que totoleouf a raison et qu'il vaut mieux chercher dans les options / plugins de Nextcloud pour faire ce que tu veux. Là où je pense qu'il faut que tu revois tes réglages c'est que mettre une share en Public c'est un peu dangereux je trouve en général. Je préfère au minimum Secure ou Private pour être tranquille personnellement. L'idée étant de limiter les risques au maximum et ne laisser l'accès R ou R/W que là où c'est nécessaire. Appdata par exemple n'est utile que pour les dockers. Pas nécessaire normalement d'aller dedans depuis son PC, moins encore de modifier les fichiers. Pour des médias, ou des documents ça peut se défendre par contre. Je dirais réflechi bien au réglage sécurity de chaque Share mais aussi les accès individuels de chaque utilisateur. N'importe quelle personne qui se connecte à mon réseau n'a pas besoin de tout voir ou tout pouvoir modifier, même un pote.
    1 point
  14. Salut @Raks et bienvenue sur le forum. Question bête : quels sont les droits de ton utilisateur windows sur le share appdata ?
    1 point
  15. il doit y avoir un problème de droit d'accès, c'est pour cela tu y accède pas. mais je déconseille de tripoter le fichier .htaccess. regarde du côté des extensions il y en a une qui permet de régler la taille d'upload.
    1 point
  16. They are usually fine, I have several myself, but there's an unusually high number of SMART "seek rate error" failing now reported errors, but like mentioned it's not limited to Unraid, possibly a firmware issue, since most times the raw value returns to normal after a power cycle.
    1 point
  17. Wenn Du zB die IP des Containers nicht anpingen kannst, stimmt mMn an der Stelle etwas nicht. Connection refused heisst aber doch wohl, das der Container (IP) erreicht wird, aber der Port nicht aktiviert ist. Kann der ioBroker Adapter (bzw. die installierte Version) mit der neuen, Token basierten Authentifizierungsmethode von influxdb V2 umgehen?
    1 point
  18. Don't think there is a thread, and I rarely check here so best bet is add a feature request issue on GitHub and I'll eventually get round to adding it in
    1 point
  19. As long as you work exclusively with direct disk paths, yes, that is the extent of the damage you can do. The real issue that can lose data occurs when you mix /mnt/user paths with direct disk paths, where the exact same physical file shows up in two paths, so moving a file can result in the OS erasing the content of that file. Normally we tell people to avoid disk shares and work exclusively with user shares, but you want to do multiple disk copies at once, so disk to disk is easier to deal with, and as long as you understand how to make user shares by creating root disk folders you should be fine. You can view and read your user shares over the network during this process so you see how things act. Any root disk folder automatically becomes a user share with default public access. You can update that however you wish in the GUI on the shares tab.
    1 point
  20. Ich schon... Geht nicht. Der Server schläft immer noch
    1 point
  21. ...der Pfad innerhalb des containers ist " /var/lib/influxdb" ...einfach das mapping erstellen im Template. Allerdings ist das neueste Image (influxdb:latest) seit ein paar Wochen nun influxdb V2.0...da ist eine Authentifizierung notwendig, wenn man auf die DB zugreifen will. Das war bis zur Vorversion (V1.8.x) nicht so. Wenn Du also als Neuling den alten "klassischen" Anleitungen im Internet folgen willst, installiere die letzte V1.8 -> also im Docker Template bei "Repository" die "influxdb:1.8" eingeben
    1 point
  22. Cache filesystem looks fine so far, but the docker image is corrupt, delete and recreate.
    1 point
  23. Doing that will indeed set the server's address as static but that particular address is one of the pool of addresses that your DHCP server can allocate to any device that requests one. Therefore it could just as easily allocate it to your phone or tablet or other connected device. If you want to set a static address on your server you need to choose one that isn't in the DHCP server's pool. Suppose, for example that your router address is 192.168.100.1 and the DHCP server's pool consists of the range 192.168.10.2 to 192.168.10.100, then any address between 192.168.10.101 and 192.168.10.254 would be safe to use, as long as it's unique and not allocated to anything else. If you use static addresses then you have to take responsibility for managing them.
    1 point
  24. Yes. It is that easy. Many prefer to assign the static address in the router if that is supported and leave unRAID at DHCP in Network Settings. However, if your router does not support assigning static addresses to clients (most do support this). The way you mentioned is the way to do it in unRAID.
    1 point
  25. Hey man, thanks! Got the miner & stats up and running pretty easily with my meagre RX 570 👍
    1 point
  26. In most cases, that's a consequence of using a consumer motherboard. Server motherboards handle IOMMU groups much better.
    1 point
  27. I've just had an idea for this. With Squid's Mover Tuning plugin, I have set an exemption for file type '.DS_Store'. Now I'm going to delete all previous .DS-Store files and *hopefully* the new ones will stay on the SSD cache. I'm wondering if this is the root of many Mac users' problems with cache dir.
    1 point
  28. okay, this helps alot! This looks normal. The "Move Now" under the "Mover Settings" in Scheduler, calls the plug-in. This is a change from 6.8 version. Your cache pool is never getting above the 65% limit to initiate a move. So it doesn't move anything. If you want to run the original mover. I added a button in the bottom right of the "Mover Tuning w/Age - Days old" area. Bottom right. This will just call the original mover script that came with unRAID.
    1 point
  29. So I tried both builds before and after I changed the blacklisting. amdgpu only got me: lnxd/phoenixminer:v1.0.0-20.45 - command failed - no log file on attempted start lnxd/phoenixminer:v1.0.0-18.20 - command failed - no log file on attempted start Reboot and amdgpu and radeon on got me: lnxd/phoenixminer:v1.0.0-20.45 - command successful Project: PhoenixMiner 5.5c Author: lnxd Base: Ubuntu 20.04 Target: Unraid 6.9.0 - 6.9.1 Wallet: 0x9498eb2019EBeD208977FE73d473810b36fE0641 Pool: us1.ethermine.org:4444 Starting PhoenixMiner 5.5c with the following arguments: -pool us1.ethermine.org:4444 -wal 0x9498eb2019EBeD208977FE73d473810b36fE0641.pronto-server -tt 75 -tstop 85 -tstart 80 -cdm 1 -cdmport 5450 -amd Phoenix Miner 5.5c Linux/gcc - Release build -------------------------------------------- [0mNo OpenCL platforms found [91mNo avaiable GPUs for mining. Please check your drivers and/or hardware. [0m lnxd/phoenixminer:v1.0.0-18.20 - command successful Project: PhoenixMiner 5.5c Author: lnxd Base: Ubuntu 20.04 Target: Unraid 6.9.0 - 6.9.1 Wallet: 0x9498eb2019EBeD208977FE73d473810b36fE0641 Pool: us1.ethermine.org:4444 Starting PhoenixMiner 5.5c with the following arguments: -pool us1.ethermine.org:4444 -wal 0x9498eb2019EBeD208977FE73d473810b36fE0641.pronto-server -tt 75 -tstop 85 -tstart 80 -cdm 1 -cdmport 5450 -amd Phoenix Miner 5.5c Linux/gcc - Release build -------------------------------------------- amdgpu_device_initialize: DRM version is 2.50.0 but this driver is only compatible with 3.x.x. ./mine.sh: line 15: 6 Segmentation fault ./PhoenixMiner -pool $POOL -wal $WALLET.$PASSWORD -tt $TT -tstop $TSTOP -tstart $TSTART -cdm 1 -cdmport 5450 $ADDITIONAL Attached is Diag after I changed both drivers to "ON" Cheers...? lol EDIT: # ls -alh /boot/config/modprobe.d/ total 8.0K drwx------ 2 root root 4.0K Mar 28 09:18 ./ drwx------ 12 root root 4.0K Mar 28 09:27 ../ -rw------- 1 root root 0 Mar 27 13:00 amdgpu.conf -rw------- 1 root root 0 Mar 28 09:18 radeon.conf Don't know if anything needs to be in these files, so right now they are empty.. pronto-server-diagnostics-20210328-0933.zip
    1 point
  30. This just sreams, how Unraid has poor security. How long till we can setup more users and control permissions like on any other linux distro? Will we ever get SFTP of NFSv4 with password protection...
    1 point
  31. I just wanted to say thank you very much for making this as well as the Previous Apps option in CA. It saved my butt tonight!!!
    1 point
  32. I would start with Ich777s ARK container, then when you catch the addiction look at my instructions for spinning up a cluster.
    1 point
  33. In all my templates (at least in the ones that I don't forget to set it... ) the settings are never automatically changed and everything is up to the user... Eventually because the template had the option to update itself in it to update itself (this is what I try to avoid and my containers or at least templates should not do that).
    1 point
  34. It's likely you need to change "data_units_written" to "total_LBAs_written" and add *512 to your math function. not all SSDs have the same names. you should be able to click in the data_units_written field and in the dropdown you should find a synonym
    1 point
  35. I've manually changed the Influxdb to 1.8 That fixed my auth issues. But a could days ago or so I have a notice that there is an update to influxdb. If I set the version for 1.8, why is it still saying there is an update available?
    1 point
  36. Hey guys, ich777's kernel builder solved it for me. He's made it very straight forward: 1. Add the container via community applications and select the options you want. Deselect anything you don't need but mark vendor-reset as true, it will compile a kernel for you 2. Back up your existing kernel just in case (download a dump of your flash drive via the GUI), copy the generated kernel files from the output folder to the root level of the flash drive, overwriting the existing ones. 3. Reboot You'll see the discussion I had with him in that post as well, I had to change to a legacy boot mode to get my Asus RX 580 OC working in VMs but that might depend on your other hardware. It's working fine for me on 6.9.0, I haven't upgraded to 6.9.1 just yet, but I'll be doing that shortly. My understanding is the vendor-reset patch is still technically in Beta, but I'm hoping Unraid devs can move to include it in the kernel soon as it's pretty much impossible to use anything other than brand new AMD GPUs with Unraid otherwise. EDIT: Just upgraded to 6.9.1, still works like a charm with my RX 580.
    1 point
  37. Wie kann ich eine GPU in einer VM nutzen? HVM und IOMMU müssen aktiv sein: Falls einer der Optionen nicht aktiviert ist, findet man diese im BIOS in der Regel unter den folgenden Begriffen: HVM = Intel VT-x bzw AMD-v IOMMU = VT-d, Directed I/O, IOMMU, SVM Falls dort "Not available/Nicht verfügbar" steht, dann ist die Hardware nicht kompatibel. HVM ist übrigens eine Grundvoraussetzung, um überhaupt VMs nutzen zu können. Wenn diese Voraussetzungen erfüllt sind, kann man die GPU inkl dem Audio Controller (und evtl sogar USB) über Werkzeuge (Tools) -> Systemgeräte (System Devices) anklicken und nach einem Neustart ist die GPU an "VFIO gebunden". Damit ist die GPU nicht mehr für Unraid nutzbar und kann von einer VM genutzt werden. Hinweise: Bei Neustart-Problemen kann die Datei "vfio-pci.cfg" vom USB-Stick gelöscht werden um den Vorgang rückgängig zu machen. Wer nur eine GPU verbaut hat, kann danach nicht mehr die Terminal-Ausgabe von Unraid sehen (die Unraid WebGUI im Browser und das dort integrierte WebTerminal ist natürlich nach wie vor erreichbar) Viele Nutzer konnten Neustart-Probleme beheben, in dem sie Unraid eine GPU verwenden lassen zB die iGPU der CPU oder eine GT710, GTX1030, etc Die mehrfache Nutzung einer GPU durch Unraid und einer oder mehrerer VMs ist nicht standardmäßig möglich. Eher zu den neuen Projekten gehört zB das Intel-GVT-g Plugin um die von Unraid verwendete iGPU auch zur Beschleunigung einer VM nutzen zu können. Bei Nvidia GPUs gab es wohl einen Hack, aber ich vermute, dass eine Nutzung in Unraid auch damit nicht möglich wird, da es mit den Enterprise GPUs nur geht, wenn man ein kompatibles Betriebssystem verwendet. Sofern euch also die Leistung einer Intel iGPU nicht reicht, wäre Stand heute eine dGPU pro VM notwendig. Allerdings kann man sie im Wechsel verwenden. Also eine VM herunterfahren und die nächste mit der selben dGPU wieder hochfahren. Das geht. Fährt man eine VM herunter oder schickt sie in den Standby, geht die GPU nicht schlafen. Im Gegenteil. Ihr Stromverbrauch steigt deutlich an. Daher lohnt es sich eigentlich nicht die VM herunterzufahren. In einer VM spielen ist möglich, beachtet aber bitte, dass manche Spiele einen Anti-Cheat-Mechanismus verwenden, der das Spielen in einer VM verbietet. zB alle Spiele, die mit BattlEye geschützt werden, gelten als inkompatibel. Am besten mit einer Suchmaschine eurer Wahl nach dem Spielnamen und "Unraid VM" suchen. es gibt Nutzer, die mit inoffiziellen Plugins die Nutzung von MacOS in einer VM ernöglichen. Apple hat sich meines Wissens nach hier bisher nicht zu Wort gemeldet, aber manche Nutzer vermuten, dass es gegen die Lizenzrechte verstößt. Es kann also gehen, muss aber nicht legal sein und keinesfalls wird es offiziell von Unraid unterstützt. Da es schon Beschwerden gab, weil so eine VM nicht lief, muss ich das einfach erwähnen.
    1 point
  38. @BVD Thanks for this! Mellanox ConnectX-2 Firmware Upgrade / unRAID config for SR-IOV Don't buy these cards! (see post below). I already had a handful of these so I wanted to make use of them. If you're in the same boat, or you can get them very cheap, then below are my notes for getting them to work. SR-IOV is not supported by these cards as sold and requires reconfiguration/firmware update to a version beyond anything supported by Mellanox. Your mileage may vary. Some of what's below is repeating @BVD's post, but I thought it might be useful to have a set of complete steps to get this working specifically for Mellanox adapters. I believe these should be the same steps for ConnectX-3 cards, they may not need the firmware update though. If you want to upgrade firmware on them, make sure you use fw-ConnectX3-rel.mlx instead! Mellanox firmware updating is a bit janky and Mellanox/nVidia sure as hell don't make it easy to find firmware downloads for unsupported adapters. These are my notes from doing this on a Windows machine for MNPA19-XTR ConnectX-2 adapters. Grab latest firmware fw-ConnectX2-rel-2_10_0720.zip from: https://drive.google.com/open?id=1Vdaup5hDYW9XItEaVqDDeJDMxlk0dp-B (not my link, PM me if it stops working) Extract the zip to a folder, open a command prompt as Administrator, and cd to that folder. mst status This should return something like: MST devices: ------------ mt26448_pciconf0 mt26448_pci_cr0 We're interested in the second device name, mt26448_pci_cr0. If you mess something up, you may be able to recover the card by flashing your firmware backup. You may have to restore your backup firmware to the first device instead of the second device (worked for me) Backup current firmware to backup.bin: mstflint -d mt26448_pci_cr0 ri backup.bin Read the current configuration of the card and store it in backup.ini mstflint -d mt26448_pci_cr0 dc > backup.ini Make a copy of backup.ini called sriov.ini. In the copy, insert this at the bottom of the [HCA] section: num_pfs = 1 total_vfs = 64 sriov_en = true Now create firmware image firmware-sriov.bin based on the latest firmware file + your modified configuration: mlxburn -fw fw-ConnectX2-rel.mlx -conf sriov.ini -wrimage firmware-sriov.bin Write this firmware to the device ID that you identified previously - in my case this is mt26448_pci_cr0 mstflint -d mt26448_pci_cr0 -i firmware-sriov.bin b Reboot You should see FW version 2.10.720 with this command: flint -d mt26448_pci_cr0 query The card should now support SR-IOV (as well as RDMA, RSS, etc) unRAID configuration I couldn't get either of @BVD's methods for enabling VFs to work. As of unRAID 6.9 we can now issue commands to kernel modules via files in /boot/config/modprobe.d In unRAID Tools / System Devices, check the vendor/device ID and confirm the kernel driver used is mlx4_core: lspci -vv -d 15b3:6750 | grep -A 2 'Kernel driver' Kernel driver in use: mlx4_core Kernel modules: mlx4_core Create this file: /boot/config/modprobe.d/mlx4_core.conf with: options mlx4_core num_vfs=8 Reboot. Bind to vfio on startup Option 1 - unRAID GUI In unRAID Tools \ System Devices, select all the "Virtual Function" devices and click Bind Selected to vfio at boot If we do nothing else, this will fail because vfio-pci script is run before device drivers are loaded as noted here Tell unRAID to re-run the vfio-pci script again (but after device drivers have loaded) by calling it in the /boot/config/go file: # Relaunch vfio-pci script to bind virtual function adapters that didn't exist at boot time /usr/local/sbin/vfio-pci >>/var/log/vfio-pci Reboot. If you check Tools \ System Devices \ View vfio logs, you should see the first run where the bindings failed, and then a second run where the bindings succeeded. Option 2 - Manual Check the pcie addresses of the VIrtual Function devices: lspci | grep Mellanox 03:00.0 Ethernet controller: Mellanox Technologies MT26448 [ConnectX EN 10GigE, PCIe 2.0 5GT/s] (rev b0) 03:00.1 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.2 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.3 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.4 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.5 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.6 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:00.7 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) 03:01.0 Ethernet controller: Mellanox Technologies MT25400 Family [ConnectX-2 Virtual Function] (rev b0) Install the script to bind the virtual functions to vfio-pci: wget 'https://raw.githubusercontent.com/andre-richter/vfio-pci-bind/master/vfio-pci-bind.sh'; mv vfio-pci-bind.sh /boot/config/ BVD refers to using "User Scripts" to run the bind commands. There may be a good reason for that, but I ended up just adding these to /boot/config/go sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.1 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.2 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.3 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.4 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.5 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.6 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:00.7 sudo bash /boot/config/vfio-pci-bind.sh 15b3:1002 0000:03:01.1 Permanent MAC addresses Assuming your SR-IOV-enabled network interface is eth0: ip link show dev eth0 13: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000 link/ether 00:02:c9:55:ba:e6 brd ff:ff:ff:ff:ff:ff vf 0 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 1 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 2 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 3 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 4 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 5 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 6 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto vf 7 link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff, vlan 4095, spoof checking off, link-state auto If the virtual function has a MAC address of 00:00:00:00:00:00, it will be assigned a random MAC address that will change on subsequent reboots. Add something like this to assign MAC addresses in /boot/config/go ip link set eth0 vf 0 mac 00:25:8b:ff:01:00 ip link set eth0 vf 1 mac 00:25:8b:ff:01:01 ip link set eth0 vf 2 mac 00:25:8b:ff:01:02 ip link set eth0 vf 3 mac 00:25:8b:ff:01:03 ip link set eth0 vf 4 mac 00:25:8b:ff:01:04 ip link set eth0 vf 5 mac 00:25:8b:ff:01:05 ip link set eth0 vf 6 mac 00:25:8b:ff:01:06 ip link set eth0 vf 7 mac 00:25:8b:ff:01:07 As far as I'm aware, it doesn't matter too much what MAC addresses you choose (as long as they don't conflict with other devices on your network). To satisfy my OCD, I looked up Mellanox here, and assigned MACs with one of those prefixes. This way the VMs assigned a virtual function device will show up as a Mellanox adapter to other devices on the network: It seems like Windows 10 / Server 2019 have built-in drivers for Mellanox virtual function devices, though you can install the latest Win-OF (not Win-OF2) drivers. https://www.mellanox.com/products/adapter-software/ethernet/windows/winof-2 ie. current version is 5.50.54000 for Server 2019, or 5.50.53000 for Windows 10/2016/2012R2, etc. As with the updated firmware, these drivers aren't advertised as supporting ConnectX-2 cards, but they work (for now). Your mileage may vary!
    1 point
  39. I guess it finally caught up to all of us. Here are the answers from the faq:
    1 point
  40. brawny had the answer in another thread that helped me. put simply, check Local IPv4 address, under status and interface options (the wrench) in sabnzbd and make sure that they are the same for sonarr and radarr. While you are at it ensure that you haven't changed/generated a new API key as I had, while trying to fix the issue. Good Luck Chas
    1 point
  41. 在启动U盘里面找到config-vfio-pci.cfg,用notepad++等软件编辑去掉网卡数字,或者直接删除掉vfio-pci.cfg,插回U盘启动。
    1 point
  42. The vendor-reset got an update for navi users. I tested it on my system. I have no broken audio anymore after resets. For me this is a real breakthrough! I don't need the old navi patch anymore now. I can now boot between Windows 10 20H2, macOS Big Sur 11.1 and Ubuntu 20.10. For all navi user who wanna try it out: Force update the docker Edit the docker and add a variable like this: Try and hopefully enjoy! Keep in mind, this only fixes the specific audio issue for navi users. Please report your expierences here. Special Thanks to @ich777 for that fast edit.
    1 point
  43. From github https://github.com/shirosaidev/diskover Requirements: Elasticsearch 5.6.x (local or AWS ES Service) Elasticsearch 6 not supported, ES 7 supported in Enterprise version Redis 4.x Working steps: (if you do anything wrong, remove the docker, remove the docker's config folder in appdata, (but can keep docker image to avoid download again).) 0. install redis from apps jj9987's Repository, no config needed. 1. Install CA User Scripts plugin Create a new script named vm.max_map_count navigate to \flash\config\plugins\user.scripts\scripts\vm.max_map_count open 'description' file write some readable description about what this script does. open 'script' file, contents of script as follows: #!/bin/bash sysctl -w vm.max_map_count=262144 Set script schedule to At Startup of Array Run the script once. Navigate to "Docker" tab and then the "Docker Repositories" sub-tab in the unRAID webui Enter in a URL of https://github.com/OFark/docker-templates in the "Template repositories" field Click on the "Save" button Click back to "Docker" tab and then click on the "Add Container" button Click on the "Template" dropdown menu and select the Elasticsearch5 image Use pre config, no change needed. 2. go to apps, find diskover, click install put in ip of the redis and elastic server , which should be your unraid ip not 127 or localhost ES_USER : elastic ES_PASS : changeme change appdata path to /mnt/cache/appdata/diskover/ data path I use /mnt/user/ which is going to index everything from the user webgui port I changed to 8081 because I have qBittorrent on 8080 add a new variable, DISKOVER_AUTH_TOKEN value is from https://github.com/shirosaidev/diskover/wiki/Auth-token click start, and you shoud good to go with the webui of diskover, select the 1st indice and happy searching. It might take half a minute for the 1st indice to appear. For the whole process, you do not seem to need to change any folder/file permissions. One problem I got is, while the file index goes to 94.5% it stuck there for hours. So I have to delete the 3 dockers and do it again, this time, it got 100% and seems to be ok. But this also means this setup could have problem like stuck indexing sometime. The OFark's docker template use Elasticsearch 5 which might be a bit old for the current version diskover. Or running from docker caused this. OFark's docker image is a preconfiged working one. If anyone has time, maybe try to build a version 6 or 7 docker image to work with the current version diskover
    1 point
  44. To prevent misunderstanding, it is best to make the deliberate effort to change the way we are thinking and talking about pools. Up to 6.8.3 there was only one pool and the named was fixed : cache. Even if the caching functionality was not use, and/or it had other use case. One of the thing that can help make it clear for you in your use case is to chose the names of the pools so it is clearly understandable for you. And maybe not use the name cache at all. One thing that can help understand is to go back the configuration and the possibilities. For each Share, you can selection a pool association (pool A, pool B, etc.) and the expected behavior (No / Yes / Prefer / Only). I do think that the Option names could be changed in order not to induce this confusion on the Share page. From your post, you want a pool for your static data (appdata, etc) and one for temporary files (torrents, etc.) My advice, create two pools: the first named static (or whatever name makes the most sense to you) with your 1TB the second named scratch (or whatever name makes the most sense to you) with your 500GB Then, on a share by share basis, decide what pool to associate and the way the pool shall work with this share. Some examples to help you: appdata share set to static pool and Use cache pool set to Only (potentially to Prefer). This way it stays there. torrent share set to scratch pool and Use cache pool set to Prefer (or Only). This way the downloads and temporary files stay on scratch unless this gets too large. When the download and sharing phase is done, the files can be moved to the appropriate Media share (below). Media share set to scratch pool and Use cache pool set to Yes. This way, the files stay on the share until the Mover is scheduled. I hope this is clearer. If not, ask for details. If you need help to get from your actual setup to something like this and you are not sure how, do not hesitate to ask.
    1 point
  45. In case anyone finds this thread like i did looking for a solution. There is a round about way to do this, https://knowledgebase.macrium.com/display/KNOW7/Restore+to+VHD
    1 point
  46. ok - I got it working by using and XMLTV feed as you can't channel map if using emby's EPG. what a bloody palava - who knew simply filtering and channel mapping an m3u feed was going to be soooooooo overly complicated and such a pita.?
    1 point
  47. I was able to fix the greyed out "extend partition" in Windows 10 by downloading a free third party partition tool for windows. Odd that Windows disk manager cant address the issue but a free tool can.
    1 point
  48. The drive is fine! That usually indicates an issue with the SATA cable or connectors, so I would replace the cable with a good one, and check ALL cable connections (both ends of the cables) for tight connections. It's also possible there was a power glitch. CRC errors just indicate that a corrupted packet was detected, and they're always re-sent. A CRC error does not usually cause a disabled drive. I suspect something else happened, and the evidence may be in the syslog that covered that moment. Maybe there was a BIG power glitch!
    1 point