Leaderboard

Popular Content

Showing content with the highest reputation on 02/19/21 in all areas

  1. Information: Je crée ce premier tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Créer un NEXTCLOUD avec une base de données MySQL est important si vous avez beaucoup de fichiers ou plusieurs utilisateurs. En effet l'installation proposé de base en SQlite est destiné surtout à une utilisation développeur et n'est pas fiable ni stable dans le temps! Vous risquez d'avoir des lenteurs d'accès voir que la base de données plante. Je n'aborderais que la partie installation de NEXTCLOUD, ce tuto n'est pas destiné à la configuration de NEXTCLOUD ni de son utilisation. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip du NAS. - si vous avez déjà installé le conteneur MariaDB, passé directement à l'étape pour créer un utilisateur dans MariaDB. Installation: 1) Installation de MariaDB a) Téléchargement de l'image MariaDB Recherché dans l'onglet "APPS" le conteneur "MariaDB - linuxserver's Repository": b) Paramétrage du conteneur host port 1 = port utilisé pour mariadb MYSQL_ROOT_USER = nom de l'utilisateur avec accès "root" key 3 = mot de passe du l'utilisateur "root_user" MYSQL_USER = nom de l'utilisateur avec accès simple utilisateur MYSQL_PASSWORD = mot de passe utilisateur MYSQL_DATABASE = nom de la base de données AppData_config_path = chemin du conteneur c) Création d'une base de données et d'un utilisateur dans MariaDB Ouvrir la console de commande pour MariadDB: Il va falloir entrer quelques commandes (adapter nom et mot de passe) D'abord ont ce connecte en utilisateur "root" (avec les identifiants crée au-dessus lors de l'installation du conteneur MariaDB) mysql -uroot -p Le password demandé est celui créé lors de l'installation: key 3 = mot de passe du l'utilisateur "root_user" Créer un utilisateur et un mot de passe (il faut garder les ' qui encadre le nom et mot de passe) CREATE USER 'nom_utilisateur' IDENTIFIED BY 'mdp'; Création d'une base de données pour NEXTCLOUD: CREATE DATABASE IF NOT EXISTS nom_de_base; Autorisé l'utilisateur à accéder à la base de données: (il faut garder les ' qui encadre le nom et mot de passe) GRANT ALL PRIVILEGES ON nom_de_base.* TO 'nom_utilisateur' IDENTIFIED BY 'mdp'; Puis ont quitte proprement: quit !!! ATTENTION!!! DE BIEN NOTER LES IDENTIFIANTS ET LE NOM DE BASE DE DONNEE QUELQUE PART Si tout ce passe bien vous devez obtenir ceci: 2) Installation de NEXTCLOUD a) Téléchargement de l'image Rechercher dans l'onglet "APPS" le conteneur "NEXTCLOUD" linuxserver's Repository: b) Paramétrage du conteneur NEXTCLOUD Host port 1 = port utilisé pour accéder à l'interface NEXTCLOUD Host path 2 = chemin ou est stocké vos FICHIERS AppData Config Path = chemin ou est stocké la config NEXTCLOUD c) Accès Interface de NEXTCLOUD Pour accéder à l'interface NEXTCLOUD, utiliser: https://IP_DU_NAS:7443 https car NEXTCLOUD demande un accès sécurisé IP_DU_NAS: le port choisi lors de l'installation du conteneur ci-desus (dans mon cas 7443) vous aurez tout de même un message d'erreur lorsque vous tapez le chemin de votre NEXTCLOUD car il n'y a pas de certificat SSL: d) Paramètrage de NEXTCLOUD avec MariaDB Vous accédez maintenant à l'interface NEXTCLOUD: Vous créé un utilisateur "admin" et un mot de passe POUR NEXTCLOUD !!! (!!! notez le bien !!!) On choisi MySQL/MariaDB Ont reprend l'identifiant / mot de passe / et nom de base de données créé en ligne de commande dans MariaDB. L'adresse IP de MariaDB est IP_DU_NAS:3306 (si laissé d'origine) et on installe! Si tout va bien vous avez un écran comme ceci: Pour accéder à NEXTCLOUD avec un reverse proxy (Nginx Proxy Manager) Vous redirigerez vers l'IP du conteneur "IP_DU_NAS:7443" dans mon cas. Attention si un jour vous voulez changer le nom de votre sous-domaine il faudra allez modifier un fichier .conf dans le dossier du conteneur NEXTCLOUD FIN
    2 points
  2. Information: Je crée ce tuto en français basé sous UNRAID, j'ai essayé de faire le plus simple et le plus explicite pour les novices! Créer un WORDPRESS avec une base de données MySQL Je n'aborderais que la partie installation de WORDPRESS, ce tuto n'est pas destiné à la configuration de WORDPRESS ni de son utilisation. Pré-requis: Je pars du principe que vous avez installé: - le plugin "COMMUNITY APPLICATIONS" - que vous avez activé DOCKER. - que vous connaissez l'ip du NAS - si vous avez déjà installé le conteneur MariaDB, passé directement à l'étape pour créer un utilisateur dans MariaDB Installation: 1) Installation de MariaDB a) Téléchargement de l'image MariaDB Recherché dans l'onglet "APPS" le conteneur "MariaDB - linuxserver's Repository": b) Paramétrage du conteneur host port 1 = port utilisé pour mariadb MYSQL_ROOT_USER = nom de l'utilisateur avec accès "root" key 3 = mot de passe du l'utilisateur "root_user" MYSQL_USER = nom de l'utilisateur avec accès simple utilisateur MYSQL_PASSWORD = mot de passe utilisateur MYSQL_DATABASE = nom de la base de données AppData_config_path = chemin du conteneur c) Création d'une base de données et d'un utilisateur dans MariaDB Ouvrir la console de commande pour MariadDB: Il va falloir entrer quelques commandes (adapter nom et mot de passe) D'abord, ont ce connecte en utilisateur "root" (avec les identifiants crées au-dessus lors de l'installation du conteneur MariaDB) mysql -uroot -p Le password demandé est celui crée lors de l'installation: key 3 = mot de passe du l'utilisateur "root_user" Créer un utilisateur et un mot de passe (il faut garder les ' qui encadre le nom et mot de passe) CREATE USER 'nom_utilisateur' IDENTIFIED BY 'mdp'; Création d'une base de données pour WORDPRESS: CREATE DATABASE IF NOT EXISTS nom_de_base; Autorisé l'utilisateur à accéder à la base de données: (il faut garder les ' qui encadre le nom et mot de passe) GRANT ALL PRIVILEGES ON nom_de_base.* TO 'nom_utilisateur' IDENTIFIED BY 'mdp'; Puis ont quitte proprement: quit !!! ATTENTION!!! DE BIEN NOTER LES IDENTIFIANTS ET LE NOM DE BASE DE DONNEES QUELQUE PART Si tout ce passe bien vous devez obtenir ceci: 2) Installation de WORDPRESS a) Téléchargement de l'image Recherché dans l'onglet "APPS" le conteneur "WORDPRESS" Kru-X's Repository: b) Paramétrage du conteneur WORDPRESS Conteneur Port = Port utilisé par WORDPRESS www = Chemin du conteneur WORDPRESS WORDPRESS_DB_HOST = IP_DU_NAS + port du conteneur MariaDB WORDPRESS_DB_USER = utilisateur crée dans le conteneur MariaDB WORDPRESS_DB_PASSWORD = mot de passe crée dans le conteneur MariaDB c) Ajout d'une variable au conteneur WORDPRESS on ajoute la variable WORDPRESS_DB_NAME avec le nom de la base de données créé dans le conteneur MariaDB d) Accès Interface WORDPRESS Pour accéder à l'interface WORDPRESS, utiliser: http://IP_DU_NAS:8080 le port choisi lors de l'installation du conteneur ci-dessus (dans mon cas 8080) Si tout ce passe bien vous devez obtenir ceci sur la page du navigateur: FIN
    2 points
  3. This container solves the problem of containers with no 'VPN' variant. After setting up this container, route your non-VPN Dockers through this one to protect your IP. Or, when you have no other 'VPN' containers. Or host, for example a game or webserver by using your VPN Provider's IP, if your VPN Provider supports forwarding. Both WireGuard and OpenVPN are supported. Check out https://github.com/DyonR/docker-passthroughvpn for setup instructions. Base: Debian 10-slim Docker Hub: https://hub.docker.com/r/dyonr/passthroughvpn/ GitHub: https://github.com/DyonR/docker-passthroughvpn
    1 point
  4. I thought about that, but wasn't sure if it messes up the external access.
    1 point
  5. I always keep a print out (or a saved PDF) of the web UI Main page with all drives listed as a handy reference. I also recommend the "disklocation" plugin. It takes a few minutes to assign the drives to specific locations, but once done it's a great help when it comes to future maintenance.
    1 point
  6. yup all good, now using CUDA 11.10 when pulling the cuda11 tag Dave
    1 point
  7. So if anybody else experiences bad lags and desync issues when playing with friends it seems to be due to limited traffic allowed in between the server / client. There seems to be a workaround that somebody has posted on reddit to address this issue: Do the following steps on the server an the client if your internet connection is fast enough: Download dnSpy Copy entire contents of /path/to/Valheim/valheim_server_Data/Managed to the machine with dnSpy Open assembly_valheim.dll in dnSpy Expand assembly_valheim (0.0.0.0) Expand assembly_valheim.dll Expand { } Expand ZDOMan Right-click m_dataPerSec and Edit Class Change the value (61440 default. I set mine to 512000 and it's been good so far. You could set it higher.) Click Compile File > Save Module Copy re-compiled .dll back to the server I hope this soon gets fixed in the normal version .. For now i can see that my uploads are exceeding the limit .. I will update once i get the chance to play with my friends whether it solved the issues
    1 point
  8. Massive thanks to @ich777 for all the hard work and getting it done quickly! I've tested it on a PCIE based Coral TPU and it works great. Stupid simple to install. While you are installing the plugin, mash the donate button on his profile and throw him a beer/coffee or two
    1 point
  9. @Smolo Von hier https://forums.unraid.net/topic/86468-release-dark-theme-unraid-webgui-color-theme/
    1 point
  10. The Drivers for the Coral Acceleration Module are now included in the build, the template will take a few hours to update so that it actually shows the option for that (keep in mind that you have to delete the container and redownload it from the CA App).
    1 point
  11. Fix it in a bit. But it also means that you currently dont have any previous apps the system recognizes
    1 point
  12. Hey no worries man. Totally understand. Spend as much time as you need with your family. Oh and Happy Birthday to your son!!! I shall shoot you a PM now where we can stay in touch and discuss things further once you are back to do your magic
    1 point
  13. Das ist ein Link. Er macht aktuell gar nichts. Wenn du da drauf klickst, berechnet er die Dateigröße dieses Ordners. 😉 Auf dem Screenshot steht doch 0.00 B/s bei Gelesen / Geschrieben?! Dass die Platten an sind, muss andere Gründe haben. Sind es zufällig nur die, die bei Plex eingebunden sind? Hast du da die Auto-Indexierung aktiviert? Ich Indexiere nur manuell über die Android App:
    1 point
  14. Hier mehr Infos: https://unraid.net/blog/ultimate-unraid-dashboard
    1 point
  15. Heimdall. Gibts auch als Docker für unraid. Schönes Ding.
    1 point
  16. I’d recommend that setup. Give it a try and let us know what you think. Make sure to turn off deluge in sonarr after you set it up to test it out!
    1 point
  17. @ich777 Der Container Läuft jetzt perfekt. Das Passwort wird bei jedem Aufruf abgefragt und die Skalierung ist und bleibt weg, egal von welchem Gerät/Browser ich es aufrufe. 👍
    1 point
  18. Certain combinations of hardware will issue an MCE when initializing the cores of the cpu. Yours is one of them. Can be safely ignored Bestimmte Hardwarekombinationen geben beim Initialisieren der Kerne der CPU eine MCE aus. Dein ist einer von ihnen. Kann ignoriert werden
    1 point
  19. It should, it's not officially supported by Apple but it should work. As a starting point try to read here (it's from 2016, but it should still be valid): http://m0agx.eu/2016/03/23/using-os-x-time-machine-with-nfs/ I confirm that the "fix" I posted does work for me, no more hangs or kp with file transfers, but smb is still unusable when running a vm from the mac os vm on a smb disc. <-- kp It fails when unpacking initramfs for a linux vm with the message "junk within compressed archive" and it kp. Running a vm from the vm on a nfs share works well.
    1 point
  20. Führe mal das aus: rm config/ssl/* Und dann starte neu. Unraid erstellt die Dateien dann neu.
    1 point
  21. Warum ist da überhaupt ein Kabel dran?! Ja muss in die Go Datei, sonst geht er nach einem Neustart verloren. Ist dein Messgerät überhaupt genau genug?
    1 point
  22. Just wanted to chime in with a Thank You for this post. Had my mainboard brick on a failed firmware update, was able to replace with a newer board, and everything booted up cleanly after the swap!
    1 point
  23. Well, you guys talked me into it... I upped the budget a bit, realizing that what I was doing was not really going to be enough to run UNRAID, a Plex server, and a windows VM. Also, I am adding all new disks. Here is what I came up with - AMD Ryzen 9 3900 - 12 Core, 24 Thread - Asus AM4 TUF Gaming x570-Plus Motherboard - Nvidia Video Card (low end) for the VM - 32 GB RAM - New Power Supply - 3 8TB Drives - 1 for parity, 2 for data (this takes my storage capacity from 10TB to 16TB, and plenty of room to add new disks) - 1TB SSD for Cache and VM image Thanks for pointing me in the right direction and making me spend more mone! 🙂
    1 point
  24. My network is also Ubiquiti/UniFi (USG, switches and APs). A plugin check for updates with 28 plugins takes ~10 seconds on my network.
    1 point
  25. @SNReloaded, I suggest watching some of Spaceinvader One's youtube videos on the subject. He's been doing videos for several years so some of the info in the older videos may be outdated, but the core principles should help you get a grasp on what's going on.
    1 point
  26. Yeah that seemed to be the only thing. But everyone is able to favorite and join it now. thanks for the awesome container.
    1 point
  27. Hi, ganz kurz: - Hab das X570D4I-2T, was eigentlich identisch zum D4U ist. - 10G: X550-2t -> Eine der besten 10G Chipsätze, kann virtualisieren, funktioniert 1A mit Proxmox, google mal nach "virtual function". Das ist deutlich schneller und besser als Virtio kram oder irgendwelche anderen Software Virtualisierte Nic's. Virtio Nic's haben z.B. Hardware offloading bugs in FreeBSD VM's, da gibts eh kein richtiges HW Offloading, weil Software nics... Also kurz gesagt, alleine schon wegen dem x550 nic ist das Asrock Rack D4U oder D4I seinen preis mehr als wert. - IPMI: ist absoluter müll bei dem board, erfüllt aber seinen zweck, sprich html5 Console, oder ipmi remote auslesen mit icinga/grafana und dashboard für Temperatur/Fanspeed etc... - ECC: ECC Funktioniert und ist sehr wichtig für 24/7 betrieb!!! 3200mhz geht eventuell auch mit 4 Dimms, ich glaub die CPU regelt das sowieso und nicht das board, da der speichercontroller in der CPU ist. Was wichtig ist, das es unbuffered ECC ist. Immer Samsung B-Die nehmen, auf keinen fall was micron basiertes nehmen! (Gilt generell für alle AMD Cpus) Ich meine aber, das fast alle kingston module auf samsung setzen. Ob 3200 oder 2666 ist egal, takten sich doch eh notfalls runter, denk ich. Ich benutze Samsung 2666 ecc mit 32GB/riegel. Zum thema ECC, es funktioniert! habs mit injection getestet. Sogar der report funktioniert in Proxmox, wenn etwas korrigiert wird. Leider wirst du davon nichts mitbekommen, da beim boot fehlermeldungen kommen und der Kernel 5.4 ECC eh nicht erkennt auf ner Ryzen 5xxx CPU. Geht aber alles ab Kernel 5.10. (Wie gesagt, unwichtig welcher kernel, ECC wird in hardware korrigiert, Kernel 5.10 brauchst du nur um infos zu bekommen...) Multibit fehler werden nicht korrigiert, kann der Ryzen nicht, ist aber nicht tragisch, hab noch nie welche gesehen im Alltag (bin serveradmin als beruf). Wogegen 1-bit fehler ausnahmslos auf jeder hardware vorkommen. Bei normalem PC ists egal, da das nichts ausmacht (reboot), wohingegen server 1 jahr+ laufen und sich das summiert -> ohne ecc wirkt sich das nach genug laufzeit auf system aus = absturz oder schlimmeres. - Ryzen 4650G vs 5600X -> Ich bin nicht sicher ob die Ryzen mit gpu vom Asrock D4U unterstützt werden. Jedenfalls würde ich sowieso zu 5600X greifen. Im alltag bringt dir die GPU nichts, oder nicht genug um nen 5600X auszugleichen. Falls du dann doch eine brauchst, gibts mehrere möglichkeiten, am besten dann ne S7150 (google nach MxGPU). Funktioniert mit Proxmox, brauchst keine 10000€ lizenzen etc... Notfalls ne billige irgendwas GPU nehmen und durchreichen. - Beim fakt "Asrock Rack" selbst muss ich zustimmen. Da ist irgendwie alles kake, keine bios updates, kein guter support, Der x570 chipsatz + Lan Controller wird heiß ohne ende... Naja... Jedoch gibts da leider auch keine alternative. Zumindest im ITX bereich. Bei ATX wirst du aber auch nichts besseres finden. Die boards sind den Preis aber trotzdem wert, weil x550 + ipmi. Für x570+Lan chip, montierst du einfach 2 Noctua A10 drauf und gut ist. ---- Dann noch zum Setup: Definitiv Proxmox, LXC Container sind ein traum. Docker lässt du auch auf LXC Container laufen, kannst auch auf Proxmox direkt laufen lassen + Portainer. Und KVM für windows/freebsd & co.... KVM ist immer schneller/besser als esxi z.B., benutze beides in der firma. Esxi ist halt unzerstörbar (aka stabil), updates kein problem etc... und Proxmox ist leider ab und zu anfällig, vor allem viel Spaß beim update, wenn Debian 11 z.B. kommt. Was aber am wichtigsten ist, Proxmox kann ZFS, brauchst du für deine Nas/VM Server kombi (all in 1).... ZFS Pool aus allen deinen Festplatten mit Z1/2, bitte mit einem arc2/Log device, sonst ist die performance unter aller sau. arc2/Log kann eine SSD sein. Warum eine SSD? Weil 2 Verschwendung wären. Warum alle eine Separate SSD für Zil & Log empfehlen? -> Weil der cache der ssd alle ~5-10s "geflusht" wird wenn was draufgeschrieben wird, das macht aber keinen unterschied für arc2, da nicht vom cache der ssd gelesen wird. -> Weil der "flush" die ssd zwingt alles vom ssdcache zum persitenten speicher der ssd zu schieben. Kurz gefasst: arc2/log auf einer SSD -> Kein problem! Jedoch bitte niemals eine SSD für mehrere ZFS pools verwenden, das feature kommt aber auch bald (aka persistent cache/log). Du wirst aber nie mehrere pools brauchen, da es auf einem System keinen sinn macht. Braucht mann nur für Replikation oder falls du mehrere arten von Storage im System hast. - arc2/log, brauchst du nur für HDD Pools!!! Ganz wichtig, da HDD's einfach schrecklich langsam sind was iops angeht. Bei ZFS Z1/2 unumgänglich! Bei ZFS Mirror oder Raid 10 HDD Pools weniger wichtig! Bei SSD pools (egal ob sata oder nvme) brauchst du kein arc2/log. Kurz gefasst: Nur HDDS mit ZFS Z1/2 ist es ein muss! SSDs mit ZFS Z1/2 profitieren auch, jedoch nicht so spürbar. - Falls die die wahl/option hast ein ZFS Raid 10 zu machen, würde ich das immer aus performance gründen bevorzugen. Warum nicht FreeNAS (Kann auch NAS+Virtualisieren) -> Weil FreeBSD und Freebsd ist kake, viel spaß mit aktuellem hardware support und bugs gibts da auch ne menge. Linux ist einfach aktiver, viel mehr entwickler, besser gepflegt etc... Freebsd ist in der zeit stehen geblieben, denke das es da einfach an entwicklern fehlt.... Esxi -> kostenlose version ohne vcenter kann eigentlich garnichts. Nichtmal lacp und von Storage brauch ich garnicht anzufangen, da geht nur vmfs. Ohne hardware raid oder Nas server sinnlos. Und performance technisch auch keine chance gegen KVM. Der einzige vorteil ist halt Stabilität + updates. Hilfreiche Links: https://www.reddit.com/r/Proxmox/comments/cm81tc/tutorial_enabling_sriov_for_intel_nic_x550t2_on/ https://forum.proxmox.com/threads/communication-issue-between-sriov-vm-vf-and-ct-on-pf-bridge.68638/ Noch was wichtiges: Falls du nicht vorhast FreeBSD/Pfsense/Opnsense zu virtualisieren, oder nicht 100% aus deinem 10GB/s Netzwerk rausholen willst, brauchst du auch "Virtual Funktion" nicht. Normaller VirtIO nic, tuts auch. (Auch in freebsd, wenn hardware offloading deaktiviert wird) Hier mein home/spielserver mit dem ich absolut zufrieden bin: Bitte ignoriert meine gramatik, ist nur alles schnell geschrieben um dem threadersteller zu helfen. Alles gut & Viel Spas 🙂
    1 point
  28. For you, yes, but not for me. So you want me to use more of my time, so you can use less of yours, fixing your problem? Change the port in the proxy conf to 443 and create a custom docker network and set both swag and nextcloud to use that one.
    1 point
  29. I am not a networking expert (I hate that thing ! ). How is your ping from the server ? Maybe more a latency issue rather than bandwidth ? (even if I am not on a 100 Mbps myself, more like 1Gbps ^^)
    1 point
  30. The FAQ has answers to many more questions, it's good to browse through and see if your issue is already addressed.
    1 point
  31. https://forums.unraid.net/topic/102702-unraid-web-oberfläche-einfach-nicht-erreichbar/?tab=comments#comment-947571 Normal ist das aber nicht. Check deine Logs.
    1 point
  32. tbh im not overly happy to be on either version as of right now, 0.9.6 has tracker overload issues (https://github.com/pyroscope/rtorrent-ps/issues/132) and DDOS vulnerabilities (apparently) and 0.9.8 has a major flaw which is triggered by offline trackers (https://github.com/rakshasa/rtorrent/issues/999), bit of a rock and a hard place situation. for now i will monitor the issues and if things change then review the situation. p,s. having said all of the above, rtorrent/rutorrent is STILL my torrent client of choice for me, its fast and has most features you want from a torrent client so im not abandoning it...yet :-).
    1 point
  33. Ok, damit steht also schon mal fest, dass der Server im Netzwerk erreichbar ist. Da es nur per SSH geht, musst du dir darüber die System Logs auf den Stick schreiben: cp /var/log/* /boot/logs/ Nun findest du die syslog Datei auf dem Stick unter /boot/logs/ Oder du kopierst dir mit scp die Datei auf den Mac bzw mit einer Software fällt dir das bestimmt einfacher: https://www.andysblog.de/mac-grafische-oberflaeche-fuer-scp Die syslog kannst du dann hier mal im Forum hochladen. Dann schauen wir mal was es für Probleme gibt. Parallel kannst du auch mal versuchen den Webserver vom Server neu zustarten: /etc/rc.d/rc.nginx restart Wenn "not running" kommt, dann so starten: /etc/rc.d/rc.nginx start Wenn "already running" kommt, dann läuft der Webserver, der die grafische Oberfläche bereitstellt. Dann müsste ich von dir wissen welche Fehlermeldung im Browser genau kommt.
    1 point
  34. No need to rebuild parity, each drive is independent. There are several ways to accomplish this depending on risk level vs time to do the procedure.
    1 point
  35. Great catch! Anyone using the "Local tunnel firewall" option will run into this. If you start a tunnel using the webgui it will look like it started, but when you refresh the page it will actually be stopped. This can't be fixed by the plugin, it will be fixed in the 6.9.0 release of Unraid. In the meantime, anyone having this issue can solve it by adding this to their /boot/config/go script and rebooting: ###### # this section should be removed after upgrading to Unraid 6.9 if ! iptables -S | grep -qom1 "WIREGUARD$"; then iptables -N WIREGUARD iptables -A FORWARD -j WIREGUARD fi if ! ip6tables -S | grep -qom1 "WIREGUARD$"; then ip6tables -N WIREGUARD ip6tables -A FORWARD -j WIREGUARD fi ######
    1 point
  36. try going to host console and type:- docker start binhex-mineos-node this should show you the error thats causing the container not to start, my guess would be port conflict.
    1 point
  37. Hello, If you were running nextcloud 17; like me you didn't keep nextcloud up to date, version 17 is not officially compatible with php 7.4. By chance the upgrade scripts do run on php 7.4. (revert back to the previous version if you tried to pdate manually); If you are runnning an even earlier version of nextcloud, this will probably not work; You should do a backup of the database as well before attemting this, as if one of the upgrade scripts fails because of the php version your database will be in a strange half migrated state. So try this to your own risk. I did the following: docker exec -it nextcloud updater.phar This updated my nextcloud to version 17. But it couldn't run the upgrade scripts. By chance the upgrade scripts of v17 works with php 7.4. Open up appdata\nextcloud\www\nextcloud\lib\versioncheck.php and remove everything beside the <?php at the first line Now run the upgrade script docker exec -it nextcloud occ upgrade Disable maintenance mode docker exec -it nextcloud occ maintenance:mode --off Now re-run, docker exec -it nextcloud occ upgrade until there is no update left. Hope it helps, ; The best way to actually do it, would be by changing the image to get an older version; then run the upgrades; then update the image again. I couldn't bother with that
    1 point
  38. try it again. I repasted into the post for some reason there was a special character pasted in the code. chown -cR nobody:users /mnt/user/appdata/letsencrypt /mnt/user/appdata/nextcloud chmod -cR ug+rw,ug+X,o-rwx /mnt/user/appdata/letsencrypt /mnt/user/appdata/nextcloud
    1 point