alturismo

Moderators
  • Posts

    6101
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by alturismo

  1. also, Vorschlag wäre, Lizenz sichern (key Datei aus config, Basic, Plus, Pro, ...), stick neu machen (keine Sicherung), Lizenz in den config Ordner, starten.
  2. im Bezug auf ? es steht jetzt eigentlich alles hier, kommt jetzt drauf an was du wie ... umsetzen willst
  3. ja, hatte ich, aber da steht für mich nichts interessantes drin ... sorry, da kann vielleicht jemand was dazu sagen wo über den Fehler gestolpert ist ... oder du schaust mal im NC Forum nach was da kommt ... ich kann den Fehler leider nicht nachstellen ...
  4. genau das war gemeint ... genau dafür ist der Patch ... vielleicht noch als Hintergrund, die Docker sind falsch konfiguriert, sprich, haben "leere" Pfade im template wo du nichts eingetragen hast ... Lösungen 1/ docker patch > ignoriert dies jetzt > ist ein "workaround" 2/ leere Pfade entweder passenden Eintrag setzen, oder löschen wenn nicht benötigt ...
  5. es wird empfohlen ... host anstelle bridge, aber ... die custom (mit eigener ip) ist wie host zu sehen, also gleichwertig Nein, um host <> bridge nutzen zu können muss das aktiv sein ... es gäbe Umwege ... aber lassen wir das mal auch zum Start siehe deinen anderen Thread zum Thema "was theoretisch geht"
  6. dein cache startet auch nur wenn das array gestartet ist ... "its a feature, not a bug ...", sprich, by design aktuell noch zumindest ... aber ja, wenn alles auf dem cache liegt, bräuchte es theoretisch kein array
  7. das mapping ist dazu da um "außerhalb" darauf zuzugreifen. deine Idee ist ja, alles zu isolieren bis auf den NPM welcher dann extern (lokal oder extern) erreichbar wäre, dieser widerum nur intern dann auf die Services zugreift ... daher Nein, wenn das stehen (und gehen) sollte wäre kein mapping mehr nötig da ja alles durch den NPM geschleust werden würde ... Aber wie gesagt, Theorie und Praxis ... fang erstmal "normal" an, wenn das mal alles sitzt ... kannst du ja anfangen zu "spielen" und schauen was so umsetzbar ist ...
  8. ja, seine Platten gehen in den spindown ...
  9. @Computerboss hier mal als Startpunkt und bedenke noch bitte, es gibt Services welche eine direkte TCP/UDP Verbindung ggf. brauchen dass diese auch funktionieren ... einlesen, testen, usw usw ... ich wünsche viel Erfolg bei deinem Vorhaben (ernst gemeint), aber da dies für mich persönlich "sinnfrei" ist bin ich hierbei raus.
  10. Nein, löschen = entfernen ... löschen, ja, wieder anlegen ... warum ? was ist an "löschen" missverständlich ? der Docker sollte auch ohne mapping starten, dann ist er halt komplett isoliert und du kannst ihn nur "intern" wieder erreichen, wie auch immer ... und ich bin hier raus, hatte Dir ja bereits im CB Forum hinterlassen dass dieses setup sicherlich im Chaos enden wird ... und ich da nicht supporte, können gerne andere evtl. unterstützen bei dem Vorhaben ... Hier ein Beispiel, Docker alle mappings einfach gelöscht, gestartet, fertig ... Pulling image: lscr.io/linuxserver/syncthing:latest IMAGE ID [1539304704]: Pulling from linuxserver/syncthing. IMAGE ID [3c712efb095a]: Already exists. IMAGE ID [2298c655b51e]: Already exists. IMAGE ID [07a92bb0b182]: Already exists. IMAGE ID [86de3d51c70a]: Already exists. IMAGE ID [ef1d9ab489a7]: Already exists. IMAGE ID [3f41ce6263da]: Pulling fs layer. Download complete. Extracting. Pull complete. IMAGE ID [f13d5abef2df]: Pulling fs layer. Downloading 100% of 10 MB. Verifying Checksum. Download complete. Extracting. Pull complete. IMAGE ID [85b4a6eeb194]: Pulling fs layer. Downloading 100% of 568 B. Verifying Checksum. Download complete. Extracting. Pull complete. Status: Downloaded newer image for lscr.io/linuxserver/syncthing:latest TOTAL DATA PULLED: 10 MB Command execution docker run -d --name='syncthing' --net='bridge' -e TZ="Europe/Berlin" -e HOST_OS="Unraid" -e HOST_HOSTNAME="AlsServerII" -e HOST_CONTAINERNAME="syncthing" -e 'PUID'='99' -e 'PGID'='100' -e 'UMASK'='022' -l net.unraid.docker.managed=dockerman -l net.unraid.docker.webui='http://[IP]:[PORT:8384]' -l net.unraid.docker.icon='https://raw.githubusercontent.com/linuxserver/docker-templates/master/linuxserver.io/img/syncthing-logo.png' -v '/mnt/cache/Daten/Als/':'/data1':'rw' -v '/mnt/cache/Daten/xyz/':'/data2':'rw' -v '/mnt/user/appdata/syncthing':'/config':'rw' 'lscr.io/linuxserver/syncthing' 3f038d49e4bcf5ede1210a0233d14deaea4844fc80d29843ba5409ff24c4d1d6 The command finished successfully!
  11. Lösch die mappings ... [emoji6] Zum Rest kennst du meine Antwort ... Gesendet von meinem SM-S911B mit Tapatalk
  12. von alleine passiert das auch nicht, lies doch bitte oben mal richtig ... der mover macht das ... und wenn du einfach umstellst auf "cache only" ... macht der mover nichts mehr, jetzt bliebe "von Hand" ... Beispiel, plugin File Manager installieren, damit kannst du dann die Daten verschieben ... oder umstellen auf das Thema cache < array und den mover laufen lassen ... geht auch manuell. auch dies steht in den docs ...
  13. Nein ... wenn du die Platten wieder so zuweist wie vorher erkennt Unraid den Inhalt und alles ist ok ... wobei ich nicht glaube dass dies dein Problem lösen wird ... häng eher mal ne diagnostics hier rein, dann kann vielleicht jemand eher was dazu sagen ...
  14. anstelle deesen .... dauert auch nur ein paar Minuten ... je nach Anzahl Docker Dienst stoppen Docker wipe Image / directory Docker Dienst starten Docker Tab Add Container, scrollen zu den User Templates, die Docker einfach wieder adden, dabei wird alles mit den bestehenden settings neu erstellt, appdata liegt ja eh außerhalb, sprich, sollte wieder gehen und alles wieder so sein wie vorher ...
  15. es gibt bereits diverse Themen hierzu im deutschen Bereich, Suche oben rechts ... oder google im allgemeinen zu dem Thema, VPS, SSH Tunnel, Wireguard Tunnel, ...
  16. vielleicht mal posten wie das aussieht 1/ Shares allgemein 2/ Compute all um zu zeigen wie es dahinter verteilt ist dann kann man eher was zu spinups ... sagen das AMD nicht die erste Wahl ist ... sollte bekannt sein wenn man sich hier informiert aber muss jetzt nicht zwangsläufig in deinem Fall nötig sein für ein paar Watt neue Hardware zu kaufen und Geld zu vernichten ...
  17. dann ist auch "Ruhe" auf den HDD's im array, ja, wäre meine Empfehlung. Rest auch, wobei ich domains auch fix auf dem cache (pool) habe und nichts davon im array. dein pool ist ja im raid mode, sprich, Ausfallschutz ist auch gegeben, passt soweit dann. das übernimmt der mover, dafür sind ja auch diese Einstellungen (primary, secondary) ... der mover verschiebt dann entsprechend (oder belässt alles). Mover wird in den Settings aktiviert und scheduled (wann bzw wie oft soll er laufen), der schaut nicht permanent nach ... Share settings (cache pools) bei einem cache > array setup, landen neue Daten auf dem cache, wandern dann (meist in der Nacht) vom cache ins array ... (Standard) bei einem cache only setup bleibt einfach alles auf dem cache (Standard) bei einem cache < array setup wird versucht alles auf dem cache zu halten, ist der voll wird verschoben, wenn nicht dann passiert nichts (naja ... ) steht auch alles in der doku ... https://docs.unraid.net/category/unraid-os/ sicherlich kein Schaden den Link mal zu speichern und bei Bedarf da zu lesen
  18. dazu solltest du definieren was du möchtest domains (VM's) werden auf dem cache "gehalten" und nur bei Bedarf (cache voll) aktuell verschoben, wenn wieder Platz ist wieder retour verschoben isos, werden neue Dateien erst auf den cache abgelegt, wenn der mover läuft dann ins array verschoben system, alles direkt aufs array (ganz schlechte Idee wenn man keine spinups, permanent laufende disks, .. haben will) was willst du erreichen ?
  19. 1/ hast du auch ne öffentliche ipv4 an deinem Anschluss ? wer ist dein ISP ? 2/ Port Freigabe, sollte HTTP extern 80 auf NPM 1780, HTTPS extern 443 auf NPM 17443 sein, ist das so ?
  20. ja, mach das in einem Schwung Nein, muss man nicht, als Parity zuweisen, dann wird die eh "platt" gemacht
  21. was heißt das ? du startest den "safe" mode und kommst dann drauf ? wenn ja, hängt wohl ein plugin, eine config, ...
  22. soviel kannst du da nicht beachten, HBA devices lassen meist keine hohen states zu, daher oft die Empfehlung eher auf sata pcie Karten (asm xyz) zu setzen. aber bei der technischen Erklärung, nicht davon ausgehen das jetzt deine CPU auf Vollgas läuft ja, Verbrauch ist sicher etwas höher ... aber nicht dramatisch (für den normalen user), wenn du extrem auf Strom sparen aus bist, dann ist das wahrscheinlich der falsche Weg gewesen ... das wollte @DataCollector damit ausdrücken.
  23. angefangen mit "in den passenden Thread verschoben" ... und vielleicht mal deine docker run commands hier ergänzen, hört sich nach nicht persistent an ... da ich jedocher "weder noch" nutze ... könnten dann andere ggf. etwas dazu sagen.
  24. ok, dann schau mal parallel im Log von Nextcloud was da steht, kommt sicher ne php Fehlermeldung wenn du die external storage app ergänzen möchtest.
  25. dafür braucht es nicht neu zu installieren, für die Zukunft ... die = Mehrzahl wo stehst du denn aktuell jetzt Nextcloud Docker läuft ? mit mariadb ? login geht ? apps gehen ? external storage wirft den Fehler aus wie oben beschrieben ?