hawihoney

Members
  • Posts

    2379
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by hawihoney

  1. Du redest von dem Docker Container tvheadend? Ich unterstelle mal, dass der Container tvheadend gestoppt ist. Installiere Dir dann, wenn nicht schon geschehen, das "Dynamix File Manager" Plugin. Anschließend guckst Du in den tvheadend Container Einstellungen wo der Container liegt. Bei mir sähe das wie auf dem Screenshot aus. Du nimmst aber das was bei Dir dort steht. Dann navigierst Du mit dem File Manager zu diesem "[...]/tvheadend/" Ordner und löschst ihn. Wenn Du es komplett machen willst, dann löschst Du ebenfalls auf dem "Flash" Device im Ordner "/config/plugins/dockerMan/templates-user/" die zugehörige "my-tvheadend.xml" Datei:
  2. Sind das wirklich alles nur Datenplatten oder sind darunter auch eine oder zwei Parity-Platten? Wenn ausschließlich Datenplatten: Neue, große Platte ins Array aufnehmen. Alle Daten der kleineren Platten auf die neue große Platte kopieren (nicht verschieben!). Zum Abschluss die kleinen Platten entfernen und "New Config" mit der großen Daten-Platte durchführen.
  3. Da gibt es mehrere Möglichkeiten: 1.) Über die Container Console - hier am Beispiel HomeAssistant: Dann landest Du im Container: 2.) Nicht immer, aber oft, kommst Du auch über das "Dynamix File Manager Plugin" an die zu bearbeitenden Dateien:
  4. Mit Update-Pfad meinte ich keinen echten Pfad - eher einen Weg. Etwas unglücklich ausgedrückt. Sorry. Dieser MischMasch bei Nextcloud gefällt mir einfach nicht. Bin eher ein Freund von Abgrenzung/Isolation etc. Dafür haben wir doch Container. Alleine die beiden Wege bei Nextcloud wundern mich bei jedem Update aufs Neue. Damit werde ich mich nie anfreunden.
  5. Ok, hatte also das Konstrukt nicht verstanden: Collabora läuft also mit im Nextcloud Container. Und zu den ohnehin zwei Update-Pfaden (Nextcloud Container, Nextcloud im Container) kommt dann noch ein dritter hinzu (Collabora im Nextcloud Container). Und wir reden nach wie vor über einen einzigen Container <Kopfschüttel>.
  6. Nur wenn Pfade durchgereicht werden. Ich kenne das Konstrukt nicht, aber wenn ContainerA auf einen Pfad von ContainerB aufsetzt, dann müssen beide neu gestartet werden. Das ist meine persönliche Erfahrung. Ist das bei den beiden so?
  7. Da ist etwas in "/mnt/" was das nicht hingehört. Führe mal "ls -la /mnt/" auf der Unraid Konsole aus. Außerdem klingt das doppelte "docker" im Pfad nicht gesund. Oder hat sich wieder etwas geändert was ich nicht mitbekommen habe.
  8. Ich wollte langsam mal meine alte SWAG Installation nach NGINX Proxy Manager portieren. Bisher nutze ich nur Plex und Nextcloud, da wird aber evtl. noch HomeAssistant hinzu kommen. Zunächst 2 Fragen: 1.) Was ist mit den alten Zertifikaten in SWAG? Muss man die sichern und kopieren oder kann man mit NPM einfach neue für die selben Domains/Subdomains ausstellen lassen? 2.) Welchen NPM Container empfehlt Ihr? Ich habe mal zusammengestellt, wie die aktuelle Konfiguration aussieht. DynDNS läuft über DuckDNS, die Fritzbox aktualisiert die Änderungen bei DuckDNS selbständig. Was muss ich beachten? Vielen Dank. DynDNS über DuckDNS und Fritzbox: -------- https://www.duckdns.org/update?domains=xxxxxxxx&token=xxxxxxxxa&ip=<ipaddr> Fritzbox Portfreigaben -------- HTTP-Server --> extern 80 --> intern 81 HTTPS-Server --> extern 443 --> intern 444 Plex --> extern 32401 --> intern 32400 Container Netzwerke -------- SWAG --> bridge Nextcloud --> bridge Plex --> host HomeAssistant --> host Plex Fernzugriff -------- Privat --> 192.168.178.35:32400 Öffentlich --> externeIP:32401 Öffentlichen Port manuell definieren --> 32401 Plex Netzwerk -------- Eigene URLs für den Zugriff auf diesen Server --> https://plex.xxxxxxxx.duckdns.org Liste der IP-Adressen und Netzwerke die keine Authentifizierung benötigen --> 192.168.178.0/24 Nextcloud config.php -------- 'trusted_domains' => array ( 0 => '192.168.178.35', 1 => 'nextcloud.xxxxxxxx.duckdns.org', ), 'trusted_proxies' => array ( 0 => 'swag', ), 'overwrite.cli.url' => 'https://nextcloud.xxxxxxxx.duckdns.org', 'overwritehost' => 'nextcloud.xxxxxxxx.duckdns.org', 'overwriteprotocol' => 'https',
  9. Ja, genau. Einen Versuch ist es wert. Bei allen Versuchen, auch Deinen eigenen von ganz oben mit der Variable USBDEVICES, ist es interessant zu wissen warum chown das Device nicht findet. Also bei jedem Versuch auch ein entsprechendes ls /dev/... auf der Container Konsole ausführen - also dem Ziel. Nachtrag: Ich meine diese Fehlermeldung:
  10. Zwei Versuche mit eigenem Device - wenn nicht schon geschehen. Beide ohne die Variable USB-Devices: 1.) /dev/serial/by-id/xyz:/dev/serial/by-id/xyz 2.) /dev/serial/by-id/xyz:/dev/ttyACM0 Mich wundert zudem das -port0 Anhängsel. Wäre vielleicht einen dritten Versuch wert. Kommt das von Deinem Motherboard? Der Fehler ist eindeutig. chown findet das Device nicht. Was meldet denn ls in der Container Konsole?
  11. Es gibt schon bescheuerte Software. Natürlich kann selbst HPFS solche Zeichen (escaped) verkraften, aber nur weil etwas theoretisch geht, muss man es nicht machen. Ab und zu mal das Hirn einschalten mag man den Entwicklern zurufen. Meine ältesten Dateien stammen aus Anfang der 80er. Alle meine Projekte und Dateien habe ich von OS zu OS und von FS zu FS mitgenommen. Dabei sind mir immer wieder viele Informationen verloren gegangen (Zeitstempel, Sonderzeichen). Irgendwann war ich es satt. Seit über 20 Jahren benenne ich alle Dateien nur noch "a-z 0-9" mit führendem Zeitstempel im Dateinamen. E.g. "20221121 194001 Bla Bla In Duesseldorf.ext". Skripte patchen mir das hin und her.
  12. Das hat nix mit XFS oder Unraid zu tun. Gerade für Dich auf Windows probiert: C:\Users\bloed>echo > "a?b.txt" Die Syntax für den Dateinamen, Verzeichnisnamen oder die Datenträgerbezeichnung ist falsch. Kopierprogramme benennen das oft im Vorfeld für Dich um. Da musst Du ansetzen. Wo kommen denn solche Dateinamen oder Ordnernamen bei Dir her? In meiner Welt gibt es so etwas nicht.
  13. Ach, es geht um einen speziellen Container. Das habe ich dann falsch verstanden. Kenne den nicht. Da bin ich dann mal wieder raus. Wird wahrscheinlich einen eigenen Support Thread zum Container geben.
  14. Das wird aber so was von in die Hose gehen. /mnt liegt - wie das gesamte Unraid - im RAM. Nach dem nächsten Neustart ist das alles weg. Ordner liegen auf Platten /mnt/diskx oder unterhalb Shares /mnt/Sharename. Top-Level Ordner mutieren automatisch zu Shares. Auch hier stelle ich wieder fest, dass ohne die Grundzüge von Unraid auch nur ansatzweise verstanden zu haben, Benutzer sofort beginnen es verbiegen zu wollen. Softlinks, Regex, Standard-Ordner - wie für Docker - verschieben, ... Das alles ist ein Garantie für zukünftige Support-Fälle.
  15. Schau mal in die Einstellungen des "Unassigned Devices" Plugin. Zu finden unter dem Einstellungen Tab von Unraid:
  16. Wenn man es exakt so haben muss - warum auch immer: Lege für jeden User einen Share an. Nutze für den Zugriff auf die Daten das "Dynamix File Manager" Plugin aus dem Unraid App Store. Dieses ist systemnah und installiert sich nahtlos in die Unraid Oberfläche. Für das Laden der Daten vom alten System installiere das "Unassigned Devices" Plugin aus dem Unraid Store. Dieses ist systemnah und installiert sich nahtlos in die Unraid Oberfläche. Mit UD kannst Du den entfernten Zugriff auf Dein altes NAS einrichten und die Daten schlussendlich mit FM kopieren. Installiere Nextcloud und nutze die "Externe Speicher" Erweiterung von Nextcloud um die Unraid Shares einzubinden. Nextcloud hat WebDAV mit an Bord. Achtung: Unraid ist nicht Synology sowie keine voll aufgeblasene Linux Distribution. Es ist eine NAS Appliance mit viel Mehrwert. Gerade beim Rechtesystem wird sich der eine oder andere umgewöhnen müssen. Denn das System arbeitet meist mit "nobody:users" (99:100). Man kann daraus ausbrechen, aber dann muss man gewährleisten das die vergebenen Rechte den gewünschten Zugriff gewähren.
  17. nextcloud vs. Nextcloud. Das würde ich nicht machen. Hat aber nix mit Deinem Problem zu tun. Kann ich bestätigen. Maßgeblich für User ist data. Dürfte in Ordnung sein.
  18. Ich nutze ebenfalls den LSIO Container. In der GUI habe ich das so angelegt. Bei mir erhalten alle Container Pfade den Suffix "Slave" - also r/w/slave oder r/slave etc.: Das ist das Ergebnis von der Unraid Konsole. Wobei ich mich nicht daran erinnern kann, dass ich dort eine Unterscheidung vorgenommen habe: drwxrwxrwx 9 nobody users 125 Oct 20 07:47 nextcloud/ drwxrwx--- 9 nobody users 224 Feb 15 2021 nextcloud.data/
  19. Korrekt. Kein "Ja aber". Ist einfach so. Die Parity Berechnung für ein Array mit genau zwei Platten (1x Parity, 1x Daten) erzeugt zufällig ein RAID-1. Die Art der Berechnung für eine einzelne Parity Disk ist immer gleich - egal ob 2 oder 24 Platten.
  20. Nein. Das geht derzeit nur über mehrere virtualisierte Unraid Server:
  21. Falsch. Die Formel, der Mechanismus, ist im Array immer gleich. Bei genau zwei Platten entsteht dann "zufällig" ein RAID-1 Verbund. Raid-4 ohne Striping. Ansonsten identisch. Pool: Einzelne Platten unter XFS oder BTRFS. Mehrere Platten als RAID unter BTRFS. Array: Mehrere Platten als RAID-4 (ohne Striping) mit 0, 1 oder 2 Parity Disks Zusätzlich gibt es ZFS (Plugin?), Unassigned Devices (Plugin) Die Platten-Limits sind leider vor Kurzem von der Website verschwunden. Sonst würde ich das hier posten.
  22. Das ist aber nix was Deine Probleme betrifft. Hoffte es würde dort etwas passendes stehen. Probleme wie die von Dir geschilderten sind für mich einfach nicht nachvollziehbar. Wenn man eine Software installiert, dann erwartet man, dass diese zumindest ihre eigene benötigte Datenbank richtig einrichtet. Nur zur Kontrolle. Das sind Deine Repositories? lscr.io/linuxserver/mariadb lscr.io/linuxserver/nextcloud