-
Posts
370 -
Joined
-
Last visited
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by vakilando
-
-
Du kannst folgendes machen:
Erstelle ein Verzeichnis für diesen Container im Appdata Verzeichnis.
Dann startest du den Docker Container und kopierst die gewünschte Datei aus dem Container.
Siehe z.B. hier: https://websetnet.net/de/how-to-use-docker-cp-to-copy-files-between-host-and-containers/
Anschließend beendest du den Docker Container mountest die Datei in den Container.
Die genauen Befehle habe ich nicht zur Hand, da ich unterwegs bin... -
gehst im Browser du über
- http oder https auf Unraid?
- IP-Adresse oder DNS-Namen?
Hast du das Problem auch bei den Apps und / oder Plugins?
-
-
ich schätze das macht Unraid von selbst...?
Aber es zu tun ist sicher kein Fehler. Vielleicht aber nach Punkt 7.?
-
Alles interessante Vorschläge...
Ich würde vom ersten Gedanken her folgendes machen:
- sicherstellen, dass ein vollständiges Backup vorhanden ist (!)
- sicherstellen, dass ein Restore auch funktioniert (ich hab schon Pferde kotzen sehen!)
- Optional: über Unbalance Plugin prüfen und sicherstellen, dass die Ordner nicht (mehr) auf allen Festplatten verteilt liegen
- Parity Platten aus dem System entfernen und ausbauen
- neue 18 TB Platte als Parity Platte einbauen und Parity erstellen lassen
- neue 18 TB Platte ins Array aufnehmen
- über Unbalance Plugin Daten verschieben lassen
-
12 minutes ago, alturismo said:
also Apps, Dokumente entpacken usw ist damit nicht
ok, wusste ich nicht...
Ehrlich gesagt habe ich auch nur kurz auf englisch im Forum gesucht "docker plugin unpack archive autmomatic". Angeschaut habe ich mir filebot oder unrarall nicht....
-
Schau mal in diesen Thread, dort wird filebot und unrarall genannt.
Filebot gibt's wohl in CA und ist mächtiger als unrarall da es weitere Dateioperation außer entpacken beherrscht, zudem erweiterbar durch Scripte.
https://forums.unraid.net/topic/77782-plugindockerapp-to-automatically-unpack-archives-rar-mainly/ -
10 minutes ago, Master-Rudi said:
Hat da jemand eine Theorie?!
nö, ehrlich gesagt nicht... Mein Conbee II hing anfangs problemlos am Front-USB, jetzt allerdings mit einer USB-Verlängerung an einem der hinteren USB-Ports (also direkt am Motherboard).
-
7 hours ago, Master-Rudi said:
kannst du mir mal deine Konfig als Template geben?
Hallo @Master-Rudi,
im Anhang findest du meine Docker XML.
Hinweis:
In der XML sind noch "Rückstände" des Dockers von marthoc (https://hub.docker.com/r/marthoc/deconz/), der nicht mehr gepflegt wird.
Beim Wechsel zum Docker "deconzcommunity/deconz" habe ich diese nicht entfernt.
Es handelt sich um folgende Einträge: "Hilfe Thread:" und "Docker Hub URL:"
Den Wert meiner Variable "DECONZ_VNC_PASSWORD" habe ich in der XML natürlich abgeändert....
Hier noch mal ein kompletter Screenshot:
- 1
-
-
2 minutes ago, jj1987 said:
Grundsätzlich ginge das wohl, aber alles was du innerhalb des Dockers änderst/installierst ist nach einem Container Update wieder weg.
Das wäre glaube ich nicht so unbedingt in deinem Interesse😉
Jo, das ist korrekt.
Außerdem würdest Du ja ein Debian als Docker in Unraid aufsetzen und in diesem "Dockerized Debian" dann Docker installieren um dort wiederum Mailcow zu installieren.... Ist glaube ich nicht so schlau
-
Ich habe mir damals die offizielle Debian netinstall ISO geholt (kleinste ISO) und dann alle notwendigen Komponenten installiert. Dauert vielleicht etwas länger, weil dies und das nachinstalliert werden muss aber dafür erhältst du ein schlankes System.
-
1 hour ago, Hoddl said:
Keine Ahnung, noch nie getestet.
Ein komplettes Betriebssystem als Docker zu "installieren" geht irgendwie am Sinn von Docker Containern vorbei find ich. Besonders wenn es kein Test sondern ein dauerhaft laufender Server werden soll.
-
-
Für die "interne" Nutzung, also Mailcow holt also z.B. alle Mails ab, aber du versendest über deinen Mail Provider gibt's eigentlich keine Stolpersteine.
Wenn du wirklich mit Mailcow alle Mails nach extern versenden möchtest, benötigst du auf jeden Fall ein Mail-Relay (Smarthost) und entsprechende DKIM, SPF Einträge in deinem DNS und das muss dein Hoster unterstützen. Ich bin bei Selfhost und da funktioniert das problemlos.
-
Hallo @Hoddl, die Kuh läuft unter Unraid als Debian VM in der dockerized Variante
-
Schau dir Mal Mailcow an: https://mailcow.email/
Beziehungsweise Mailcow Dockerized: https://github.com/mailcow/mailcow-dockerized
Ich habe auf meinem Unraid eine Debian VM mit Mailcow Dockerized laufen - seit Jahren ohne Probleme (früher auf Proxmox). Als Webfrontend läuft SOGo und als Client nutze ich Thunderbird (Windows/Linux) und Aquamail mit aCalendar, OpenTasks und DAVx (Android). Somit habe ich alle Mails, Termine, Aufgaben lokal bei mir auf dem Server.
Ich Habe eine Domain bei Selfhost.de mit entsprechenden MX, DKIM, SPF Einträgen und es funktioniert somit sogar das Versenden der Mails. Die Mails versende ich entweder über das Postfach bei meinem Provider (Hosteurope) oder mit meinen Mailcow-Server über den Selfhost Forwarder.
Es funktioniert gut, ist aber nicht einfach mal so schnell konfiguriert, besonders wenn man auch auf Sicherheit bedacht ist (und das sollte man!!) und nicht als Spam-Versendemaschine missbraucht werden will.
Irgendwann wenn ich mal Lust und Zeit habe, werde ich die Docker mal direkt auf Unraid installieren - vielleicht...
-
gerne
-
FileZilla oder Bitvise würde ich aus persönlicher Erfahrung empfehlen können.
- 1
-
Meines Wissens nicht.
Es gibt das Plugin "Libvirt Hotplug USB" (A Plugin for Hot-plugging USB Devices to Running VMs. Libvirt Hotplug USB allows mounting of USB Devices).
Damit kannst du z.B. USB Sticks einer laufenden VM zuweisen.
Ich habe nie probiert was passiert wenn man dies tut, dann den Stick entfernt um ihn anschließend wieder einzustecken.
Oder was passiert wenn du den Stick zuweist, ihn dann wieder abziehst, dann die VM neu startest und dann den Stick wieder einsteckst.
-
Ich verstehe deine Config auch nicht so recht...
Ich habe von Vodafone ein CBN Kabelmodem und daran ist meine Sophos XG Firewall angeschlossen.
Das CBN Kabelmodem ist im Bridge Mode, leitet also alles stumpf an die XG weiter.
Die XG hat 4 Ethernet Ports an denen dann meine VLAN-fähigen Switche hängen (Zyxel).
Die XG hat (wie Unraid und die Switche) VLANS konfiguriert und kümmert sich ums Routing.
An den Switchen hängen meine weiteren Geräte (Unraid, WLAN-Router, Raspi mit piVCCU, Hue Bridge, Kameras, etc).
Kannst du nicht auch die EB in den Bridge Mode versetzen (über den Vodafone "Kundencenter" unter Einstellungen > Interneteinstellungen > Bridge Modus anpassen)?
Dahinter dann deine Allnet (als FW/VPN) und an den LAN Ports dann den Unraid Server. Ggf. zwischen Allnet und Unraid noch einen Switch oder parallel dazu, so wie du es brauchst...
-
2 hours ago, Tiras said:
In einem englischen Forum habe ich gelesen, dass eine Anmeldung nur mit dem Root Benutzer möglich ist.
Das ist richtig.
2 hours ago, Tiras said:Das Problem ist nämlich, dass keine Unterordner mit einem anderen Benutzer im Share erstellt werden können
Das ist seltsam. Wenn du einen User in Unraid erstellt hast und die Shares erstellt und konfiguriert hast, sollte es gehen.
Unter "Einstellungen => Globale Freigabeeinstellungen => Benutzerfreigaben" aktivieren muss natürlich "Ja" stehen.
Unter "Freigaben" => Klick auf "DeinShareName" muss unter "SMB Sicherheitseinstellungen" bzw. "NFS Sicherheitseinstellungen" natürlich auch die Freigabe aktiviert sein.
Unter "SMB Benutzer Zugriff" muss der User "lesen/schreiben" ausgewählt haben.
-
Zum einen hatte ich die 4 SSDs (2x1TB, 2x480GB) bereits da, zum anderen spielte der Gedanken mit die VMs vom Rest zu trennen.Versprichst du dir davon eine bessere Performance oder war es eher eine finanzielle Entscheidung, weil ein 2TB Cache zu teuer geworden wäre? Weil ich frage mich warum man das unbedingt teilen will. So eine NVMe hat ja schließlich massig IOPS. -
Ja, so ähnlich habe ich es auch.
Einen Pool "Cache" für appdata und Cache und einen Pool "VMs" für die VMs.
Mein Cache-Pool ist 1 TB groß
Mein VMs-Pool ist 480 GB groß.
Wie groß deiner sein muss, kann ich dir nicht sagen, da es davon abhängig ist wie viele Docker laufen und was die im Cache speichern. Außerdem hängt es davon ab wie viele Daten du über den Cache Pool "schaufelst" und wie oft der mover läuft.
Man muss mit dem mover ggf. einfach ein bisschen experimentieren, testen und die Auslastung im Blick behalten.
WebUI hängt, root pwd geht nicht, waaahhh!
in Deutsch
Posted
Moin, dieses Verhalten kenne ich auch nur in Verbindung mit einem vollgelaufenen sysslog (was meiner Meinung nach nicht passieren darf...) nachdem eine Cache SSD gestorben ist (btrfs RAID 1).
Dass die Root Passwörter fehlen finde ich sehr suspekt.
Ansonsten sind die Dateien mit den fehlenden Root Passwörtern unberührt?
Welches Änderungs- / Erstelldatum haben sie?