Jump to content

mgutt

Moderators
  • Posts

    11,373
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Both are valid, but 02:00... would be more "correct" as it is part of the official local private ranges: x2‑xx‑xx‑xx‑xx‑xx x6‑xx‑xx‑xx‑xx‑xx xA‑xx‑xx‑xx‑xx‑xx xE‑xx‑xx‑xx‑xx‑xx This should avoid MAC address conflicts, but I don't really think something else uses 00:00:00:00:01:28 or similar?!
  2. Dem kann ich nicht folgen. ULA ist bei mir aktiv und unRAID ist auch über den öffentlichen Prefix zu erreichen: Wie ich es mache: - Proxy Container steht auf Host und lauscht auf Port 80 und 443 - unRAID ist geändert auf 5000 und 5001 - die IPv4 und IPv6 der Domain halte ich per Skript aktuell Da der Proxy auf Host läuft, brauche ich den Container nicht neu starten, wenn sich der Prefix ändert, da unRAID dann vom Router den neuen Prefix zugewiesen bekommt, der dann auch im Container gültig ist. Die Alternative dazu wäre br0 mit benutzerdefinierter MAC-Adresse. Ich habe es nicht getestet, aber da man auch da den Prefix nicht setzt, sollte sich auch dieser automatisch anpassen.
  3. There must be a copy paste typo. The flag is correct. Please write the characters manually.
  4. This the default behavior of IPv6 assignment: https://ben.akrin.com/mac-address-to-ipv6-link-local-address-online-converter/ If you start a container, it gets a "random" MAC address (MACVLAN) from docker. This mac address can be obtained through "docker inspect": root@Tower:~# docker inspect rsync-server | grep -A100 NetworkSettings "NetworkSettings": { ... "Gateway": "192.168.178.1", "IPAddress": "192.168.178.128", "IPPrefixLen": 24, "IPv6Gateway": "2003:xxxx:xxxx:xxxx::1", "GlobalIPv6Address": "2003:xxxx:xxxx:xxxx::2", "GlobalIPv6PrefixLen": 64, "MacAddress": "02:42:c0:a8:b2:80", So my container has the MAC address "02:42:c0:a8:b2:80". As there is an algorithm, which builds an IPv6 suffix based on this MAC address, the container now has the following additional IPv6 addresses: 946e7e921b50:~# ifconfig eth0 Link encap:Ethernet HWaddr 02:42:C0:A8:B2:80 inet addr:192.168.178.128 Bcast:192.168.178.255 Mask:255.255.255.0 inet6 addr: 2003:xxxx:xxxx:xxxx:42:c0ff:fea8:b280/64 Scope:Global inet6 addr: 2003:xxxx:xxxx:xxxx::2/64 Scope:Global inet6 addr: fe80::42:c0ff:fea8:b280/64 Scope:Link ... As you can see my container now has three IPv6 addresses. Two of them are based on the MAC address, which resulted in "42:c0ff:fea8:b280". This allows us to forward the ports 80/443 to this suffix. But this won't be stable if you need to remove the docker.img, which can cause a different MAC address for each container. But I found a solution for this! We enable the advanced view and pass the "--mac-address 00:00:00:00:01:28" as extra parameter: While in the fixed IP address field we only set the IPv4: Again, additional IPv6 are added based on the mac-address and our container is permanently reachable through the suffix "200:ff:fe00:128", even if we need to delete the docker.img! I played a little bit around and the shortest suffix I was able to produce, was by using a MAC-address like the following: --mac-address 02:00:00:0F:00:09 --mac-address 02:00:00:0F:00:10 ... It returns this suffix: ::0:ff:fe0f:9 ::0:ff:fe0f:10 ... I tested it with an rsync-server container and made it public through port 22 (never forward this port, this is only for testing!) in my router and it works flawlessly: Thanks @Omri for the inspiration!
  5. Den Container im Host Netzwerk laufen lassen. Dann hat er die IPv6 von unRAID. Alternativ mit br0 versuchen und den DHCP eine zuweisen lassen. Ich glaube dann bekommt der zwar eine lokale IPv6, aber der Suffix bleibt stabil, zumindest solange man das docker.img nicht löscht. Dann könnte man denke ich publix-prefix+suffix nutzen, um den Container zu erreichen.
  6. Die Fritz Box hat IP .254?! IPv6 aktiviert? Was gibt "ping domain" lokal zurück? Die öffentliche oder lokale IP?
  7. Nutzt du Stromsparmechanismen? Es kann sein, dass die Buchse Standby erlaubt und der Stick sich dann bei Aktivität "neu" verbindet, was aber die VM nicht mag.
  8. Also extrem schwache CPU (Single Thread). Kommt also auf den Verwendungszweck der VM an, ob das reicht. Mal als Vergleich: ein i9-13900K hat über 300% mehr Leistung pro Kern. Ein W-1290P hätte immer noch 200%. Mit der CPU kannst du transcoden, aber nur multi threading fähige Codecs und bei 4K dürfte es kritisch werden. Wenn der Strom nichts kostet, dann ok, aber falls doch, dann bezahlt die Stromersparnis die neue Hardware von alleine.
  9. Defrags only if parity is not spinning (to avoid defrag while for example parity check is running). Single drive. Writing to all drives at the same time would be extremely slow because of the parity.
  10. Bevor du das so machst, solltest du dich folgendes fragen: - soll die Quelle auf das Ziel schreiben können (dann kann es Ransomware auch) - was ist mit den speziellen Dateirechten von Containern (Dateien in /appdata gehören verschiedenen Usern, wie zb root, welche auf dem Ziel nur erstellt werden können, wenn man den Root-User des Ziels verwendet, was den ersten Punkt noch problematischer macht). Aus dem Grund sichere ich "komplizierter": - rsync container darf nur read only auf /mnt/user zugreifen - der öffentliche Schlüssel der Quelle ist dem rsync Container übergeben worden - auf der Quelle sichert das Skript /appdata nach /backup/appdata - auf dem Ziel läuft das Skript und holt über root@tower:<rsync_container_port>/mnt/user alle Shares ab außer /appdata Das lokale Skript stoppt wie erwünscht die Container, bevor es ein Backup von /mnt/cache/appdata (SSD) nach /mnt/diskX/backup/appdata (Array) macht. Das externe Skript holt als root ab, kann also alle Rechte 1:1 übernehmen, besitzt aber keine Schreibrechte auf der Quelle. Da die Quelle wiederrum keine Logindaten vom Ziel kennt, macht es das ganze auch noch sicher gegen Ransomware.
  11. Dann wird das denke ich auch so sein, also vielleicht Kabel und/oder Buchse tauschen. Als Kommando konnte ich sonst nur das finden: /etc/rc.d/rc.inet1 restart
  12. Added two interesting things to the initial post:
  13. Ein typischer, aber nicht verbindlicher Aufbau: - alle HDDs dem Array zuordnen - zwei NVMe einem (Cache) Pool zuordnen (RAID1) VMs und Docker liegen auf dem Pool und deine Mediensammlung auf dem Array. Manchmal gibt es Probleme mit spezifischer Dell Hardware und unRAID. Bitte erstmal das Modell im Zusammenhang von unRAID suchen. GPU? CPU reicht dafür? Bitte über einen Docker umsetzen, der spezifische Pfade durchgeschliffen bekommt. Niemals zb per SFTP den Root-Zugang irgendwo verwenden. Keine technische Gründe, sondern einfach wegen der Sicherheit.
  14. Laut der BTRFS Doku gibt es nur die so genannte Offline Deduplizierung: https://btrfs.readthedocs.io/en/latest/Deduplication.html Dh eine Applikation muss die Daten auswählen, die nicht mehrfach geschrieben werden sollen. Dann werden "Extents", da identische Daten enthalten, verlinkt. Das macht zb nachträglich diese Applikation, die nicht in unRAID enthalten ist und die man entsprechend erstmal für unRAID kompilieren und installieren müsste: https://github.com/markfasheh/duperemove Aber selbst wenn man sich diese Mühe machen würde, bringt das in unRAID nichts, denn das Array enthält individuell formatierte Partitonen. Eine Deduplizierung funktioniert dagegen nur innerhalb einer einzigen Partition. Dh es funktioniert wenn nur bei Pools, also einem RAID, das nur eine Partition enthält. Aktivieren muss man dafür übrigens nichts und XFS kann das von Haus aus ebenfalls. Siehe: Wenn du also nicht gerade vor hast alle deine HDDs in einen großen Pool zu packen, wirst du von einer Deduplizierung wenig haben. Ich nutze es zb nur um extrem schnell Backups von VMs und Container zu machen. Kopiere ich das Backup allerdings woanders hin, geht dies verloren.
  15. Arbeite dich durch: https://www.google.com/search?q=0x80070043
  16. Dir ist klar, dass in dem Screenshot deine Adresse zu sehen ist? Wegen deinen Problem: Folge den Debug 5xx error Abschnitt: https://forums.unraid.net/topic/110245-support-nginx-proxy-manager-npm-official/
  17. Mega interessant. Wie kann das denn alle C-States zerstören?! Kannst du das jederzeit reproduzieren?
  18. Was ist, wenn du Rechte Maustaste auf Netzwerkumgebung > Netzlaufwek verbinden machst. Da dann als Ziel \\DATENSERVER\SHARENAME und die Option Anmeldedaten eingeben aktivieren. Kommt dann der Login oder auch nur der Fehler?
  19. Und wenn du auf den netzwerkordner zugreifst wirst du dann nach einem Login gefragt? Wenn nein dann ist vermutlich dein Windows username identisch zu dem unRAID User oder?
  20. Ja geht auch lokal. Ginge sogar lokal ohne Internet, wenn man einen lokalen DNS Server betreibt, der die IP der Domain gegen die lokale IP ersetzt. Aber Internet wird man ja in der Regel dauerhaft haben.
  21. Ja aber bei 2TB glaube ich egal, weil selbst der Impact bei 1TB gering war: https://www.computerbase.de/2021-08/970-evo-plus-auch-samsung-tauscht-ssd-komponenten-aus/
  22. Ich würde das machen, wenn das Finanzielle keine Rolle spielt. Nimm Samsung und du brauchst die Einstellung auch nicht mehr. Jeder User kann seine Nextcloud über WebDAV als Windows Laufwerk einbinden. Kein SMB notwendig.
  23. Boote mal bitte Ubuntu und prüfe da die C-States.
×
×
  • Create New...