Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Die Fritz!Box vergibt so viel ich weiß keine öffentlichen IPv6 an lokale Geräte. Dann wäre die Firewall ja sinnfrei. Wenn die IPv6 schon nicht von außen geht, kann natürlich auch der Tunnel nicht gehen. Nimm mal bitte ein Handy und teste ohne WLAN über diese Seite ob IPv6 an deinem Handy funktioniert: https://test-ipv6.com/ Falls ja, musst du nun in der Lage sein die Nextcloud über https://IPv6:444 zu erreichen. Das ist die Grundvoraussetzung für den Tunnel.
  2. I'm using two fans and let them spin constantly at a lower speed with the included throttle adapter of Noctua. But my case (bitfenix Mini ITX) offers a 200mm fan in the front, which makes this task easy.
  3. Unwahrscheinlich. Der eingebaute Controller drosselt die SSD dann einfach. Rausfliegen darf die deswegen nicht. Was steht denn in den System Logs? I/O Fehler? Optimal wäre denke ich der Test mit dem offiziellen Samsung Tool in Windows. Da dann auch einen vollen Benchmark, damit du siehst was passiert, wenn die heiß wird. Das reicht schon. Wobei die Samsung bei mir eigentlich nie so schnell heiß werden. Aber ich kann mir gut vorstellen, dass NVMe im RAID niemals in den Standby gehen (und daher nie runterkühlen). Die Tage hatten wir dazu die Überlegung statt BTRFS RAID1 mit zwei einzelnen XFS zu arbeiten, wobei die zweite per rsync (Lsyncd) synchron gehalten wird. Das wäre dann nicht 100% live, aber nah dran und Standby ginge in jedem Fall.
  4. In Windows kannst du übrigens offene Ports auf dem IONOS Server mit PowerShell prüfen. Dazu das eingeben: Test-NetConnection IPv4vonIONOS -Port 80 Test-NetConnection IPv4vonIONOS -Port 443 Du hast die IPv6 in deinem 2. Bild übrigens 1x nicht zensiert
  5. Also du hast nun einen Tunnel zwischen 443 und 444 aufgebaut? Hast du dann https://IPv4vonIONOS ohne Port aufgerufen? EDIT: Scheinbar unterstützt der IONOS Server nicht standardmäßig IPv6?! Schau mal bitte im Webpanel ob man das irgendwo aktivieren kann. Bin ich über diesen YouTube Kommentar drauf gekommen: Wie man sieht konnte https://IPv4vonIONOS:444 nicht gehen, weil der Port standardmäßig blockiert wird.
  6. Du hast nur eine SSD im Cache. Für eine Ausfallsicherheit brauchst du zwei SSDs, die im RAID1 betrieben werden. Ich habe nur eine, ignoriere diese Warnung und sichere regelmäßig die Daten. Empfehlenswerter wären aber in jedem Fall zwei SSDs.
  7. Du hast einen Tunnel zwischen dem Port 444 auf dem IONOS Server und 444 deines lokalen Servers aufgebaut. Jetzt wo der Tunnel auf 444 aufgebaut ist, sollte es auch gehen, aber du musst https und den Port nutzen. Also https://IPv4vonIONOS:444 und du solltest Nextcloud sehen. Ohne Port geht es nur, wenn du 443 = https oder 80 = http auf den IONOS Server nutzt. Das Kommando wäre also so: 6tunnel 443 IPv6 444 Der erste Port ist also der, wo der Traffic auf dem IONOS Server ankommt und der zweite ist der wo der Traffic hingeleitet werden soll. Um den aktuellen Tunnel zu entfernen einfach alle 6tunnel Prozesse killen: pkill 6tunnel
  8. Das darf nicht passieren. Dann musst du unter den Global Share Einstellungen den min free space des Caches erhöhen. Dann hattest du Dateien dabei, die größer waren als diese Einstellung. Das sollte man nur machen, wenn von dem Share nichts mehr auf der SSD liegt. Wenn du "No" wählst, wird nämlich auch der Mover für diesen Share deaktiviert und falls du eine Sync Software einsetzt, kann diese die bereits übertragenen Dateien auf der SSD nicht mehr sehen und übeträgt sie evtl noch mal. Mit "Yes/Prefer" ist es also eine Zusammenfassung aus SSD und HDD, mit "No" nur noch der Inhalt der HDD und mit "Only" nur noch der Inhalt der SSD.
  9. Nutzen die Shares als Cache "yes"? Dann musst du gar nichts machen und kannst weiter kopieren. Der Mover leert die SSD bei der nächsten Ausführung.
  10. Nein, du sollst die Adresse nehmen, die der Container verwendet. Bei Bridge, was du ausgewählt hast, entsprechend die IPv6 vom Unraid Server. Also 1. Bild. Hätte der Container br0, dann würdest du den Container in der Fritz!Box als eigenes Gerät sehen. Die 444 IPv4 Port-Freigabe ist übrigens überflüssig. Die Kommunikation zum IONOS Server erfolgt ausschließlich über IPv6. Auch alle anderen Port-Freigaben werden nicht gehen. Sind ja alle IPv4.
  11. Ja, geht nur 8te und 9te Generation. Aber Intel Consumer/Workstation hat genauso wenig Lanes wie X570. Nur Server CPUs / Chipsätze haben mehr. Wenn eine GPU reicht, würde ich mir das C246M-WU4 + i3-i9100/9300/9350K anschauen. Wär natürlich nur die halbe Leistung. Schau dir auch mal das Nanoxia Deep Silence 4 an. Das 804 ist echt groß für mATX und die Platten sind was verbaut. Das ist arg wenig für AMD. Ich mein, viel Leistung brauchst du vermutlich nicht, aber gerade AMD mag ja schnelleren RAM. Selbst billige AMD Notebooks haben 3200 MHz. Aber als ECC vermutlich teuer.
  12. Unwahrscheinlich. Das ist RC und keine Beta mehr.
  13. Hast du mal einen Screenshot von der Windows Fehlermeldung zur Hand? Das kann auch einfach ein Fehler in dem Docker sein. Wenn man sonst Container installieren kann, wird es da kein Problem geben.
  14. Nein, das ist ein Speicherabbild. Also eine "iso" von einer Festplatte bzw Partition. In dem Fall eine Treiber-CD für virtuelle Maschinen. Hast du den VM Dienst aktiviert? Dann kann das durchaus daran liegen. Deaktiviere den VM-Dienst und starte den Mover. Dieser wird diese Datei dann auf die SSD verschieben. Danach kannst du ihn wieder aktivieren. Natürlich setzt das voraus, dass der Share "system" beim Cache auf "Prefer" steht.
  15. Auf dem Screenshot sehe ich jetzt nur, dass der Nextcloud Container auf Port 444 lauscht. Der Sceenshot von IONOS nützt uns ja nichts. Du musst schon sagen: a) Welche Port-Freigaben du im Router eingerichtet hast b) Wie das Kommando für 6tunnel ausgesehen hat
  16. Ok, das erschwert ein bisschen die Suche, weil ja alles auf eine Platte läuft. Wenn beide angehen, heißt das, dass Dateien geschrieben wurden. Wären nur Dateien gelesen worden, wäre die Parity aus geblieben. Aber vom Prinzip solltest du schnell dahinter kommen, wenn du bei jedem Share rechts auf "View" gehst und dir den Inhalt des Shares anschaust. Dann steht rechts in "Location" wo die Dateien gerade liegen. Überall da wo "disk1" steht, liegen die Dateien auf der HDD und bei "cache" auf der SSD. Hier ein Beispiel wie appdata aussehen sollte: Wenn das bei dir nicht der Fall ist, dann musst du den Docker Dienst in den Einstellungen deaktivieren und den Mover starten. Solange Container Dateien nutzen, können sie vom Mover nicht bewegt werde und wenn da eine Datei dabei ist, die auf der HDD liegt, dann wird die natürlich aktiviert, wenn es zu einem Zugriff auf diese Datei kommt. Das wäre hier zu finden: Ist für dich aber nicht relevant, da du nur 2 Disks verwendest.
  17. Workgroup ist der Standardname, der von Windows verwendet wird. SMB Freigaben sind immer nur sichtbar, wenn sie den selben Namen verwenden. Für einzelne Shares oder Unterordner hat das also keine Auswirkungen. Alles in Ordnung. Der Name wurde gegen "nobody" ersetzt als du die Zugriffsrechte über das Tool korrigiert hast. Würdest du jetzt einen neuen Ordner in einem Share über Windows erstellen, würde der wieder den Namen deines Nutzers tragen. Noch mal zu diesem Problem. Gilt dieser Schreibschutz für den kompletten Share, also auch im obersten Verzeichnis des Shares oder nur in bestimmten Unterordnern? Ist das Problem bei allen Shares präsent oder nur bei einem? Hast Du Docker Container oder Plugins, die auf diese(n) problematischen Share(s) zugreifen?
  18. Du weißt schon, dass das ein Widerspruch ist? Wenn du von Syno auf Unraid sicherst, dann hast du doch Hyperbackup?! Für Unraid gibt es keine App, die das All-in-one kann. Ich persönlich mag zB Hyperbackup überhaupt nicht, weil man diese ZIP-Container nur mit einer Syno auslesen kann. Ein LUKS Container wäre ein Linux Standard. Da kommt man immer dran. Auch ohne Unraid. Für die Komprimierung könnte man evtl im LUKS Container BTRFS mit LZO Kompression verwenden. Habe ich noch nicht ausprobiert, scheint aber zu gehen: https://unix.stackexchange.com/questions/68879/will-using-a-compressed-filesystem-over-an-encrypted-volume-improve-performance Scheinbar kann man es auch hinbekommen, dass der LUKS Container mitwächst: https://serverfault.com/questions/696554/creating-a-grow-on-demand-encrypted-volume-with-luks Allerdings hat der User nur EXT4 getestet und kein BTRFS. Das müsste man dann noch ausprobieren. Jedenfalls hätte man dann eine verschlüsselte und komprimerte Remote-Festplatte, die mitwächst und auf der man inkrementelle Backups erstellen kann.
  19. Sind die Rechte nach einem Neustart anders? Prüfe bitte alle drei: ls -la /mnt ls -la /mnt/disk1 ls -la /mnt/user Wenn ein kompletter Share Probleme macht, dann sollte entsprechend der Pfad /mnt/user/Sharename falsche Rechte besitzen. Nach meiner Erfahrung sind die Besitzrechte wie "root root" oder "nobody users" beide absolut in Ordnung, so lange man in den SMB Einstellung nicht "Ja", sondern "Ja (Active Directory" gewählt hat. Was dagegen ein Problem wäre, wenn die Schreibrechte nicht passen. Also statt "drwxrwxrwx" (Ordner) oder "-rw-rw-rw-" (Dateien) zB nur "drwx------". Das hatte ich mal, weil ein Docker Container diese falschen Rechte gesetzt hat. Wo siehst du das? Für mich sieht der Screenshot normal aus. Hier von meinem Server: ls -la /mnt total 8 drwxr-xr-x 16 root root 320 Feb 8 02:36 ./ drwxr-xr-x 21 root root 480 Feb 8 20:54 ../ drwxrwxrwx 9 nobody users 4096 Feb 9 00:21 cache/ drwxrwxrwx 3 nobody users 72 Feb 10 19:23 disk1/ drwxrwxrwx 3 nobody users 19 Feb 8 02:46 disk2/ drwxrwxrwx 3 nobody users 19 Feb 8 02:46 disk3/ drwxrwxrwx 3 nobody users 27 Feb 8 02:46 disk4/ drwxrwxrwx 3 nobody users 19 Feb 8 02:46 disk5/ drwxrwxrwx 3 nobody users 16 Feb 8 02:46 disk6/ drwxrwxrwx 4 nobody users 29 Feb 8 02:46 disk7/ drwxrwxrwx 11 nobody users 165 Feb 8 02:46 disk8/ drwxrwxrwx 3 nobody users 28 Feb 8 02:46 disk9/ drwxrwxrwt 2 nobody users 40 Feb 8 02:35 disks/ drwxrwxrwt 3 nobody users 60 Feb 8 02:36 remotes/ drwxrwxrwx 1 nobody users 4096 Feb 10 19:23 user/ drwxrwxrwx 1 nobody users 72 Feb 10 19:23 user0/ Hier von Disk1: ls -la /mnt/disk1 total 0 drwxrwxrwx 3 nobody users 72 Feb 10 19:23 ./ drwxr-xr-x 16 root root 320 Feb 8 02:36 ../ drwxrwxrwx 5 nobody users 60 Aug 16 10:51 Movie/ Hier von einem Share: ls -la /mnt/user/Max total 4 drwxrwxrwx 1 nobody users 33 Apr 25 2020 #recycle/ drwxrwxrwx 1 nobody users 147 Dec 19 14:01 ./ drwxrwxrwx 1 nobody users 4096 Feb 10 19:23 ../ drwxrwxrwx 1 nobody users 32 May 2 2020 Backup/ drwxrwxrwx 1 max users 34 Dec 19 14:01 Schule/ drwxrwxrwx 1 max users 67 Nov 11 11:19 Smartphone/ drwxrwxrwx 1 max users 10 Nov 7 21:57 Spiele/ drwxrwxrwx 1 max users 10 Nov 7 21:57 Videos/ drwxrwxrwx 1 max users 208 Nov 11 11:54 Xiaomi\ MI\ 9/
  20. Sind mehrere Platten im Array und gehen wirklich alle an? Reconstruct Write aktiv?
  21. Ich würde auf dem Zielsystem einen verschlüsselten LUKS Container erstellen und diesen per SHFS auf dem Quellsystem mounten und dann per rsync die Dateien darauf kopieren. Sobald das Backup fertig ist, schließt man den Container wieder. Mein Script ist in der Lage inkrementelle Backups zu erstellen, allerdings habe ich es noch nicht mit SSH Zielen getestet. Eine andere Option wäre rclone crypt, welches aber 1:1 verschlüsselt auf einem Ziel abspeichert. Rclone kann auch inkrementell sichern.
  22. Ich würde sagen die IPv6 von dem Nextcloud Container. Hast du den von Knex666 installiert? Der lauscht auf Port 80. Der von Linuxserver nur auf 443. Natürlich vorausgesetzt, du hast den auf br0 laufen. Läuft der auf Bridge, hast du evtl einen anderen Port hinterlegt. In dem Fall müsste man den Port auch im Router forwarden. Also sagen wir mal du hättest 8080 gewählt, dann müsste man im Router Port 80 auf 8080 routen. Oder man routet 8080 auf 8080 und hinterlegt 8080 beim 6Tunnel Kommando. Geht auch. ^^ Aber die für die einfachste Variante ist denke ich br0, damit dem Docker eine feste IP geben. Auf die Art lauscht er auf Port 80 und du kannst im Router von 80 auf 80 leiten und beim 6Tunnel Kommando auch immer 80 eingeben. Ansonsten poste Screenshots von deinen Einstellungen.
  23. Everywhere in the world ^^ This and the C246M-WU4 (mATX) are extremely popular at the moment as Intel cut ECC RAM support of the 10th Gen and the mATX version is the only C246 with two M.2 slots. And of the successor, the W480, is no ITX board available. The manufacturers don't know their target audience.
×
×
  • Create New...