Jump to content

hawihoney

Members
  • Posts

    3,513
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Wieso Port-Freigabe für einen DynDNS Dienst? Die IP wird nach draußen gemeldet. Die Port-Freigabe brauchst Du doch nur für Inbound?
  2. Ah, verstehe. Bzgl. 2 DynDNS Anbieter: Das wäre kein Problem. Einfach No-Ip über Fritzbox belassen und für DuckDNS deren Docker Container verwenden. Wireguard scheint bei Dir zu funktionieren, ist nur zu langsam?
  3. Bin nicht sicher ob ich Dich richtig verstehe. DuckDNS mit Fritzbox funktioniert bei Dir generell nicht? Hier meine EInstellungen in der Fritzbox bzgl. DuckDNS: Subdomain bei DuckDNS: derhansel.duckdns.org Dein DuckDNS Token: DeinToken Dein DuckDNS Account: [email protected] Update-URL: https://www.duckdns.org/update?domains=derhansel&token=DeinToken&ip=<ipaddr> Domainname: derhansel.duckdns.org Benutzername: [email protected] Kennwort: ******** Zu dem anderen Thema kann ich nicht viel sagen, da Wireguard bei mir normal performant läuft. Auf unseren Android Geräten ist Wireguard z.B. permanent angeschaltet. Der gesamte Netzwerk-Verkehr der Android Geräte wird somit via VPN über unseren Unraid Server geleitet.
  4. /tmp ist dafür prädestiniert. Bei mir liegen die temporären Ordner aller Container unter /tmp: /tmp/plex/transcoder /tmp/nextcloud /tmp/xteve /tmp/krusader Ich lege die Ordner bereits während des Starts in der go Datei an und gebe Zugriffsrechte. Muss man nicht machen, config liegt auch im RAM, ist aber die natürliche Ablage für Temporäres.
  5. Key1 hätte ich auf /tmp/krusader statt /config... gesetzt.
  6. Kommt darauf an. Zu einem kompletten Backup eines Containers gehören m.E. sowohl die Container config als auch die Container data. Bei sehr vielen kleineren Containern verbirgt sich beides in config. Nehmen wir als Beispiel Nextcloud. Dort hast Du MariaDB config - was nach meinem Verständnis data enthält - und Nextcloud mit separatem data und config. Bei einer sehr großen Installation würde ich speicher-technisch MariaDB von Nextcloud trennen und bei Nextcloud zusätzlich eine Trennung von config und data vornehmen - obwohl bei der Nextcloud config eher weniger los ist. Bei großen Installationen würde ich darüber einfach nicht nachdenken und es direkt so machen. Im kleineren Rahmen - zumal mit NVMe M.2 wie bei mir - kann alles auf einem Storage liegen. Ich habe MariaDB und Nextcloud komplett auf einem Storage liegen. Allerdings sieht es bei mir anders aus als von Unraid vorgesehen - ist halt historisch gewachsen: /mnt/pool/system/appdata/mariadb/ /mnt/pool/system/appdata/nextcloud.config/ /mnt/pool/system/appdata/nextcloud.data/ Und gesichert wird ohnehin bei gestoppten Containern, dann kannst Du gleich alles sichern: docker stop nextcloud docker stop mariadb ... alles sichern docker start mariadb docker start nextcloud
  7. Klar, deshalb quasi ... 😀
  8. Du musst zunächst in den Container-Einstellung den gewünschten Host-Path als Mapping zu einem Container-Path hinzufügen. Das kann zum Beispiel so etwas sein: /mit/disk1/Dokumente -> /mnt/disk1/Dokumente Dann heißt der Ordner im Container genauso wie auf dem Host. Nun fügst Du in Nextcloud einen externen Ordner mit z.B. dem Namen Dokumente mit dem o.g. Pfad hinzu.
  9. Man sagt zwar immer Unraid sei kein RAID, es ist aber quasi RAID-4 im Array: https://en.wikipedia.org/wiki/Standard_RAID_levels#RAID_4 Deine Überlegung ist also z.B.: Ich nutze 2x 4 TB als Parity-Platten und 2x 8 TB als Datenplatten, da ich weiß, dass ich nur 4 TB Platz für Daten pro Datenplatte benötige. Wenn ich dann mehr Platz auf den Datenplatten benötige, schraube ich 2x Parity-Platten mit mindestens 8 TB ein? Ist doch das gleiche, nur andersherum, oder? Gelebt und dokumentiert ist: Man nimmt immer die größte(n) Platte(n) als Parity - steht überall in den Handbüchern. Bei Dual-Parity kannst Du sogar eine kleinere Parity-Platte nutzen - also z.B. 1x 8 TB und 1x 4 TB. Das würde ja schon fast Deiner Vorstellung entsprechen https://wiki.unraid.net/Manual/Storage_Management#Parity_Disks
  10. Das hat nix mit Unraid zu tun sondern liegt in der Natur der Paritätsberechnung. Für jede Bit-Position der Datenplatten muss es eine identische Bit-Position auf den Parity-Platten geben. Wenn auf einer Datenplatte Bit-Position 7.999.999.999.999 existiert und die Paritätsplatte bei 7.999.999.999.998 endet, wo soll denn dann die Parität für das überschüssige Bit geschrieben werden? Das geht technisch nicht anders. Deshalb müssen Paritätsplatten mindestens so gross sein wie die größte Datenplatte im Array.
  11. Eine Datenbankreorganisation ist zu einem großen Anteil viel I/O. Im Grunde genommen wird alles gelesen und wieder geschrieben - auf das gleiche Storage. Berücksichtige deshalb, wenn noch nicht geschehen, auch den Storage bei Deinen Betrachtungen zur Performance.
  12. hawihoney

    30

    Currently possible with Unraid VMs running on Unraid only. I'm running this currently and it works perfect. However, it requires an additional Unraid license for every additional Unraid VM.
  13. Is there a way to remove all Servers from my account without loosing the account? Can I do that or do I need to address that to you? If yes, would you please ... For whatever reason I do have two instances of one particular server in my dashboard (TowerVM02). Thanks in advance.
  14. Kleine Korrektur. preclear erzeugt kein Dateisystem - das macht das Formatieren. preclear "nullt" die Platte und schreibt die Unraid preclear Signatur in den MBR. Platte hinzufügen: Wenn diese Platte dann in ein Unraid System gesteckt wird, kann sie als leere Platte zum Array hinzugefügt werden. Der Format Button erscheint dann. Wird das Array mit dieser zusätzlichen Platte gestartet, dann wird die Platte gemäß den Einstellungen (XFS, BTRFS, ...) formatiert. Das dauert nur Sekunden. Das muss auch genau so ablaufen, da sonst die Schreibvorgänge des Formatierens nicht in die Parity Platte(n) übernommen würden und die Parity wäre direkt ungültig. Platte austauschen: Für eine Austauschplatte ist preclear eigentlich überflüssig da sie als Ganzes beschrieben wird - egal ob precleared oder nicht. Zunächst wird der alte Innhalt Bit für Bit aus Parity und den anderen Platten auf die neue Platte geschrieben, dann wird sie, wenn Sie größer ist als die alte Platte, bis zum Schluß mit Nullen gefüllt, und dann wird die Partition vergrößert. Das Nullen des neuen Bereichs, und das Vergrößern der Partition, muss natürlich wieder in die Parity übernommen werden. Deshalb läuft das genau so ab.
  15. Das ist Quatsch. preclear setzt eine Unraid Signatur in den MBR auf die Platte. Egal welches Werkzeug Du unter Windows verwendet hast, die Signatur wurde nicht geschrieben. Das ist seit vielen, vielen Jahren so. Sobald Unraid diese Signatur findet, wird die Platte als genullt betrachtet. In jedem anderen Fall geht Unraid von einer zu leerenden Platte aus. Nachtrag, die preclear steps: Pre-read verification Zeroing the disk Writing unRAID's Preclear signature Verifying unRAID's Preclear signature Post-Read verification
  16. Does somebody know what's the difference between these Toshiba 6 TB X300 HDDs. There are even more than these mentioned in the subject. Where can I get some information abouth their differences. Thanks a lot.
  17. Ich kann einfach nicht mehr rekonstruieren wodurch mein Spindown/-up Problem behoben wurde. Mal ging es nur mit Hilfe des SAS-Plugins, mal ohne. Und irgendwann war das Problem einfach weg. Ich konnte das Problem auch in Unraid VMs sehen, die haben bei mir nur screen als Erweiterung, sonst nix. Docker System und VM System sind dort abgeschaltet. Kein Cache/Pool, keine User Shares. Die LSI Firmwares sind alle auf dem letzten Stand. Die Probleme starteten mit 6.9.x, mit alter und neuer Hardware (nur die ersten 1-2 Tage). Frag mich nicht wieso, im Moment habe ich weder Spindown/-up Probleme noch Clocksource Probleme. Und meine Konfiguration, die ist unverändert seit langem. Allerdings habe ich wieder das sekündliche Festplatten Blip an den Drive-Carriers. Als würden die HBA sekündliche abfragen ob die Platten noch da sind. Das kannte ich früher nur bei einem gestoppten Array. Die Carrier flashten dann im Sekundentakt. Ich habe dann eine alte Platte rausgezogen, eine neue reingeschoben, die lief dann an und flashte ebenfalls im Sekundentakt. Nach dem Start des Arrays war das dann wieder weg. Das habe ich seit 6.9 (alte und neue Hardware) nun auch bei gestartetem Array. Ich hatte das mal als Bug gemeldet, dann war es durch SAS-Plugin weg und irgendwann wieder da. Langsam glaube ich an Wasseradern oder Erdstrahlen ...
  18. Ja, meiner Meinung nach hat das eine (SpinDown) mit dem anderen (Clocksource) nichts zu tun. Bei Dir ist aktuell TSC aktiv - sehr gut. Wenn dem Kernel TSC zu unstabil wird, dann wechselt er auf HPET, der ist auch noch sehr gut. Wenn das auch noch gegen ACPI_PM gewechselt würde bekämst Du ein Problem. Die Performance fällt dann drastisch. Bei mir ging es auf 1/3 runter. Das sehe ich bei Dir derzeit aber nicht. Was den Mist mit dem Spindown/-up angeht: Keine Ahnung. Ich hatte selbst seit 6.9.x damit zu kämpfen. Im Moment läuft es, selbst ohne SAS-Plugin.
  19. hpet ist beim OP enabled - muss somit nicht in die syslinux. hpet wurde gewählt nachdem tsc als unstabil markiert wurde. Das Thema habe ich bei mir nur durch neue Hardware beheben können. Da half bei mir nichts Anderes. Folgende Befehle helfen den Überblick zu verschaffen - ich glaube aber nicht, dass es etwas mit dem Spindown zu tun hat. Das System wird nur langsamer TSC ist m.W. die schnellste Clock zum Synchronisieren z.B. von Threads, da er im Prozessor selbst als Zähler steckt: cat /sys/devices/system/clocksource/clocksource0/current_clocksource cat /sys/devices/system/clocksource/clocksource0/available_clocksource
  20. Ich hätte erwartet, dass der Hover über einem 15 Minuten Balken halt "122 W/15 min" anzeigt und nicht "122 W/h". Oder wie bei der Momentan-anzeige einfach nur "122 W". Ebenfalls verwirrend finde ich dann auch die Y-Achse (Verbrauch pro 15 Minuten). Ich guck da immer hin, sehe dort aber nur Werte für die es keine passende Entsprechung auf der X-Achse gibt (Uhrzeit). In der Tat beknackt.
  21. Ich habe an meinem großen Server eine Steckdose von AVM. Diese kann Momentanwerte sowie den Gesamtverbrauch anzeigen. Auf dem Server läuft seit 4,5 Stunden in einer VM ein Parity-Check (24 Platten, Dual-Parity). Die Momentanwerte zeigen für die vergangene Stunde 460 W bis 480 W. An der Grafik kann man erkennen, dass dies seit 4,5 Stunden so ist. Lasse ich mir nun den Gesamtverbrauch für die vergangenen 24 Stunden anzeigen, dann werden mir dort an einem Balken 122 Wh angezeigt. Ein Balken repräsentiert aber nur 15 Minuten. Ist es korrekt, dass dann an einem 15 Minuten Balken 122 Wh (für die Stunde) angezeigt werden. Eigentlich sind es doch 488 Wh, da man für die Stunde Balken zählen und addieren müsste. Macht man das wirklich so wie AVM das anzeigt. Ich als Laie finde das verwirrend. Vielen Dank.
  22. What backplane is installed in that case? BPN-SAS2-EL1 or a different one? This is important to chose correct HBA and cables. A RAID controller is not recommended. If it is the backplane mentioned above LSI/Broadcom 9300-8i (PCIe 3.0 x8) with 2x cables SFF-8643 to SFF-8087 would be my choice, but there are other and cheaper options as well.
  23. Nein, nein, nein. Da stimmt was bei Dir nicht. Bei mir blinken die 24 Statuslampen an der Backplane sobald der HBA (LSI 9300-8i) die Platten scannt - ca. 1-2 Sekunden pro Platte. Sobald Unraid übernimmt (das blaue Auswahlmenü) werden die beiden Archive ins RAM geladen - ca. 10-15 Sekunden. Danach rauscht der Unraid Start ohne Unterbrechung in kurzer Zeit durch. Bei jeder Platte ist das ein kurzes Blip - ca. 1-2 Sekunden für alle Platten zusammen. Selbst in Unraid VMs ist die Geschwindigkeit hier identisch. Der längste Part is immer bis zum blauen Auswahl-Menü bei mir. Schau Dir doch mal den Start in der syslog an - am besten bin zur Installation der Plugins. Hier mal von meinem Systemstart: May 28 14:53:19 Tower kernel: Linux version 5.10.28-Unraid (root@Develop) (gcc (GCC) 9.3.0, GNU ld version 2.33.1-slack15) #1 SMP Wed Apr 7 08:23:18 PDT 2021 ... May 28 14:53:30 Tower root: Installing plugins 11 Sekunden bis zur Installation der Plugins.
  24. Linux erkennt die Platte nicht. Allerdings hast Du die Plugins usbip und usbip-gui installiert. Ich habe keine Ahnung was die machen. Limetech empfiehlt in solchen Fällen den Server im Maintenance zu starten oder ohne jegliche Plugins. Probier das doch mal.
×
×
  • Create New...