worli

Members
  • Posts

    58
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

worli's Achievements

Rookie

Rookie (2/14)

15

Reputation

1

Community Answers

  1. Mirror == Raid1 🙂, Stripe-Set == Raid0 Und ich hab nur auf die Aussage von MAM reagiert, die mal Grundlegend Falsch ist und du hast gegen mich argumentiert. 🙂 Ich wollte die Aussage nur nicht so stehen lassen. Mythos nicht zerstört. Siehe meinen Link, oder einfach mal danach googlen, da werden dir alle Performance Analysen das zeigen. DD liest und schreibt mit QD1, da bekommst nie die komplette Performance. Raid1 oder auch ein Mirror liest in allen aktuellen Implementierungen von beiden Platten.
  2. @hawihoney genau das habe ich gemeint, du hast halt andere Worte benutzt für die Schreibvorgänge. Mir gings hauptsächlich um die Aussage: Es halbiert die Schreibgeschwindigkeit und die ist halt einfach falsch. Bei Lesevorgängen nehmen aktuelle Raid1 oder Mirror Implementierungen immer alle Platten zum lesen. Bei sequenziellen Lesen mit einer QD von 1 ist das vielleicht nicht komplett zu sehen, aber bei mehreren parallelen Lesevorgängen sehr wohl. ZFS hat das in BSD seit 2013 und ZFSonLinux seit 2016 https://openzfs.org/wiki/Features#Improve_N-way_mirror_read_performance @zero_neverload Also bei deinen Schreibtests hast du einmal 265 und einmal 245 MB/s, das sind 8% und ist vom Optimalen nicht weit weg. Wenn deine Theorie mit der halben Geschwindigkeit stimmen würde, dann müsstest du 137MB/s haben. 1 Schreibrequest kommt an den ZFS Mirror und die Softwareschicht gibt dann beide Schreibrequests gleichzeitig an die beiden Backend-Laufwerke weiter. Das der ZFS Mirror beim Lesen nur 301MB/s hat überrascht mich jetzt, sollte aber im Bestfall bis zur doppelten Lesegeschwindigkeit einer Platte hochgehen. Ich denke es bringt nichts wenn ich jetzt Links zu anderen Seiten inklusive Performancetests poste, weil nach "zfs mirror performance" kann jeder googeln. 🙂
  3. worli

    Docker Update Loop

    Also ich hab das immer getrennt. Nutze aber auch bei Unraid nur docker-compose Stacks und nicht die Container über Apps. Ich will einfach eine Applikation, mit den ganzen Komponenten immer gekapselt haben. Ist aber wie alturismo schon angemerkt hat eher eine Glaubensfrage als richtig oder falsch. 🙂
  4. /dev/zero geht auch. /dev/null gibt nichts aus.
  5. Also ich versteh deine Tabelle nicht und auch nicht was die Tests mit meiner Aussage zu tun haben. Wenn man auf ein Raid1, bzw Mirror schreibt, dann schreibt man auf beide Platten gleichzeitig. Somit ist ist Schreibgeschwindigkeit des gesamten Verbundes genau die einer Platte. Bei Lesen gibt es Implementierungen die nur eine Platte nutzen, dann hast du auch keinen Vorteil in der Lesegeschwindigkeit, oder Implementierungen die von beiden lesen, dann kommst du bis auf die doppelte Lesegeschwindigkeit. Das kannst du testen in dem du einen single Pool mit einem Mirror vergleichst. Ein Pool mit defekter Disk ist ist nie ein geeigneter Testkandidat. Laut der Aussage dürfte ich auf den zfs cache Mirror von mir nur noch mit 200MB/s schreiben können, weil meine Einzel-SSDs 400MB/s sequentiell schreiben können und die Rate durch den Mirror halbiert wird. Das seh ich aber nicht. Es werden realistisch aber auch im Verbund nicht die 400MB/s werden, weil es doch ein bisschen Verwaltungsoverhead im Mirror gibt, aber annähernd.
  6. So jetzt hab ich endlich alles migriert. Von vorher Nuc 20-30 Watt und Wnap mit den konstant 43, bin ich jetzt auf 43-50 Watt gekommen. Bei 2x 1TB NVMe, 2x 12 TB und einer Enterprise Sata SSD mehr. Mit dem Supermicro Board kommt man zwar nicht höher als C3, aber wenn der Server nicht nur idelt macht eigentlich nicht viel Unterschied. Spitzen gibt es bis 90 Watt, aber der Nuc alleine hatte beim Clair Update auch ca 70 Watt gezogen. Mit meiner Windows VM, die ich nur über Guacamole/RDP für Remote Access nutze warns 5 Watt mehr, bin dafür jetzt auf Arch und xorgxrdp geschwenkt. Sehr zufrieden mit dem Unraid System, wobei ich für meine Docker Container, doch dann von Portainer weg bin zum Docker compose Plugin und konnte dann doch mein Setup mit Traefik übernehmen. Eigentlich wollte ich meinen Backup DNS auf einem Pi laufen lassen, aber seit die Enterprise SSD nicht mehr im NUC ist braucht der mit dem DNS auch fast nichts mehr. Nur ist das fast Perlen vor die Säue. Danke an alle für die Unterstützung. Vorallem an @DataCollector du hast mich von dem SAS Controller weggebracht. Mit den Onboard Ports und einem ASM Controller hab ich jetzt erstmal genug Slots die ich nutzen kann.
  7. worli

    MS-DOS

    Achtung, Wurmzeichen. Das es einen Freedos Container mit vnc Schnittstelle gibt muss ich mir merken. Kann man sicher mal brauchen.
  8. Ja rein mit Diskshares mappt man die nur im Container und fügt die in die Library hinzu. Ich wollte nur das Setup von Timmey verstehen, der ja für jede Disk nochmal einen Usershare angelegt hat. Das kam mir unnötig vor. Mit den Tools gehts mir auch so, wobei ich froh bin, wenn ich mal nichts selberbauen muss. 🙂
  9. Ja das erklärt das Setup. Aber du hast nur einen Medien Share und verlinkst den dann halt mit /mnt/cache/Medien, /mnt/disk1/Medien, /mnt/disk2/Medien, .... und hast nicht pro Disk einen User-Share, oder? So sieht mir das Setup von Timmey85 nämlich aus, was das ganze natürlich unnötig verkompliziert. Da müsste man jeden User Share auf die entsprechende Disk fixieren und dann für jeden Share das Verzeichnis aus dem Cache und der Disk mappen.
  10. Ich hab einen share Medien mit primär Cache und second array und greife über /mnt/user/Medien zu. Bei keinen Zugriffen sind alle Platten im Standby, wenn was im Cache liegt, dann wachen die auch bei einem Zugriff nicht auf. Wenn die Datei im Array liegt, dann startet die entsprechende Platte.
  11. Genau bei den Mediendateien ist der shfs Layer ja super und das der ein bisschen Performance frisst ist da ja vollkommen egal. Wir haben gleichzeitig getippt, da gab's deinen zweiten Post noch nicht. 😀
  12. @alturismo Er mappt komplett /mnt nach /data im Plex Container. @Timmey85 Die Daten die sich im plex_disk_1 Cache befinden liegen unter /mnt/cache/plex_disk_1, das musst du noch hinzufügen. Eine Frage stellt sich mit aber. Wieso machst du pro Disk einen Share?
  13. Seit wann halbiert Raid1 die Schreibgeschwindigkeit? Bei RAID1 ist die Schreibgeschwindigkeit wie bei einer Einzelplatte und bei guter Implementierung entspricht die Lesegeschwindigkeit der doppelten Lesegeschwindigkeit des Einzellaufwerks. Ich hab einen Sata SSD Mirror für Cache und die meisten Container und einen NVMe Mirror für VMs und die Container die IO brauchen. Wenn ich mal von 2,5G auf 10G umsteigen, dann muss ich das ändern.
  14. Mir gefallen ja die Jonsbo Gehäuse. Das N4 gibt es aber nur direkt bei Aliexpress, laut Homepage sollte dort auch mATX reinpassen. Praktische Erfahrung habe ich aber damit nicht.
  15. Ja ich denke auch das selbst mit einem Raspberry das nicht wirklich sparsamer geht. Vorallem die kleinen Intel Teile können transcoding, was ich bei keinem Medienserver missen möchte. @Daniel22 Wenn du mit den Kosten argumentierst, dann wird es schwer gegen geschenkte Hardware anzutreten. Der N100 ist halt so schon ca 20% schneller und die iGPU kann schon AV1 in Hardware decodieren. Mini PC heisst nicht immer stromsparend, das ist nur das Gehäuse. Mein 11th Gen NUC lief unter Normallast mit 20-25W mit Spitzen bis zu 70.