_alo_ Posted February 13 Share Posted February 13 zur Historie: Ich hatte zwei 1TB NVMes als redundaten Cache im Einsatz mit btrfs. Ich nutze unraid 6.12.6 Dann hab ich eine gegen einen M.2 ASM1166 getauscht und der Cache lief also als SPoF (mit dem Plan das wieder zu ändern). Gestern dann ein Stromausfall im Büro und in dem Zuge hab ich 2 1TB Sata-SSDs zusätzlich verbaut um den Cache zu erweitern. Ich habe nur die Anzahl der Cache Drives von 2 auf 3 erhöht und die beiden frisch formatierten MX500 hinzugefügt. Soweit so gut, nach dem Array Start läuft erstmal ca. 24 ein parity check des Arrays aufgrund des Stromausfalls und der noch fehlenden USV.... Ich wundere mich aber über die Anzeige des Caches. unter Main: im Dashboard: Fragen hierzu: - macht unraid aus 3x 1TB ein redundantes 1,5TB raid1 array? wie? sollte ich hier auf raid5 bzw zfs gehen? - woran sehe ich, ob der Cache (wieder) redundant läuft? geben die reads/writes auf den unteren beiden Platten hierüber Auskunft? - die o.a. 72GB belegt könnten für docker/VM hinkommen, die u.a. 554GB definitiv nicht. Wie kommen diese unterschiedlichen Werte zustande? - wird sich an der Darstellung wohl groß was ändern, wenn der parity Check des Arrays durch ist? danke für Infos Gruß Jörg Quote Link to comment
_alo_ Posted February 13 Author Share Posted February 13 (edited) ergänzende Frage: ist es möglich, die NVMe einfach so aus dem Cache Verbund zu lösen (um hier ggf. noch einen ASM1166 zu verbauen)? die Konfig des Cache "hängt" ja irgendwie an dieser SSD, also der Link auf den Pool... verkleinert sich der Pool dann wieder automatisch? Edited February 13 by _alo_ Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.