i-B4se

Members
  • Posts

    542
  • Joined

  • Last visited

About i-B4se

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

i-B4se's Achievements

Enthusiast

Enthusiast (6/14)

77

Reputation

4

Community Answers

  1. Ok, das ist wirklich mies. Ich bin vor drei Wochen erst noch an den Schalter vom Netzteil gekommen und auch danach hatte ich keine Probleme. Aber wahrscheinlich habe ich es jetzt angesprochen und als nächstes wird mir das Btrfs Dateisystem um die Ohren fliegen.
  2. Ups.. Mein Fehler! War gerade ein wenig Brain AFK.... Hatte Only mit Yes verwechselt. Hab es oben korrigiert! Hast du was beim "Minimaler freier Speicherplatz:" eingetragen und die Platte im Array ist evtl auch schon voll?
  3. Das wäre nicht richtig. Somit will er ja ausschließlich auf den Cache schreiben. Du musst auf Prefer/Bevorzugt stellen. Edit: Mein Fehler. Bei Yes sollte er auch ins Array schreiben.
  4. In diesem Fall reden wir doch über Btrfs.
  5. @BigChris Wie ist denn bei der Freigabe die bevorzugte Cache-Benutzung eingestellt? Steht der auf "Yes/Ja" oder "Prefer/Bevorzugt"?
  6. Das Dateisystem ist doch nicht direkt Schrott nur weil mal das System abstürzt. Ich hatte schon etliche crashes und bisher keinerlei Probleme. Oder ist das normalerweise so und ich hatte bisher "glück".
  7. Was ist denn mit der alten Festplatte, wenn es nur ein defektes Kabel war? Einfach diese wieder einbauen.
  8. Sind wieder Ferien? Er hat dich doch normal gefragt, da du nirgends deinen Weg angeben hast. Wenn du in deinem Beruf auch so schnell voreilige Schlüsse ziehst, dann Glückwunsch an die Kollegen/Kunden.
  9. Prefer und only sind quasi identisch. Aber bei Prefer hat man den Vorteil, dass wenn der Cache voll ist, die Daten ins Array geschoben werden. Sollte dann wieder Platz im Cache sein, dann schieb der Mover die Daten wieder vom Array in den Cache. Bei Only wird nichts mehr geschrieben wenn der Cache voll ist und es entstehen Fehler.
  10. Es ging darum, ob deine Appdata etc. teilweise auf dem "HDD-Array" liegen und nicht alles auf dem Cache. Dazu muss unter Freigaben z.b. die "appdata" auf Cache "bevorzugt/prefer" stehen. Sonst kann es sein das die Daten auf dem langsamen Array landen. Aber es läuft ja jetzt, also kann man das vernachlässigen. Kannst meine Beitrag als "gelöst" markieren, evtl. kommt die Frage nochmal und dann findet man es direkt.
  11. @Grendo Hast du den "Docker data-root" umgestellt oder warum steht da "Verzeichnis? Ich hab da "btrfs vDisk" Dann nimmst du bei "vDisk Pfad" -> "/mnt/cache/system/docker/docker.img" oder "/mnt/user/system/docker/docker.img" und bei "Standard appdata Speicherpfad:" -> "/mnt/cache/appdata/" oder "/mnt/user/appdata/" jeweils ohne ""
  12. Bei einer Parity kann eine Platte ausfallen. Bei zwei Parity Disks können zwei Platten gleichzeitig ausfallen. Poste doch mal die Fehlermeldungen. Hast du mal ein anderen Stromanschluss getestet? Evtl. hat dieser ein wackler und der Strom fällt immer aus.
  13. Ja, das ist ein Testserver gewesen. Da gab es quasi kein Array nur ein größerer Pool. Ich hab die Daten gestern einfach gelöscht und dann konnte ich die aus dem Raid0 Verbund schnell rausnehmen.
  14. Ich benutze einfach mal den Thread für eine weitere Frage In einem anderen Server, quasi ein Testaufbau, habe ich ein Pool erstellt mit 3 HDDs die als Raid laufen. Diesen möchte ich auflösen und eine Platte soll alleine drin bleiben. Wie kann ich das schnell auflösen? Daten darauf sind völlig unwichtig und werden nicht benötigt. Ich hab das Array gestoppt und die Disks aus dem Pool rausgenommen und eine neue Konfiguration gestartet. Muss ich jetzt per "Balance" die einzelne Disk zurücksetzen? Weil das dauert mir gerade zu lange
  15. Moin, danke schon mal für die Antworten. Backups sind vorhanden. Das ist kein Problem. Ich glaube ich werde das mit der USB-Lösung machen. Die Daten der zwei 4 TB per USB auf die 8 TB übertragen dann die Parity und die Platten raus und die neuen Platten rein. Zur Not habe ich noch die Backups, falls etwas schief gehen sollte :)