Jump to content

Permanentes lesen Auf Array Disk


Go to solution Solved by Tremendous,

Recommended Posts

Seit heute liest Unraid permanent was vom Array und schreibt alle paar Sekunden auf die Parity, aber nur im KB Bereich.

Ich habe mit File Activity schon geschaut was er da anfasst. Ergebnis: Nix

 

Wie kann ich rausfinden was da passiert? Ich hätte schon gerne den Spindown wieder.

 

grafik.png.b95bba4ce1c5246fe9c20ed5c5904f94.png

 

grafik.png.706c956890e86c2647e9663533235eef.png

 

 

Link to comment
6 minutes ago, Tremendous said:

Wie kann ich rausfinden was da passiert? Ich hätte schon gerne den Spindown wieder.

 

zeig mal den output von

 

ls -la /mnt/user0/

 

da werden dir roots von allen Array Shares angezeigt ... sollte

 

/appdata /system /domains ... drauf liegen, sollte der Rest selbsterklärend sein ;)

  • Like 1
Link to comment

Hallo Tremendous

 

Mit dem Befehl kannst du nachschauen welche Daten zuletzt geändert wurden:

find /mnt/disk1 -type f -mtime -1 -printf "%T+ %p\n" | sort

Unten ist dann die zuletzt veränderte Datei. Vielleicht hilft dir das bei der Ergründung ob das so sein soll auf deiner disk1.

 

Edited by Amane
Sry "-r" kann weg gelassen werden.
  • Like 1
Link to comment
5 minutes ago, Tremendous said:

grafik.png.5760ba27f202401bc41f1a48ec014cdc.png

 

Welche Anwendungen laufen gerade?

Kann es sein, daß Plex da eine Datenbank aufbaut und mediafiles einliest oder so?

 

Und nur so: Deine Parity ist ja auch aktiv. Da wird also nicht nur vom Array gelesen, sondern auch geschrieben.

 

Edited by DataCollector
  • Like 1
Link to comment
7 minutes ago, DataCollector said:

Und nur so: Deine Parity ist ja auch aktiv. Da wird also nicht nur vom Array gelesen, sondern auch geschrieben.

True 👍

 

Ist das Filesystem vielleicht zfs? (RAM <-> Array) - Wahrscheinlich denk ich zu weit ^^

Link to comment

ZFS kenn ich mich nicht besonders aus, es könnte jedoch sein, dass Daten in dein RAM gecached werden, oder auch wieder ins Array geschrieben werden?

Vielleicht bin ich auch auf dem Holzweg..

 

Es muss aber irgendwo etwas geschrieben werden.. also hab ich bald nur noch den unsichbaren Ordner "/mnt/disk1/.zfs" in verdacht, aber normalerweise sollte der dort nichts schreiben ausser man schaltet snapshots ein..

cd /mnt/disk1/.zfs && ls -alh ./*


Keine Ahnung wo sonst irgendwelche Daten auf disk1 geschreiben werden, die im find Befehl nicht vorkommen.. Vorallem weil:

31 minutes ago, Tremendous said:

Docker auf AUS

 

 

Link to comment
9 minutes ago, Tremendous said:

Selbst nach einem Reboot läuft das so weiter.

welche Docker laufen denn ? Ansatz, mal nach und nach abschalten, spindown manuell ausführen ob einer davon das auslöst ...

 

und wenn zfs ... das hat halt seine Eigenarten, wobei es auch mich wundert ...

Link to comment
6 minutes ago, Tremendous said:

Kann das an einem neu hinzugefügten Pool Device liegen?

Denke nicht..

 

Kannst ja mal deinen zpool und arc beobachten:

watch -n 1 'echo "zpool (ZFS)" && zpool iostat -v && echo -e "\narc (Cache)" && arcstat'

 

Link to comment

Mir war nicht bewusst dass das läuft und manuell angestoßen habe ich das nicht.

Ist wohl beim Aufsetzen des Servers im Schedule mit drin gewesen ohne dass ich das registriert hatte.

Wenn ich das selber angestoßen hätte gäbe es diesen Thread nicht ;)

 

image.png.396b3a529f39c99eb929d93069f28651.png

Link to comment
4 minutes ago, Tremendous said:

Ist wohl beim Aufsetzen des Servers im Schedule mit drin gewesen ohne dass ich das registriert hatte.

Definitiv nicht, deaktiviert by default, auch nicht auf meinem test server den ich vor ein paar Wochen mal neu gemacht hab:

grafik.png.16db3d1ca2f2b54e2ad23523ef88677a.png

 

Ein Scrub muss normalerweise immer manuell angestoßen werden und ist auch eigentlich nicht nötig da ZFS ein Journaling filesystem ist.

 

Aber mal anders gefragt, warum ZFS im Array oder bist du einfach auf den ZFS Hypetrain aufgesprungen... :/

Im Array ist jede Platte ein eigener Pool und macht nicht viel sinn, da ist das standard XFS auch ausreichend.

 

Ich für meinen Teil gehe wieder auf BTRFS zurück in meinem Cache pool weil ich einen komischen Bug habe und den nicht wirklich (zuverlässig) reproduzieren kann, war sowieso mehr ein Test auf meinem Produktivsystem.

  • Like 2
  • Upvote 1
Link to comment
3 minutes ago, Tremendous said:

Wenn ich das selber angestoßen hätte gäbe es diesen Thread nicht ;)

 

perfekt ;)

 

3 minutes ago, Tremendous said:

Ist wohl beim Aufsetzen des Servers im Schedule mit drin gewesen ohne dass ich das registriert hatte.

 

ok, dann ... weißt du ja jetzt warum dem so ist bei zfs (oder btrfs) wo scrub nutzen.

 

War mir auch nicht bewusst, aber ich nutze zfs nicht da genau die ganzen Dinge Sachen auslösen die man normal nicht will ;)

Link to comment

Ich komme von TrueNas und da war ich an ZFS gewöhnt und habe dann für Unraid aus Gewohnheit ebenfalls ZFS im Array eingestellt.

Pool Devises stehen alle auf btrfs.

Ich deaktiviere den Scheduler dann mal für Scrub wenn das unnötig ist. Vielen Dank!

  • Like 1
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...