pOpYRaid
Members-
Posts
93 -
Joined
-
Last visited
Recent Profile Visitors
The recent visitors block is disabled and is not being shown to other users.
pOpYRaid's Achievements
Apprentice (3/14)
10
Reputation
-
Mover is moving files FROM the array TO cache. I'm confused
pOpYRaid replied to cam94z28's topic in General Support
thx for the hint to zfs (ARC & ARCL2). Was hoping that there is an plugin which can a real cache to any file system array, but sadly it seems there is no such plugin. Dont want to use zfs for just 1x nvme + 2x hdds. Nor i need the other features like snapshots... -
Mover is moving files FROM the array TO cache. I'm confused
pOpYRaid replied to cam94z28's topic in General Support
High guys, using Unraid now for half a year and was before on Windows with a software called PrimoCache: https://www.romexsoftware.com/en-us/primo-cache/index.html This was excellent for configuring your read and write cache SSD. It also used RAM for the cache and you could set read / write cache sizes. A neat feature was something like "predicted" read cache. So new files would go on the cache, would be written to HDD after a defered time BUT would remain on the cache. Also it loads much accessed data from the HDD into the cache if you access it. This has boosted the accesstime, read & write speed's to my NAS significantly! It also showed a statistic with an cache "hit rate", so a percentage how it predicted the files being used (from cache or not). The percentage was arround ~70% in my use case. Currently i have setup unraid share with an cache as primary storage, hdds/array as secondary with high-water and mover action "Cache -> Array". As documented, new files get's written to the fast cache and move on schedule to the array. Is there a similar functionallity in unraid like PrimoCache does (a smart cache)? Can the cache in unraid set to leave last written files also on cache and just copy (backup) it to the array and not move them? Sorry if this was already answered, but i am not so deep in the unraid caching mechanism. -
@DataCollector @alturismo Danke euch für die Infos. Das freut mich, ein User Script weniger 😅
-
Eine Frage noch zu xfs bzw. btrfs: Bei btrfs sollte man ja in einem gewissen intervall ein scrub machen. Habe dazu ein User script gemacht. Habe jetzt bzgl. xfs scrub danach gegoogelt bzw. mal folgendes ausgeführt: root@MediaServer:~# xfs_scrub --help EXPERIMENTAL xfs_scrub program in use! Use at your own risk! xfs_scrub: invalid option -- '-' Usage: xfs_scrub [OPTIONS] mountpoint Options: -a count Stop after this many errors are found. -b Background mode. -C fd Print progress information to this fd. -e behavior What to do if errors are found. -k Do not FITRIM the free space. -m path Path to /etc/mtab. -n Dry run. Do not modify anything. -p Only optimize, do not fix corruptions. -T Display timing/usage information. -v Verbose output. -V Print version. -x Scrub file data too. root@MediaServer:~# Finde jetzt keine Beiträge (wie bei btrfs) dass dies immer ausgeführt werden sollte. Auch die Ausgabe: EXPERIMENTAL xfs_scrub program in use! Use at your own risk! macht mich stuzig. Wie macht ihr das bei xfs? scrub oder anderen check Befehl in einem Intervall? scrub oder anderen check Befehl nach einem power outage? Danke
-
ok, danke. Versuche mein Glück mal mit dem Plugin, da es auch "dry runs" kann und anzeigt wieviel nachher noch wo frei usw. Gefällt mir ganz gut.
-
thx a lot for the explanation. Now the high-water level working is clear to me. So i have to raise the warning levels from 70%/90% to something like 96%/98%.
-
2te Frage: Da meine disk2 ja nur 14 TB groß ist und ich aber ungefähr 18tb an Daten habe hätte ich folgendes vor: gather disk2 -> disk1 format disk2 xfs parity disk (auch 20TB) aus array nehmen (da ich ein backup habe kein thema) freie 20tb in array geben und mit xfs formatieren gather disk1 -> disk3 (die was xfs als fs hat) scatter disk3 (entweder großen Ordner oder ganze disk) -> disk2 (sodass diese balanced sind) disk1 aus array nehmen und als parity disk setzen parity check machen Würde da so machen, so muss ich weniger übers Netzwerk von meinem Backup NAS hin und her schieben. Was sagt ihr dazu? Vebesserungs-Vorschläge? Beim Scatter bin ich mir noch unsicher. Ziel soll es sein das die großen Dateien 4k BD-Rips (movies, serien) dann gleich auf beiden Platten (20TB & 14TB aufgeteilt sind). So fährt dann Platte 2 nicht so oft hoch Danke
-
ok, danke. Werde auf xfs umsteigen, bei meinen 2 disks im array. @DataCollector @alturismo Eine Frage noch bzgl. abschließendes balancing mit dem unbalance plugin. Wie geh ich da vor? Habe jetzt 2x gather benutzt um z.B:: appdata nur auf den cache zu verlagern bzw. jetzt disk2 content auf disk1 zu verschieben. Ist das dann "Scatter" -> Share oder Verzeichnis auswählen (z.B.: Movies) und dann disk2 dazu auswählen? Was ich nicht verstanden habe, ob er dann einen teil auf disk1 lässt und einen teil (in meinem Fall 50% vom Ordner) auf auf disk2 verschiebt!? Danke
-
ok, danke. Dann werde ich mal mit unbalance die Daten auf disk 1 verschieben, disk 2 in xfs formatieren und die Daten wieder zurück auf disk2. Dann disk1 auf xfs bringen und das ganze mit unbalance verteilen.
-
Was empfiehlst du für ein fs? Wie oben erwähnt brauche ich eigentlich die features von zfs, btrfs nicht (Stichwort snapshots usw.) Danke
-
ok, muss mich einlesen in die tools/plugins. Ja, komplettes Backup wird wöchentlich gemacht. Habe zwar auch schon einiges negatives bzgl. btrfs gelesen, aber mich dann dafür entschieden da meiner Meinung nach positive Beiträge überwogen haben. Mag mich aber hier täuschen. Mache auch zyklisch Parity checks & scrubbing, bisher ohne Fehler. Wenn ich ehrlich bin brauche ich die "erweiterten" Features von btrfs, zfs nicht, also SNapshots usw. Was empfiehlst du stattdessen? (xfs)
-
Ja, es existieren: /mnt/diskX/Daten/Videos/Serien/... /mnt/diskX/Daten/Videos/Movies/... auf beiden disks! Warum greift "high-water" mit den share Aufteilungsregeln nicht? Kann ich einen nachträglichen "balancing" job ausführen der die Daten besser verteilt? Danke
-
Es ist bei allen "Auto" eingestellt, siehe: Sollte ich hier was fixes einstellen? Die meisten größten Dateien liegen in den Ebenen: Ordner1/Ordner2/Dateien Bzw. Ordner1/Ordner2/Ordner2/Ordner4/Dateien
-
Sorry für das Hochholen des Threads. Mein Thema passt sehr gut dazu. Sollte das nicht gewünscht sein, kann ich gerne einen neuen erstellen. Ich habe eine 20TB parity und 14TB+20TB im Array (siehe Zeile 2 und 3). Bei allen shares ist high water eingestellt. Wie kann es sein das die 20TB mit 14TB gehüllt ist (~70%) und die 14 TB nur mit 4 TB (~28%). Sollten nicht zuerst beide mit ~50% gefüllt werden, dann die erste bis 75, dann die 2te bis 75 usw. Oder verstehe ich da was falsch? Bekomme jetzt immer Disk 1 Warnungen da die über 70% ist. Klar kann ich das Warn und Kritische Level erhöhen, aber iwie funktioniert das high water nicht so ganz. Wie kann ich das richten? Auf was habt ihr eure shares gestellt? Welche warn und kritische Levels habt ihr eingestellt? Danke
-
Have you disconnected HDMI cable to the monitor? In my case when the iGPU is active, it also reaches lower C states and consumes more power. Try to measure the power consumption maybe as @mgutt stated, it reaches low power state. This is a good starting point: boot ubuntu live from usb disconnect all not needed peripheral set hdd sleep to 1 min (if any hdd connected) install and run powertop (sudo apt get powertop) disconnect monitor wait 2 min meassure with an kill-a-watt (or similar) Wait again 2 min connect monitor check powertop results Good luck