Dell Poweredge T40 oder Eigenbau?


Zip

Recommended Posts

Ich habe jetzt doch noch spontan eine neue 4 TB WD Red Plus bestellt. Diese kommt wahrscheinlich erst in ein paar Tagen an.

 

Der Rest der Komponenten dürfte heute ankommen und ich würde natürlich gerne schon anfangen.

 

Gibt es ein Problem, wenn ich die Parity Festplatte erst später einrichte? Ich würde dann erst die beiden "alten" Festplatten als Array einrichten und schon beginnen, die vorhandenen Daten darauf zu kopieren.

 

Link to comment
1 minute ago, Zip said:

Gibt es ein Problem, wenn ich die Parity Festplatte erst später einrichte? Ich würde dann erst die beiden "alten" Festplatten als Array einrichten und schon beginnen, die vorhandenen Daten darauf zu kopieren.

 

Das geht problemlos. Du musst nur eben daran denken, das die Paritätsplatte nicht kleiner sein darf als die größte Array-Platte.

Link to comment

Vorab die erfreulichen Nachrichten:

 

Der Server ist zusammen gebaut und Unraid läuft.

 

Nun habe ich die ersten Grundeinstellungen vorgenommen und auch schon Krusador installiert. Danach meine externe Festplatte per USB angeschlossen und die ersten Daten auf einen neu eingerichteten Share kopiert. 

Jetzt sind es so viele Daten gewesen, dass der Cache vollgelaufen ist und Krusador gestoppt hat ("There is not enough space on the disk to write ...").

Im Share hatte ich Use Cache auf Yes gestellt. Eigentlich müsste Krusador doch dann direkt auf die Array Disk schreiben wenn der Cache voll ist oder habe ich das falsch verstanden?

 

Den Mover habe ich nun manuell gestartet, damit der Cache erstmal wieder leer wird.

 

Wie sollte ich weiter vorgehen?

 

In Krusador kann ich zwar auf retry klicken, aber dann habe ich das Problem ja nach kurzer Zeit wieder?! Sollte ich im Share bei Use Cache auf No stellen? Könnte ich das wechseln im laufenden Betrieb machen und danach bei Krusador das ganze weiter laufen lassen?  Oder wie sollte ich vorgehen?

 

Danke.

 

 

 

 

 

 

Edited by Zip
Link to comment

Eigentlich sollte es so sein, wie Du beschreibst....

...welchen Pfad verwendest Du als Ziel?

 

-> /mnt/user/<share> -> hier sollte, bei Cache=yes, zuerst der cache "vollaufen" und dann einfach weiter alles auf dem Array landen.

-> /mnt/cache/<share> -> das geht nur auf den Cache, analog /mnt/disks/diskX/<share> ... wenn voll, dann Schluss

 

...welche EInstellungen hast Du für das Min-free-Space für das Share (unter Shares -> <share-name>)und den Cache (Settings - global share settings - Cache Settings)?

 

Link to comment

 

41 minutes ago, Ford Prefect said:

"Fehler vor der Tastatur"

Das stimmt leider 😞

 

Destination in Krusador ist /UNRAID/user/Videos (mein angelegter Share)

 

Min. free-Space Share: 0 KB (Werkseinstellung)

Min. free-Space Cache: 2000000 (Werkseinstellung)

 

 

 

Link to comment

...UNRAID ist im Krusader von /mnt gemapped....also sollte /UNRAID/user/video identisch zu /mnt/user/video sein...hmmmm🤔

Was ist mit /media ? ... das ist auch im Krusader von /mnt/user gemappt...also dann für Dein share /media/video ??

 

 

The minimum free space available to allow writing to any disk belonging to the share.

Choose a value which is equal or greater than the biggest single file size you intend to copy to the share. Include units KB, MB, GB and TB as appropriate, e.g. 10MB.

...um Platz für ein DVD.iso zu haben, sollten da beim share also 5GB stehen, statt 0, oder?

 

...cache-min ohne Unit 20000000...das sind 20Mio kbyte-Blocks, also 20GB

This represents a "floor" of the amount of free space remaining on the cache disk.
If the free space becomes less than this value, then new files written to user shares with cache enabled will go to the array and not the cache disk.

Enter a numeric value with one of these suffixes:

KB = 1,000
MB = 1,000,000
GB = 1,000,000,000
TB = 1,000,000,000,000

If no suffix, a count of 1024-byte blocks is assumed.

Examples:

2GB => 2,000,000,000 bytes
2000000 => 2,048,000,000 bytes

 

 Ich hab das schon sooo lange nicht mehr angefasst....weiss es garnicht mehr 😆

Link to comment
10 minutes ago, Ford Prefect said:

...UNRAID ist im Krusader von /mnt gemapped....also sollte /UNRAID/user/video identisch zu /mnt/user/video sein...hmmmm🤔

Was ist mit /media ? ... das ist auch im Krusader von /mnt/user gemappt...also dann für Dein share /media/video ??

Also ich habe mich nach dem Video von Spaceinvader One gerichtet. Allerdings gibt es mittlerweile die Version in dem Video nicht mehr. Ich habe binhex-krusader genommen.

Wenn ich es jetzt richtig gelesen habe, benötige ich den von mir angelegten Host Path 1 /UNRAID gar nicht, da es in dem binhex-krusader bereits durch Host Path 2 abgedeckt ist mit /media. 

Ich würde jetzt also Host Path 1 löschen?! "unassigned devices" und "Flash drive" müssen aber so bestehen bleiben oder?

 

Außerdem sollte ich noch bei "unassigned devices" unter Access Mode auf RW/Slave umstellen.

 

Leider kann ich momentan nur vom Handy per VPN zugreifen, da ist Krusader allerdings kaum bedienbar... 

Link to comment

...das kann eigentlich alles so bestehen bleiben...Du musst Dich nur entscheiden, welchen Du verwendest.

Aber mMn hast Du auch Host 1 = UNRAID korrekt verwendet.

Host 2 Path (media) ist automtisch auf /mnt/user ... UNRAID ist eine Ebene höher und da kannst Du auch auf die raw Disks verzweigen (was Du aber nicht gemacht hast).

 

...daher weiss ich aktuell nicht, warum es bei Dir nicht funktioniert.

 

Zur Massenbefüllung im allgemeinen, würde ich den Cache auf AUS stellen...evtl. sogar, für die allererste Füllung Parity ausstellen/entfernen und nachher neu bauen lassen.

Du hast da ja keine Wahl, die Quelle anders als OK zu definieren und beim schreiben ohne Fehlermeldung hast Du diesen Stand auch auf dem Array. Parity würde da nix bringen/verändern.

 

bzgl unassigned devices (auch schon läner her, bei mir) ...ja, das ist die richtige Einstellung, meine ich...findet man auch im fred um Plugin.

Aber das hat nix mit dem Problem zu tun, so wie Du es schilderst.

 

...steh da auf dem Schlauch, sorry.

Link to comment
21 hours ago, Zip said:

Jetzt sind es so viele Daten gewesen, dass der Cache vollgelaufen ist und Krusador gestoppt hat ("There is not enough space on the disk to write ...").

Im Share hatte ich Use Cache auf Yes gestellt. Eigentlich müsste Krusador doch dann direkt auf die Array Disk schreiben wenn der Cache voll ist oder habe ich das falsch verstanden?

 

Man muss einen Min Free Space für den Cache festlegen (Global Share Settings), der größer ist als die größte Datei, die man kopieren möchte. Der Standardwert 2000000 entspricht 2GB. Also vermutlich hattest du eine Datei kopiert, die größer war als 2GB. Oder aber und da kommt es auf die Software an, wurden mehrere Dateien gleichzeitig kopiert. Dann gilt die Summe aller Dateien. Ich rippe zB manchmal drei Blu-Rays gleichzeitig, weshalb ich "100GB" eingetragen habe.

 

Hat man nichts oder zu wenige eingestellt und es nur ein Bit auf dem Cache frei, dann wird die nächste Datei, egal wie groß die ist, zuerst auf den Cache geschrieben und es kommt zu dem Fehler. Unraid kann das leider nicht verhindern, weil vorher nicht bekannt ist wie groß die Datei wird.

 

Ansonsten ist aber eh die Frage ob du den Cache nicht erst mal aus lässt um die SSD während der ersten Befüllung zu schonen.

Link to comment
4 hours ago, mgutt said:

Man muss einen Min Free Space für den Cache festlegen (Global Share Settings), der größer ist als die größte Datei, die man kopieren möchte. Der Standardwert 2000000 entspricht 2GB. Also vermutlich hattest du eine Datei kopiert, die größer war als 2GB. Oder aber und da kommt es auf die Software an, wurden mehrere Dateien gleichzeitig kopiert. Dann gilt die Summe aller Dateien. Ich rippe zB manchmal drei Blu-Rays gleichzeitig, weshalb ich "100GB" eingetragen habe.

Ok, das erklärt einiges. Dann stelle ich den Wert mal auf 20000000 (= 20 GB). Das sollte für mich reichen.

 

4 hours ago, mgutt said:

Ansonsten ist aber eh die Frage ob du den Cache nicht erst mal aus lässt um die SSD während der ersten Befüllung zu schonen.

Habe ich auch schon gemacht, hat dann auch problemlos funktioniert 👍

Edited by Zip
Link to comment

Kurz zum nachträglichen Einbau einer Festplatte (Parity Disk):

 

Unraid herunterfahren (Main --> Shutdown) --> Neue Festplatte einbauen --> Server starten --> Neue HDD als Parity festlegen --> Fertig?!

 

Muss ich vor dem Shutdown die Docker und / oder Array stoppen? Gibt es sonst etwas zu beachten?

 

 

Link to comment
2 hours ago, Zip said:

Muss ich vor dem Shutdown die Docker und / oder Array stoppen?

Nein das passiert automatisch. Nur VMs muss man evtl von Hand herunterfahren.

 

2 hours ago, Zip said:

Unraid herunterfahren (Main --> Shutdown) --> Neue Festplatte einbauen

Wenn du im BIOS Hotswap aktiviert hast, müsstest du den Server nicht mal herunterfahren.

Link to comment

Leider habe ich das nächste Problem:

 

Ich habe die neue Festplatte eingebaut und als Parity Disk definiert. Danach die Parity-Synchronisation gestartet und direkt zu Beginn folgende Warnung erhalten:

 

image.png.d1abc510cb37725f190cc7e4b5d02bfa.png

 

Nachdem die Synchronisation durch war, kam eine weitere Warnung:

 

image.png.493524fefc8ee0204b70d856610dd92e.png

 

 

Der Smart Report spruckt folgendes aus:

 

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-4.19.107-Unraid] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD40EFRX-68WT0N0
Serial Number:    WD-WCC4E6YXXXXX
LU WWN Device Id: 5 0014ee 2b7353f9e
Firmware Version: 82.00A82
User Capacity:    4,000,787,030,016 bytes [4.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Fri Jan 15 05:44:32 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is:   Unavailable
APM feature is:   Unavailable
Rd look-ahead is: Enabled
Write cache is:   Enabled
DSN feature is:   Unavailable
ATA Security is:  Disabled, frozen [SEC2]
Wt Cache Reorder: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      ( 121)	The previous self-test completed having
					the read element of the test failed.
Total time to complete Offline 
data collection: 		(52860) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 529) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x703d)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   200   200   051    -    24
  3 Spin_Up_Time            POS--K   224   178   021    -    5758
  4 Start_Stop_Count        -O--CK   085   085   000    -    15919
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0
  7 Seek_Error_Rate         -OSR-K   100   253   000    -    0
  9 Power_On_Hours          -O--CK   042   042   000    -    42510
 10 Spin_Retry_Count        -O--CK   100   100   000    -    0
 11 Calibration_Retry_Count -O--CK   100   253   000    -    0
 12 Power_Cycle_Count       -O--CK   100   100   000    -    30
192 Power-Off_Retract_Count -O--CK   200   200   000    -    24
193 Load_Cycle_Count        -O--CK   194   194   000    -    20589
194 Temperature_Celsius     -O---K   121   108   000    -    31
196 Reallocated_Event_Count -O--CK   200   200   000    -    0
197 Current_Pending_Sector  -O--CK   200   200   000    -    5
198 Offline_Uncorrectable   ----CK   100   253   000    -    0
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
200 Multi_Zone_Error_Rate   ---R--   200   200   000    -    11
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning

General Purpose Log Directory Version 1
SMART           Log Directory Version 1 [multi-sector log support]
Address    Access  R/W   Size  Description
0x00       GPL,SL  R/O      1  Log Directory
0x01           SL  R/O      1  Summary SMART error log
0x02           SL  R/O      5  Comprehensive SMART error log
0x03       GPL     R/O      6  Ext. Comprehensive SMART error log
0x06           SL  R/O      1  SMART self-test log
0x07       GPL     R/O      1  Extended self-test log
0x09           SL  R/W      1  Selective self-test log
0x10       GPL     R/O      1  NCQ Command Error log
0x11       GPL     R/O      1  SATA Phy Event Counters log
0x21       GPL     R/O      1  Write stream error log
0x22       GPL     R/O      1  Read stream error log
0x80-0x9f  GPL,SL  R/W     16  Host vendor specific log
0xa0-0xa7  GPL,SL  VS      16  Device vendor specific log
0xa8-0xb6  GPL,SL  VS       1  Device vendor specific log
0xb7       GPL,SL  VS      39  Device vendor specific log
0xbd       GPL,SL  VS       1  Device vendor specific log
0xc0       GPL,SL  VS       1  Device vendor specific log
0xc1       GPL     VS      93  Device vendor specific log
0xe0       GPL,SL  R/W      1  SCT Command/Status
0xe1       GPL,SL  R/W      1  SCT Data Transfer

SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
Device Error Count: 5
	CR     = Command Register
	FEATR  = Features Register
	COUNT  = Count (was: Sector Count) Register
	LBA_48 = Upper bytes of LBA High/Mid/Low Registers ]  ATA-8
	LH     = LBA High (was: Cylinder High) Register    ]   LBA
	LM     = LBA Mid (was: Cylinder Low) Register      ] Register
	LL     = LBA Low (was: Sector Number) Register     ]
	DV     = Device (was: Device/Head) Register
	DC     = Device Control Register
	ER     = Error register
	ST     = Status register
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 5 [4] occurred at disk power-on lifetime: 42510 hours (1771 days + 6 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 01 d1 1a 1d 78 40 00  Error: UNC at LBA = 0x1d11a1d78 = 7803116920

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 05 40 00 f8 00 01 d1 1a 32 f0 40 08     09:42:15.022  READ FPDMA QUEUED
  60 05 40 00 10 00 01 d1 1a 18 30 40 08     09:42:15.022  READ FPDMA QUEUED
  60 05 40 00 08 00 01 d1 1a 1d 70 40 08     09:42:15.021  READ FPDMA QUEUED
  60 00 10 00 00 00 01 d1 1a 22 b0 40 08     09:42:15.021  READ FPDMA QUEUED
  60 00 e8 00 f0 00 01 d1 1a 22 c0 40 08     09:42:15.021  READ FPDMA QUEUED

Error 4 [3] occurred at disk power-on lifetime: 42510 hours (1771 days + 6 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 01 d1 1a 17 50 40 00  Error: UNC at LBA = 0x1d11a1750 = 7803115344

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 05 40 00 40 00 01 d1 1a 12 f0 40 08     09:42:11.652  READ FPDMA QUEUED
  60 02 d0 00 38 00 01 d1 1a 10 20 40 08     09:42:11.641  READ FPDMA QUEUED
  60 00 78 00 30 00 01 d1 1a 0f a8 40 08     09:42:11.635  READ FPDMA QUEUED
  60 01 30 00 28 00 01 d1 1a 0e 78 40 08     09:42:11.634  READ FPDMA QUEUED
  60 01 48 00 20 00 01 d1 1a 0d 30 40 08     09:42:11.632  READ FPDMA QUEUED

Error 3 [2] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 00 b3 d9 08 40 00  Error: UNC at LBA = 0x00b3d908 = 11786504

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 05 40 00 f0 00 00 00 b3 f4 50 40 08     00:06:45.954  READ FPDMA QUEUED
  60 00 80 00 e8 00 00 00 b3 f3 d0 40 08     00:06:44.996  READ FPDMA QUEUED
  60 03 d0 00 e0 00 00 00 b3 f0 00 40 08     00:06:44.996  READ FPDMA QUEUED
  60 00 f0 00 d8 00 00 00 b3 ef 10 40 08     00:06:43.418  READ FPDMA QUEUED
  60 04 50 00 d0 00 00 00 b3 ea c0 40 08     00:06:43.418  READ FPDMA QUEUED

Error 2 [1] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 00 b3 cb b0 40 00  Error: UNC at LBA = 0x00b3cbb0 = 11783088

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 03 d0 00 10 00 00 00 b3 db f0 40 08     00:06:39.246  READ FPDMA QUEUED
  60 01 70 00 08 00 00 00 b3 da 80 40 08     00:06:39.245  READ FPDMA QUEUED
  60 05 40 00 80 00 00 00 b3 d5 40 40 08     00:06:39.245  READ FPDMA QUEUED
  60 00 80 00 78 00 00 00 b3 bf c0 40 08     00:06:39.245  READ FPDMA QUEUED
  60 05 40 00 70 00 00 00 b3 c0 40 40 08     00:06:39.245  READ FPDMA QUEUED

Error 1 [0] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER -- ST COUNT  LBA_48  LH LM LL DV DC
  -- -- -- == -- == == == -- -- -- -- --
  40 -- 51 00 00 00 00 00 b3 be 50 40 00  Error: UNC at LBA = 0x00b3be50 = 11779664

  Commands leading to the command that caused the error were:
  CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  60 04 c8 00 f0 00 00 00 b3 d0 78 40 08     00:06:35.703  READ FPDMA QUEUED
  60 00 78 00 e8 00 00 00 b3 d0 00 40 08     00:06:35.699  READ FPDMA QUEUED
  60 05 40 00 e0 00 00 00 b3 ca c0 40 08     00:06:35.699  READ FPDMA QUEUED
  60 03 c0 00 d8 00 00 00 b3 c7 00 40 08     00:06:35.695  READ FPDMA QUEUED
  60 00 a0 00 d0 00 00 00 b3 c6 60 40 08     00:06:35.695  READ FPDMA QUEUED

SMART Extended Self-test Log Version: 1 (1 sectors)
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       90%     42510         11783088
# 2  Short offline       Completed without error       00%     42510         -
# 3  Short offline       Aborted by host               10%     42500         -
# 4  Short offline       Completed without error       00%     42313         -
# 5  Short offline       Completed without error       00%     42145         -
# 6  Short offline       Completed without error       00%     41978         -
# 7  Short offline       Completed without error       00%     41810         -
# 8  Extended offline    Completed: read failure       10%     41718         7803115344
# 9  Short offline       Completed without error       00%     41642         -
#10  Short offline       Completed without error       00%     41474         -
#11  Short offline       Completed without error       00%     41306         -
#12  Short offline       Completed without error       00%     41138         -
#13  Extended offline    Completed: read failure       10%     40997         7803115344
#14  Short offline       Completed without error       00%     40970         -
#15  Short offline       Completed without error       00%     40803         -
#16  Short offline       Completed without error       00%     40634         -
#17  Short offline       Completed without error       00%     40466         -
#18  Short offline       Completed without error       00%     40298         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

SCT Status Version:                  3
SCT Version (vendor specific):       258 (0x0102)
Device State:                        Active (0)
Current Temperature:                    31 Celsius
Power Cycle Min/Max Temperature:     29/32 Celsius
Lifetime    Min/Max Temperature:      3/44 Celsius
Under/Over Temperature Limit Count:   0/0
Vendor specific:
01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00

SCT Temperature History Version:     2
Temperature Sampling Period:         1 minute
Temperature Logging Interval:        1 minute
Min/Max recommended Temperature:      0/60 Celsius
Min/Max Temperature Limit:           -41/85 Celsius
Temperature History Size (Index):    478 (449)

Index    Estimated Time   Temperature Celsius
 450    2021-01-14 21:47    32  *************
 ...    ..( 29 skipped).    ..  *************
   2    2021-01-14 22:17    32  *************
   3    2021-01-14 22:18    31  ************
 ...    ..(  5 skipped).    ..  ************
   9    2021-01-14 22:24    31  ************
  10    2021-01-14 22:25    32  *************
 ...    ..(438 skipped).    ..  *************
 449    2021-01-15 05:44    32  *************

SCT Error Recovery Control:
           Read:     70 (7.0 seconds)
          Write:     70 (7.0 seconds)

Device Statistics (GP/SMART Log 0x04) not supported

Pending Defects log (GP Log 0x0c) not supported

SATA Phy Event Counters (GP Log 0x11)
ID      Size     Value  Description
0x0001  2            0  Command failed due to ICRC error
0x0002  2            0  R_ERR response for data FIS
0x0003  2            0  R_ERR response for device-to-host data FIS
0x0004  2            0  R_ERR response for host-to-device data FIS
0x0005  2            0  R_ERR response for non-data FIS
0x0006  2            0  R_ERR response for device-to-host non-data FIS
0x0007  2            0  R_ERR response for host-to-device non-data FIS
0x0008  2            0  Device-to-host non-data FIS retries
0x0009  2            2  Transition from drive PhyRdy to drive PhyNRdy
0x000a  2            3  Device-to-host register FISes sent due to a COMRESET
0x000b  2            0  CRC errors within host-to-device FIS
0x000f  2            0  R_ERR response for host-to-device data FIS, CRC
0x0012  2            0  R_ERR response for host-to-device non-data FIS, CRC
0x8000  4        35480  Vendor specific

 

 

In den Attributes ist Zeile 197 gelb:

 

image.thumb.png.9422962632478df22c14e845daacfe4a.png

 

 

Ist die Festplatte irgendwie zu retten?

 

Danke vorab!

Edited by Zip
Link to comment

Habe kein preclear gemacht 😞 Ist ja auch eine alte Festplatte. Vor dem Einbau der neuen Parity Disk lief die auch ohne Fehler (hatte für die beiden vorhandenen Array Festplatten einen Smart Test gemacht).

 

Ja, sind am internen SATA angeschlossen. Kabel / Stecker sind fest...

Link to comment

Pending Sector hat nichts mit dem Kabel zu tun. Bei einem defekten Kabel hätte man einen CRC Error Count.

 

Der Pending Sector Count bezieht sich auf einen evtl nur temporären Fehler eines Sektors. Ist dieser dauerhaft, dann steigt der Reallocated Sector Count. Wenn letzterer nicht steigt, dann braucht man sich eigentlich keinen Kopf machen. Allerdings geht die Platte nicht von alleine hin und testet den Sektor noch mal und man erfährt auch nicht welcher es war. Mehr Infos dazu:

https://superuser.com/a/688764/129262

 

Die mit dem Fehler ist die Parity? Dann mach mal einen Screenshot von der Diskübersicht und gehe danach auf Tools und erstelle eine New Config wo du das Array und den Cache auf preserve (behalten) setzt. Dann weist du die Parity neu zu und lässt sie komplett neu erstellen. Nun wird er alle Sektoren der Platte überschreiben. Ist das erledigt, machst du einen Parity Check. Jetzt liest er noch mal alle Sektoren aus. Haben sich die SMART Werte nicht verschlechtert, dann ist alles gut.

 

Diese Vorgehensweise funktioniert allerdings nur, wenn die Parity nicht größer als das größte Laufwerk des Arrays ist (weil er sonst nicht alle Sektoren beschreibt/ausliest). Ist die Platte größer, dann geht es nur mit dem Pre-Clear Plugin und den entsprechenden Einstellungen auch alles noch mal auszulesen.

Link to comment

Anbei die Übersicht, die mit den Fehlern ist Disk 2 (nicht die Parity Disk). Die Parity ist die neue Festplatte, die ich gestern eingebaut habe. Disk 1 und Disk 2 sind die beiden alten, vorhandenen Festplatten. Alle Festplatten haben 4 TB Kapazität.

 

image.png.b8362b98202e225ca7ddf51d50f6db13.png

 

 

Edited by Zip
Link to comment

Ok, also die Disk2 ist noch leer? Dann Screenshot, neue Config und ohne die neue Platte das Array starten. Dann per Pre-Clear Plugin die Festplatte "clearen" und "Post-Read" aktiv lassen. Das "Pre-Read" kann aber weg. Ansonsten hast du drei Durchläufe. Das ist eigentlich nicht notwendig.

 

Die Parität ist natürlich "kaputt", wenn du die Config neu erstellst. Dh parallel musst du entweder einen Parity Check machen (mit aktiver Korrektur) oder du wartest damit bis du sicher bist, dass die neue Platte doch keine dauerhafte Macke hat. Ganz zum Schluss muss die Parity nämlich so oder so korrigiert werden.

Link to comment

Ein paar Daten sind bereits auf der disk 2. Kann ich einfach unter Shares in den jeweiligen Verzeichnissen unter included disks auf disk 1 stellen und den mover laufen lassen? Wird dann alles auf disk 1 geschoben?


Den Rest muss ich mir morgen nochmal in Ruhe angucken.

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.