Ford Prefect Posted January 8, 2021 Share Posted January 8, 2021 (edited) ...wird schon alles prima werden...no worries Edited January 8, 2021 by Ford Prefect Quote Link to comment
Zip Posted January 11, 2021 Author Share Posted January 11, 2021 Ich habe jetzt doch noch spontan eine neue 4 TB WD Red Plus bestellt. Diese kommt wahrscheinlich erst in ein paar Tagen an. Der Rest der Komponenten dürfte heute ankommen und ich würde natürlich gerne schon anfangen. Gibt es ein Problem, wenn ich die Parity Festplatte erst später einrichte? Ich würde dann erst die beiden "alten" Festplatten als Array einrichten und schon beginnen, die vorhandenen Daten darauf zu kopieren. Quote Link to comment
mgutt Posted January 11, 2021 Share Posted January 11, 2021 1 minute ago, Zip said: Gibt es ein Problem, wenn ich die Parity Festplatte erst später einrichte? Ich würde dann erst die beiden "alten" Festplatten als Array einrichten und schon beginnen, die vorhandenen Daten darauf zu kopieren. Das geht problemlos. Du musst nur eben daran denken, das die Paritätsplatte nicht kleiner sein darf als die größte Array-Platte. Quote Link to comment
Zip Posted January 11, 2021 Author Share Posted January 11, 2021 Alle 3 haben jeweils 4 TB, das sollte also passen 🙂 1 Quote Link to comment
Zip Posted January 12, 2021 Author Share Posted January 12, 2021 (edited) Vorab die erfreulichen Nachrichten: Der Server ist zusammen gebaut und Unraid läuft. Nun habe ich die ersten Grundeinstellungen vorgenommen und auch schon Krusador installiert. Danach meine externe Festplatte per USB angeschlossen und die ersten Daten auf einen neu eingerichteten Share kopiert. Jetzt sind es so viele Daten gewesen, dass der Cache vollgelaufen ist und Krusador gestoppt hat ("There is not enough space on the disk to write ..."). Im Share hatte ich Use Cache auf Yes gestellt. Eigentlich müsste Krusador doch dann direkt auf die Array Disk schreiben wenn der Cache voll ist oder habe ich das falsch verstanden? Den Mover habe ich nun manuell gestartet, damit der Cache erstmal wieder leer wird. Wie sollte ich weiter vorgehen? In Krusador kann ich zwar auf retry klicken, aber dann habe ich das Problem ja nach kurzer Zeit wieder?! Sollte ich im Share bei Use Cache auf No stellen? Könnte ich das wechseln im laufenden Betrieb machen und danach bei Krusador das ganze weiter laufen lassen? Oder wie sollte ich vorgehen? Danke. Edited January 12, 2021 by Zip Quote Link to comment
Ford Prefect Posted January 12, 2021 Share Posted January 12, 2021 Eigentlich sollte es so sein, wie Du beschreibst.... ...welchen Pfad verwendest Du als Ziel? -> /mnt/user/<share> -> hier sollte, bei Cache=yes, zuerst der cache "vollaufen" und dann einfach weiter alles auf dem Array landen. -> /mnt/cache/<share> -> das geht nur auf den Cache, analog /mnt/disks/diskX/<share> ... wenn voll, dann Schluss ...welche EInstellungen hast Du für das Min-free-Space für das Share (unter Shares -> <share-name>)und den Cache (Settings - global share settings - Cache Settings)? Quote Link to comment
Zip Posted January 12, 2021 Author Share Posted January 12, 2021 Habe folgende Einstellungen bei Krusader eingestellt (in Anlehnung an das Youtube Video von Spaceinvader One, leider benutzt er eine andere Version: Quote Link to comment
Ford Prefect Posted January 12, 2021 Share Posted January 12, 2021 ...sorry, es ging mir um die Einstellungen in unraid selbst, nicht Krusader. ...und welche Pfade Du als Ziel der Kopieraktion nutzt....alles unterhalb /mnt/user/ ist *gut* ...alles andere ist *nicht gut*. In Kusader sind alle Pfade zugänglich, wie man an den Einstellungen sieht....also pot. eine Chance für "Fehler vor der Tastatur" Quote Link to comment
Zip Posted January 12, 2021 Author Share Posted January 12, 2021 41 minutes ago, Ford Prefect said: "Fehler vor der Tastatur" Das stimmt leider 😞 Destination in Krusador ist /UNRAID/user/Videos (mein angelegter Share) Min. free-Space Share: 0 KB (Werkseinstellung) Min. free-Space Cache: 2000000 (Werkseinstellung) Quote Link to comment
Ford Prefect Posted January 12, 2021 Share Posted January 12, 2021 ...UNRAID ist im Krusader von /mnt gemapped....also sollte /UNRAID/user/video identisch zu /mnt/user/video sein...hmmmm🤔 Was ist mit /media ? ... das ist auch im Krusader von /mnt/user gemappt...also dann für Dein share /media/video ?? The minimum free space available to allow writing to any disk belonging to the share. Choose a value which is equal or greater than the biggest single file size you intend to copy to the share. Include units KB, MB, GB and TB as appropriate, e.g. 10MB. ...um Platz für ein DVD.iso zu haben, sollten da beim share also 5GB stehen, statt 0, oder? ...cache-min ohne Unit 20000000...das sind 20Mio kbyte-Blocks, also 20GB This represents a "floor" of the amount of free space remaining on the cache disk. If the free space becomes less than this value, then new files written to user shares with cache enabled will go to the array and not the cache disk. Enter a numeric value with one of these suffixes: KB = 1,000 MB = 1,000,000 GB = 1,000,000,000 TB = 1,000,000,000,000 If no suffix, a count of 1024-byte blocks is assumed. Examples: 2GB => 2,000,000,000 bytes 2000000 => 2,048,000,000 bytes Ich hab das schon sooo lange nicht mehr angefasst....weiss es garnicht mehr 😆 Quote Link to comment
Zip Posted January 12, 2021 Author Share Posted January 12, 2021 10 minutes ago, Ford Prefect said: ...UNRAID ist im Krusader von /mnt gemapped....also sollte /UNRAID/user/video identisch zu /mnt/user/video sein...hmmmm🤔 Was ist mit /media ? ... das ist auch im Krusader von /mnt/user gemappt...also dann für Dein share /media/video ?? Also ich habe mich nach dem Video von Spaceinvader One gerichtet. Allerdings gibt es mittlerweile die Version in dem Video nicht mehr. Ich habe binhex-krusader genommen. Wenn ich es jetzt richtig gelesen habe, benötige ich den von mir angelegten Host Path 1 /UNRAID gar nicht, da es in dem binhex-krusader bereits durch Host Path 2 abgedeckt ist mit /media. Ich würde jetzt also Host Path 1 löschen?! "unassigned devices" und "Flash drive" müssen aber so bestehen bleiben oder? Außerdem sollte ich noch bei "unassigned devices" unter Access Mode auf RW/Slave umstellen. Leider kann ich momentan nur vom Handy per VPN zugreifen, da ist Krusader allerdings kaum bedienbar... Quote Link to comment
Ford Prefect Posted January 12, 2021 Share Posted January 12, 2021 ...das kann eigentlich alles so bestehen bleiben...Du musst Dich nur entscheiden, welchen Du verwendest. Aber mMn hast Du auch Host 1 = UNRAID korrekt verwendet. Host 2 Path (media) ist automtisch auf /mnt/user ... UNRAID ist eine Ebene höher und da kannst Du auch auf die raw Disks verzweigen (was Du aber nicht gemacht hast). ...daher weiss ich aktuell nicht, warum es bei Dir nicht funktioniert. Zur Massenbefüllung im allgemeinen, würde ich den Cache auf AUS stellen...evtl. sogar, für die allererste Füllung Parity ausstellen/entfernen und nachher neu bauen lassen. Du hast da ja keine Wahl, die Quelle anders als OK zu definieren und beim schreiben ohne Fehlermeldung hast Du diesen Stand auch auf dem Array. Parity würde da nix bringen/verändern. bzgl unassigned devices (auch schon läner her, bei mir) ...ja, das ist die richtige Einstellung, meine ich...findet man auch im fred um Plugin. Aber das hat nix mit dem Problem zu tun, so wie Du es schilderst. ...steh da auf dem Schlauch, sorry. Quote Link to comment
mgutt Posted January 13, 2021 Share Posted January 13, 2021 21 hours ago, Zip said: Jetzt sind es so viele Daten gewesen, dass der Cache vollgelaufen ist und Krusador gestoppt hat ("There is not enough space on the disk to write ..."). Im Share hatte ich Use Cache auf Yes gestellt. Eigentlich müsste Krusador doch dann direkt auf die Array Disk schreiben wenn der Cache voll ist oder habe ich das falsch verstanden? Man muss einen Min Free Space für den Cache festlegen (Global Share Settings), der größer ist als die größte Datei, die man kopieren möchte. Der Standardwert 2000000 entspricht 2GB. Also vermutlich hattest du eine Datei kopiert, die größer war als 2GB. Oder aber und da kommt es auf die Software an, wurden mehrere Dateien gleichzeitig kopiert. Dann gilt die Summe aller Dateien. Ich rippe zB manchmal drei Blu-Rays gleichzeitig, weshalb ich "100GB" eingetragen habe. Hat man nichts oder zu wenige eingestellt und es nur ein Bit auf dem Cache frei, dann wird die nächste Datei, egal wie groß die ist, zuerst auf den Cache geschrieben und es kommt zu dem Fehler. Unraid kann das leider nicht verhindern, weil vorher nicht bekannt ist wie groß die Datei wird. Ansonsten ist aber eh die Frage ob du den Cache nicht erst mal aus lässt um die SSD während der ersten Befüllung zu schonen. Quote Link to comment
Zip Posted January 13, 2021 Author Share Posted January 13, 2021 (edited) 4 hours ago, mgutt said: Man muss einen Min Free Space für den Cache festlegen (Global Share Settings), der größer ist als die größte Datei, die man kopieren möchte. Der Standardwert 2000000 entspricht 2GB. Also vermutlich hattest du eine Datei kopiert, die größer war als 2GB. Oder aber und da kommt es auf die Software an, wurden mehrere Dateien gleichzeitig kopiert. Dann gilt die Summe aller Dateien. Ich rippe zB manchmal drei Blu-Rays gleichzeitig, weshalb ich "100GB" eingetragen habe. Ok, das erklärt einiges. Dann stelle ich den Wert mal auf 20000000 (= 20 GB). Das sollte für mich reichen. 4 hours ago, mgutt said: Ansonsten ist aber eh die Frage ob du den Cache nicht erst mal aus lässt um die SSD während der ersten Befüllung zu schonen. Habe ich auch schon gemacht, hat dann auch problemlos funktioniert 👍 Edited January 13, 2021 by Zip Quote Link to comment
Zip Posted January 14, 2021 Author Share Posted January 14, 2021 Kurz zum nachträglichen Einbau einer Festplatte (Parity Disk): Unraid herunterfahren (Main --> Shutdown) --> Neue Festplatte einbauen --> Server starten --> Neue HDD als Parity festlegen --> Fertig?! Muss ich vor dem Shutdown die Docker und / oder Array stoppen? Gibt es sonst etwas zu beachten? Quote Link to comment
mgutt Posted January 14, 2021 Share Posted January 14, 2021 2 hours ago, Zip said: Muss ich vor dem Shutdown die Docker und / oder Array stoppen? Nein das passiert automatisch. Nur VMs muss man evtl von Hand herunterfahren. 2 hours ago, Zip said: Unraid herunterfahren (Main --> Shutdown) --> Neue Festplatte einbauen Wenn du im BIOS Hotswap aktiviert hast, müsstest du den Server nicht mal herunterfahren. Quote Link to comment
Zip Posted January 15, 2021 Author Share Posted January 15, 2021 (edited) Leider habe ich das nächste Problem: Ich habe die neue Festplatte eingebaut und als Parity Disk definiert. Danach die Parity-Synchronisation gestartet und direkt zu Beginn folgende Warnung erhalten: Nachdem die Synchronisation durch war, kam eine weitere Warnung: Der Smart Report spruckt folgendes aus: smartctl 7.1 2019-12-30 r5022 [x86_64-linux-4.19.107-Unraid] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital Red Device Model: WDC WD40EFRX-68WT0N0 Serial Number: WD-WCC4E6YXXXXX LU WWN Device Id: 5 0014ee 2b7353f9e Firmware Version: 82.00A82 User Capacity: 4,000,787,030,016 bytes [4.00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Rotation Rate: 5400 rpm Device is: In smartctl database [for details use: -P show] ATA Version is: ACS-2 (minor revision not indicated) SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Fri Jan 15 05:44:32 2021 CET SMART support is: Available - device has SMART capability. SMART support is: Enabled AAM feature is: Unavailable APM feature is: Unavailable Rd look-ahead is: Enabled Write cache is: Enabled DSN feature is: Unavailable ATA Security is: Disabled, frozen [SEC2] Wt Cache Reorder: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x00) Offline data collection activity was never started. Auto Offline Data Collection: Disabled. Self-test execution status: ( 121) The previous self-test completed having the read element of the test failed. Total time to complete Offline data collection: (52860) seconds. Offline data collection capabilities: (0x7b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 529) minutes. Conveyance self-test routine recommended polling time: ( 5) minutes. SCT capabilities: (0x703d) SCT Status supported. SCT Error Recovery Control supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE 1 Raw_Read_Error_Rate POSR-K 200 200 051 - 24 3 Spin_Up_Time POS--K 224 178 021 - 5758 4 Start_Stop_Count -O--CK 085 085 000 - 15919 5 Reallocated_Sector_Ct PO--CK 200 200 140 - 0 7 Seek_Error_Rate -OSR-K 100 253 000 - 0 9 Power_On_Hours -O--CK 042 042 000 - 42510 10 Spin_Retry_Count -O--CK 100 100 000 - 0 11 Calibration_Retry_Count -O--CK 100 253 000 - 0 12 Power_Cycle_Count -O--CK 100 100 000 - 30 192 Power-Off_Retract_Count -O--CK 200 200 000 - 24 193 Load_Cycle_Count -O--CK 194 194 000 - 20589 194 Temperature_Celsius -O---K 121 108 000 - 31 196 Reallocated_Event_Count -O--CK 200 200 000 - 0 197 Current_Pending_Sector -O--CK 200 200 000 - 5 198 Offline_Uncorrectable ----CK 100 253 000 - 0 199 UDMA_CRC_Error_Count -O--CK 200 200 000 - 0 200 Multi_Zone_Error_Rate ---R-- 200 200 000 - 11 ||||||_ K auto-keep |||||__ C event count ||||___ R error rate |||____ S speed/performance ||_____ O updated online |______ P prefailure warning General Purpose Log Directory Version 1 SMART Log Directory Version 1 [multi-sector log support] Address Access R/W Size Description 0x00 GPL,SL R/O 1 Log Directory 0x01 SL R/O 1 Summary SMART error log 0x02 SL R/O 5 Comprehensive SMART error log 0x03 GPL R/O 6 Ext. Comprehensive SMART error log 0x06 SL R/O 1 SMART self-test log 0x07 GPL R/O 1 Extended self-test log 0x09 SL R/W 1 Selective self-test log 0x10 GPL R/O 1 NCQ Command Error log 0x11 GPL R/O 1 SATA Phy Event Counters log 0x21 GPL R/O 1 Write stream error log 0x22 GPL R/O 1 Read stream error log 0x80-0x9f GPL,SL R/W 16 Host vendor specific log 0xa0-0xa7 GPL,SL VS 16 Device vendor specific log 0xa8-0xb6 GPL,SL VS 1 Device vendor specific log 0xb7 GPL,SL VS 39 Device vendor specific log 0xbd GPL,SL VS 1 Device vendor specific log 0xc0 GPL,SL VS 1 Device vendor specific log 0xc1 GPL VS 93 Device vendor specific log 0xe0 GPL,SL R/W 1 SCT Command/Status 0xe1 GPL,SL R/W 1 SCT Data Transfer SMART Extended Comprehensive Error Log Version: 1 (6 sectors) Device Error Count: 5 CR = Command Register FEATR = Features Register COUNT = Count (was: Sector Count) Register LBA_48 = Upper bytes of LBA High/Mid/Low Registers ] ATA-8 LH = LBA High (was: Cylinder High) Register ] LBA LM = LBA Mid (was: Cylinder Low) Register ] Register LL = LBA Low (was: Sector Number) Register ] DV = Device (was: Device/Head) Register DC = Device Control Register ER = Error register ST = Status register Powered_Up_Time is measured from power on, and printed as DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes, SS=sec, and sss=millisec. It "wraps" after 49.710 days. Error 5 [4] occurred at disk power-on lifetime: 42510 hours (1771 days + 6 hours) When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER -- ST COUNT LBA_48 LH LM LL DV DC -- -- -- == -- == == == -- -- -- -- -- 40 -- 51 00 00 00 01 d1 1a 1d 78 40 00 Error: UNC at LBA = 0x1d11a1d78 = 7803116920 Commands leading to the command that caused the error were: CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name -- == -- == -- == == == -- -- -- -- -- --------------- -------------------- 60 05 40 00 f8 00 01 d1 1a 32 f0 40 08 09:42:15.022 READ FPDMA QUEUED 60 05 40 00 10 00 01 d1 1a 18 30 40 08 09:42:15.022 READ FPDMA QUEUED 60 05 40 00 08 00 01 d1 1a 1d 70 40 08 09:42:15.021 READ FPDMA QUEUED 60 00 10 00 00 00 01 d1 1a 22 b0 40 08 09:42:15.021 READ FPDMA QUEUED 60 00 e8 00 f0 00 01 d1 1a 22 c0 40 08 09:42:15.021 READ FPDMA QUEUED Error 4 [3] occurred at disk power-on lifetime: 42510 hours (1771 days + 6 hours) When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER -- ST COUNT LBA_48 LH LM LL DV DC -- -- -- == -- == == == -- -- -- -- -- 40 -- 51 00 00 00 01 d1 1a 17 50 40 00 Error: UNC at LBA = 0x1d11a1750 = 7803115344 Commands leading to the command that caused the error were: CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name -- == -- == -- == == == -- -- -- -- -- --------------- -------------------- 60 05 40 00 40 00 01 d1 1a 12 f0 40 08 09:42:11.652 READ FPDMA QUEUED 60 02 d0 00 38 00 01 d1 1a 10 20 40 08 09:42:11.641 READ FPDMA QUEUED 60 00 78 00 30 00 01 d1 1a 0f a8 40 08 09:42:11.635 READ FPDMA QUEUED 60 01 30 00 28 00 01 d1 1a 0e 78 40 08 09:42:11.634 READ FPDMA QUEUED 60 01 48 00 20 00 01 d1 1a 0d 30 40 08 09:42:11.632 READ FPDMA QUEUED Error 3 [2] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours) When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER -- ST COUNT LBA_48 LH LM LL DV DC -- -- -- == -- == == == -- -- -- -- -- 40 -- 51 00 00 00 00 00 b3 d9 08 40 00 Error: UNC at LBA = 0x00b3d908 = 11786504 Commands leading to the command that caused the error were: CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name -- == -- == -- == == == -- -- -- -- -- --------------- -------------------- 60 05 40 00 f0 00 00 00 b3 f4 50 40 08 00:06:45.954 READ FPDMA QUEUED 60 00 80 00 e8 00 00 00 b3 f3 d0 40 08 00:06:44.996 READ FPDMA QUEUED 60 03 d0 00 e0 00 00 00 b3 f0 00 40 08 00:06:44.996 READ FPDMA QUEUED 60 00 f0 00 d8 00 00 00 b3 ef 10 40 08 00:06:43.418 READ FPDMA QUEUED 60 04 50 00 d0 00 00 00 b3 ea c0 40 08 00:06:43.418 READ FPDMA QUEUED Error 2 [1] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours) When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER -- ST COUNT LBA_48 LH LM LL DV DC -- -- -- == -- == == == -- -- -- -- -- 40 -- 51 00 00 00 00 00 b3 cb b0 40 00 Error: UNC at LBA = 0x00b3cbb0 = 11783088 Commands leading to the command that caused the error were: CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name -- == -- == -- == == == -- -- -- -- -- --------------- -------------------- 60 03 d0 00 10 00 00 00 b3 db f0 40 08 00:06:39.246 READ FPDMA QUEUED 60 01 70 00 08 00 00 00 b3 da 80 40 08 00:06:39.245 READ FPDMA QUEUED 60 05 40 00 80 00 00 00 b3 d5 40 40 08 00:06:39.245 READ FPDMA QUEUED 60 00 80 00 78 00 00 00 b3 bf c0 40 08 00:06:39.245 READ FPDMA QUEUED 60 05 40 00 70 00 00 00 b3 c0 40 40 08 00:06:39.245 READ FPDMA QUEUED Error 1 [0] occurred at disk power-on lifetime: 42500 hours (1770 days + 20 hours) When the command that caused the error occurred, the device was active or idle. After command completion occurred, registers were: ER -- ST COUNT LBA_48 LH LM LL DV DC -- -- -- == -- == == == -- -- -- -- -- 40 -- 51 00 00 00 00 00 b3 be 50 40 00 Error: UNC at LBA = 0x00b3be50 = 11779664 Commands leading to the command that caused the error were: CR FEATR COUNT LBA_48 LH LM LL DV DC Powered_Up_Time Command/Feature_Name -- == -- == -- == == == -- -- -- -- -- --------------- -------------------- 60 04 c8 00 f0 00 00 00 b3 d0 78 40 08 00:06:35.703 READ FPDMA QUEUED 60 00 78 00 e8 00 00 00 b3 d0 00 40 08 00:06:35.699 READ FPDMA QUEUED 60 05 40 00 e0 00 00 00 b3 ca c0 40 08 00:06:35.699 READ FPDMA QUEUED 60 03 c0 00 d8 00 00 00 b3 c7 00 40 08 00:06:35.695 READ FPDMA QUEUED 60 00 a0 00 d0 00 00 00 b3 c6 60 40 08 00:06:35.695 READ FPDMA QUEUED SMART Extended Self-test Log Version: 1 (1 sectors) Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed: read failure 90% 42510 11783088 # 2 Short offline Completed without error 00% 42510 - # 3 Short offline Aborted by host 10% 42500 - # 4 Short offline Completed without error 00% 42313 - # 5 Short offline Completed without error 00% 42145 - # 6 Short offline Completed without error 00% 41978 - # 7 Short offline Completed without error 00% 41810 - # 8 Extended offline Completed: read failure 10% 41718 7803115344 # 9 Short offline Completed without error 00% 41642 - #10 Short offline Completed without error 00% 41474 - #11 Short offline Completed without error 00% 41306 - #12 Short offline Completed without error 00% 41138 - #13 Extended offline Completed: read failure 10% 40997 7803115344 #14 Short offline Completed without error 00% 40970 - #15 Short offline Completed without error 00% 40803 - #16 Short offline Completed without error 00% 40634 - #17 Short offline Completed without error 00% 40466 - #18 Short offline Completed without error 00% 40298 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay. SCT Status Version: 3 SCT Version (vendor specific): 258 (0x0102) Device State: Active (0) Current Temperature: 31 Celsius Power Cycle Min/Max Temperature: 29/32 Celsius Lifetime Min/Max Temperature: 3/44 Celsius Under/Over Temperature Limit Count: 0/0 Vendor specific: 01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 SCT Temperature History Version: 2 Temperature Sampling Period: 1 minute Temperature Logging Interval: 1 minute Min/Max recommended Temperature: 0/60 Celsius Min/Max Temperature Limit: -41/85 Celsius Temperature History Size (Index): 478 (449) Index Estimated Time Temperature Celsius 450 2021-01-14 21:47 32 ************* ... ..( 29 skipped). .. ************* 2 2021-01-14 22:17 32 ************* 3 2021-01-14 22:18 31 ************ ... ..( 5 skipped). .. ************ 9 2021-01-14 22:24 31 ************ 10 2021-01-14 22:25 32 ************* ... ..(438 skipped). .. ************* 449 2021-01-15 05:44 32 ************* SCT Error Recovery Control: Read: 70 (7.0 seconds) Write: 70 (7.0 seconds) Device Statistics (GP/SMART Log 0x04) not supported Pending Defects log (GP Log 0x0c) not supported SATA Phy Event Counters (GP Log 0x11) ID Size Value Description 0x0001 2 0 Command failed due to ICRC error 0x0002 2 0 R_ERR response for data FIS 0x0003 2 0 R_ERR response for device-to-host data FIS 0x0004 2 0 R_ERR response for host-to-device data FIS 0x0005 2 0 R_ERR response for non-data FIS 0x0006 2 0 R_ERR response for device-to-host non-data FIS 0x0007 2 0 R_ERR response for host-to-device non-data FIS 0x0008 2 0 Device-to-host non-data FIS retries 0x0009 2 2 Transition from drive PhyRdy to drive PhyNRdy 0x000a 2 3 Device-to-host register FISes sent due to a COMRESET 0x000b 2 0 CRC errors within host-to-device FIS 0x000f 2 0 R_ERR response for host-to-device data FIS, CRC 0x0012 2 0 R_ERR response for host-to-device non-data FIS, CRC 0x8000 4 35480 Vendor specific In den Attributes ist Zeile 197 gelb: Ist die Festplatte irgendwie zu retten? Danke vorab! Edited January 15, 2021 by Zip Quote Link to comment
Ford Prefect Posted January 15, 2021 Share Posted January 15, 2021 (edited) ...hast Du einen preclear mit mindestens 1x test gemacht, als Du sie bekamst und war sie da OK? Die ist am internen SATA angeschlossen?...Stecker/Kabel alles OK/fest? ...und NCQ auf *aus*? Edited January 15, 2021 by Ford Prefect Quote Link to comment
Zip Posted January 15, 2021 Author Share Posted January 15, 2021 Habe kein preclear gemacht 😞 Ist ja auch eine alte Festplatte. Vor dem Einbau der neuen Parity Disk lief die auch ohne Fehler (hatte für die beiden vorhandenen Array Festplatten einen Smart Test gemacht). Ja, sind am internen SATA angeschlossen. Kabel / Stecker sind fest... Quote Link to comment
Ford Prefect Posted January 15, 2021 Share Posted January 15, 2021 ...ich würde das Kabel tauschen. Wenn es dann weg ist und Du noch Zeit hast, ein preclear machen...just in Case....dauert aber bei 4TB etwa 24+hrs Quote Link to comment
mgutt Posted January 15, 2021 Share Posted January 15, 2021 Pending Sector hat nichts mit dem Kabel zu tun. Bei einem defekten Kabel hätte man einen CRC Error Count. Der Pending Sector Count bezieht sich auf einen evtl nur temporären Fehler eines Sektors. Ist dieser dauerhaft, dann steigt der Reallocated Sector Count. Wenn letzterer nicht steigt, dann braucht man sich eigentlich keinen Kopf machen. Allerdings geht die Platte nicht von alleine hin und testet den Sektor noch mal und man erfährt auch nicht welcher es war. Mehr Infos dazu: https://superuser.com/a/688764/129262 Die mit dem Fehler ist die Parity? Dann mach mal einen Screenshot von der Diskübersicht und gehe danach auf Tools und erstelle eine New Config wo du das Array und den Cache auf preserve (behalten) setzt. Dann weist du die Parity neu zu und lässt sie komplett neu erstellen. Nun wird er alle Sektoren der Platte überschreiben. Ist das erledigt, machst du einen Parity Check. Jetzt liest er noch mal alle Sektoren aus. Haben sich die SMART Werte nicht verschlechtert, dann ist alles gut. Diese Vorgehensweise funktioniert allerdings nur, wenn die Parity nicht größer als das größte Laufwerk des Arrays ist (weil er sonst nicht alle Sektoren beschreibt/ausliest). Ist die Platte größer, dann geht es nur mit dem Pre-Clear Plugin und den entsprechenden Einstellungen auch alles noch mal auszulesen. Quote Link to comment
Zip Posted January 15, 2021 Author Share Posted January 15, 2021 (edited) Anbei die Übersicht, die mit den Fehlern ist Disk 2 (nicht die Parity Disk). Die Parity ist die neue Festplatte, die ich gestern eingebaut habe. Disk 1 und Disk 2 sind die beiden alten, vorhandenen Festplatten. Alle Festplatten haben 4 TB Kapazität. Edited January 15, 2021 by Zip Quote Link to comment
mgutt Posted January 15, 2021 Share Posted January 15, 2021 Ok, also die Disk2 ist noch leer? Dann Screenshot, neue Config und ohne die neue Platte das Array starten. Dann per Pre-Clear Plugin die Festplatte "clearen" und "Post-Read" aktiv lassen. Das "Pre-Read" kann aber weg. Ansonsten hast du drei Durchläufe. Das ist eigentlich nicht notwendig. Die Parität ist natürlich "kaputt", wenn du die Config neu erstellst. Dh parallel musst du entweder einen Parity Check machen (mit aktiver Korrektur) oder du wartest damit bis du sicher bist, dass die neue Platte doch keine dauerhafte Macke hat. Ganz zum Schluss muss die Parity nämlich so oder so korrigiert werden. Quote Link to comment
Zip Posted January 15, 2021 Author Share Posted January 15, 2021 Ein paar Daten sind bereits auf der disk 2. Kann ich einfach unter Shares in den jeweiligen Verzeichnissen unter included disks auf disk 1 stellen und den mover laufen lassen? Wird dann alles auf disk 1 geschoben? Den Rest muss ich mir morgen nochmal in Ruhe angucken. Quote Link to comment
mgutt Posted January 15, 2021 Share Posted January 15, 2021 Leider nein. Du müsstest per Unbalance Plugin die Daten verschieben oder von Hand über eine Netzwerkfreigabe Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.