¿Qué es INTELIGENTE?
SMART –por sus siglas en inglés, Self-Monitoring, Analysis, and Reporting Technology– es una tecnología integrada en dispositivos de almacenamiento como discos duros o SSD y cuyo objetivo es monitorear su estado de salud.
En la práctica, SMART monitoreará varios parámetros del disco durante las operaciones normales de la unidad, como la cantidad de errores de lectura, los tiempos de inicio de la unidad o incluso las condiciones ambientales. Además, SMART también puede realizar pruebas bajo demanda en la unidad.
Idealmente, SMART permitiría anticipar fallos predecibles como los provocados por desgaste mecánico o degradación de la superficie del disco, así como fallos impredecibles provocados por un defecto inesperado. Dado que las unidades generalmente no fallan abruptamente, SMART ofrece una opción para que el sistema operativo o el administrador del sistema identifique las unidades que pronto fallarán para que puedan ser reemplazadas antes de que ocurra cualquier pérdida de datos.
¿Qué no es INTELIGENTE?
Todo eso me parece maravilloso. Sin embargo, SMART no es una bola de cristal. No puede predecir con un 100% de precisión un fallo ni, por otro lado, garantizar que una unidad no fallará sin una advertencia temprana. En el mejor de los casos, se debería utilizar SMART para estimar la probabilidad de una falla.
Dada la naturaleza estadística de la predicción de fallas, la tecnología SMART interesa particularmente a las empresas que utilizan una gran cantidad de unidades de almacenamiento, y se han realizado estudios de campo para estimar la precisión de los problemas informados por SMART para anticipar las necesidades de reemplazo de discos en centros de datos o granjas de servidores.
En 2016, Microsoft y la Universidad Estatal de Pensilvania realizaron un estudio centrado en los SSD.
Según ese estudio, parece que algunos atributos SMART son buenos indicadores de un fracaso inminente. El documento menciona específicamente:
Recuento de sectores reasignados (Realloc):
Si bien la tecnología subyacente es radicalmente diferente, ese indicador parece tan significativo en el mundo de las SSD como en el de los discos duros. Vale la pena mencionarlo debido a los algoritmos de nivelación de desgaste utilizados en los SSD, cuando varios bloques comienzan a fallar, es probable que muchos más fallen pronto. Recuento de errores de programa/borrado (P/E):
Este es un síntoma de un problema con el hardware flash subyacente donde la unidad no pudo borrar o almacenar datos en un bloque. Debido a las imperfecciones en el proceso de fabricación, se pueden anticipar pocos errores de este tipo. Sin embargo, las memorias flash tienen un número limitado de ciclos de borrado/escritura. Entonces, una vez más, un aumento repentino en la cantidad de eventos podría indicar que la unidad ha llegado al final de su vida útil, y podemos anticipar que muchas más celdas de memoria fallarán pronto. CRC y errores incorregibles (“Error de datos”):
Estos eventos pueden deberse a un error de almacenamiento o a problemas con el enlace de comunicación interno de la unidad. Este indicador tiene en cuenta tanto los errores corregidos (por lo tanto, sin que se informe ningún problema al sistema host) como los errores no corregidos (por lo tanto, los bloques que la unidad ha informado no pueden leer en el sistema host). En otras palabras, los errores corregibles son invisibles para el sistema operativo host, pero de todos modos afectan el rendimiento de la unidad, ya que el firmware de la unidad debe corregir los datos y podría ocurrir una posible reubicación del sector. Recuento de cambios descendentes de SATA:
Debido a perturbaciones temporales, problemas con el enlace de comunicación entre la unidad y el host o debido a problemas internos de la unidad, la interfaz SATA puede cambiar a una velocidad de señalización más baja. Degradar el enlace por debajo de la velocidad de enlace nominal tiene un impacto obvio en el rendimiento observado de la unidad. Seleccionar una velocidad de señalización más baja no es raro, especialmente en unidades más antiguas. Por tanto, este indicador es más significativo cuando se correlaciona con la presencia de uno o varios de los anteriores.
Según el estudio, el 62% de los SSD fallidos mostraron al menos uno de los síntomas anteriores. Sin embargo, si invierte esa afirmación, eso también significa que el 38% de los SSD estudiados fallaron sin mostrar ninguno de los síntomas anteriores. Sin embargo, el estudio no mencionó si las unidades fallidas han mostrado alguna otra falla reportada por SMART o no. Por lo tanto, esto no se puede comparar directamente con el 36% de fallas sin previo aviso mencionado para los discos duros en el documento de Google.
El artículo de Microsoft/Pennsylvania State University no revela los modelos exactos de unidades estudiadas, pero según los autores, la mayoría de las unidades provienen del mismo proveedor y abarcan varias generaciones.
El estudio notó diferencias significativas en la confiabilidad entre los diferentes modelos. Por ejemplo, el “peor” modelo estudiado muestra una tasa de falla del 20 % nueve meses después del primer error de reubicación y hasta una tasa de falla del 36 % nueve meses después de la primera aparición de errores de datos. El “peor” modelo también es la generación de unidades más antigua estudiada en el artículo.
Por otro lado, para los mismos síntomas, las unidades pertenecientes a la generación más joven de dispositivos muestran solo un 3% y un 20% respectivamente de tasa de falla por los mismos errores. Es difícil decir si esas cifras pueden explicarse por mejoras en el diseño y proceso de fabricación de las unidades, o si esto es simplemente un efecto del envejecimiento de las unidades.
Lo más interesante, y ya mencioné algunas posibles razones anteriormente, es que el documento menciona que, más que el valor bruto, se trata de un aumento repentino en el número de errores reportados que debe considerarse como un indicador alarmante:
“”” Existe una mayor probabilidad de que los síntomas precedan a las fallas del SSD, con una manifestación intensa y una progresión rápida que impide su supervivencia más allá de unos pocos meses “””
En otras palabras, un error ocasional reportado por SMART probablemente no deba considerarse una señal de falla inminente. Sin embargo, cuando un SSD en buen estado comienza a informar más y más errores, se debe anticipar una falla a corto o mediano plazo.
Pero, ¿cómo saber si tu disco duro o SSD está en buen estado? Ya sea para satisfacer su curiosidad o porque desea comenzar a monitorear sus unidades de cerca, ha llegado el momento de presentarle elsmartctl
herramienta de seguimiento:
Usando smartctl para monitorear el estado de su SSD en Linux
Hay formas de enumerar discos en Linux, pero para monitorear el estado SMART de su disco, sugiero elsmartctl
herramienta, parte de lasmartmontool
paquete (al menos en Debian/Ubuntu).
sudo apt install smartmontools
smartctl
es una herramienta de línea de comandos, pero es perfecta, especialmente si desea automatizar la recopilación de datos, especialmente en sus servidores.
El primer paso al usarsmartctl
es verificar si su disco tiene SMART habilitado y es compatible con la herramienta:
sh$ sudo smartctl -i /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:54:43 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Como puede ver, el disco duro interno de mi computadora portátil tiene capacidades SMART y la compatibilidad con SMART está habilitada. Entonces, ¿qué pasa ahora con el estado S.MA.RT? ¿Se registran algunos errores?
Informar "toda la información SMART sobre el disco" es el trabajo del-a
opción:
sh$ sudo smartctl -i -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 7200.4
Device Model: ST9500420AS
Serial Number: 5VJAS7FL
LU WWN Device Id: 5 000c50 02fa0b800
Firmware Version: D005SDM1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Mar 12 15:56:58 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
See vendor-specific Attribute list for marginal Attributes.
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 110) minutes.
Conveyance self-test routine
recommended polling time: ( 3) minutes.
SCT capabilities: (0x103f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 111 099 006 Pre-fail Always - 29694249
3 Spin_Up_Time 0x0003 100 098 085 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 095 095 020 Old_age Always - 5413
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 096 037 020 Old_age Always - 4836
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 072 072 000 Old_age Always - 28
188 Command_Timeout 0x0032 100 096 000 Old_age Always - 4295033738
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 056 042 045 Old_age Always In_the_past 44 (Min/Max 21/44 #22)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 184
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 104
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 395415
194 Temperature_Celsius 0x0022 044 058 000 Old_age Always - 44 (0 13 0 0 0)
195 Hardware_ECC_Recovered 0x001a 050 045 000 Old_age Always - 29694249
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 1
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 25131 (246 202 0)
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 3028413736
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 1613088055
254 Free_Fall_Sensor 0x0032 100 100 000 Old_age Always - 0
SMART Error Log Version: 1
ATA Error Count: 3
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 3 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.580 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.579 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 00:45:12.571 READ FPDMA QUEUED
60 00 20 ff ff ff 4f 00 00:45:12.543 READ FPDMA QUEUED
Error 2 occurred at disk power-on lifetime: 21171 hours (882 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 00:45:09.456 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:09.451 READ FPDMA QUEUED
61 00 08 ff ff ff 4f 00 00:45:09.450 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.878 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 00:45:08.856 READ FPDMA QUEUED
Error 1 occurred at disk power-on lifetime: 21131 hours (880 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 ff ff ff 4f 00 05:52:18.809 READ FPDMA QUEUED
61 00 00 7e fb 31 45 00 05:52:18.806 WRITE FPDMA QUEUED
60 00 00 ff ff ff 4f 00 05:52:18.571 READ FPDMA QUEUED
ea 00 00 00 00 00 a0 00 05:52:18.529 FLUSH CACHE EXT
61 00 08 ff ff ff 4f 00 05:52:18.527 WRITE FPDMA QUEUED
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 10904 -
# 2 Short offline Completed without error 00% 12 -
# 3 Short offline Completed without error 00% 0 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Comprender el resultado del comando smartctl
Es mucha información y no siempre es fácil interpretar esos datos. La parte más interesante es probablemente la que está etiquetada como “Atributos SMART específicos del proveedor con umbrales”. Informa varias estadísticas recopiladas por el dispositivo SMART y le permite comparar esos valores (actuales o peores de todos los tiempos) con algún umbral definido por el proveedor.
Por ejemplo, así es como mi disco informa los sectores reubicados:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 3
Puede ver esto como un atributo "previo al fallo". Eso simplemente significa que ese atributo corresponde a anomalías. Entonces, si ese atributo excede el umbral, podría ser un indicador de falla inminente. La otra categoría es "Vejez" para los atributos correspondientes a los atributos de "uso normal".
El último campo (aquí “3”) corresponde al valor bruto de ese atributo según lo informado por la unidad. Normalmente, este número tiene un significado físico. En este caso, este es el número real de sectores reubicados. Sin embargo, para otros atributos, podría ser una temperatura en grados centígrados, un tiempo en horas o minutos, o la cantidad de veces que la unidad ha encontrado una condición específica.
Además del valor bruto, una unidad habilitada para SMART debe informar valores "normalizados" (valor de campo, peor y umbral). Estos valores están normalizados en el rango 1-254 (0-255 para el umbral). El firmware del disco realiza esa normalización utilizando algún algoritmo interno. Además, diferentes fabricantes pueden normalizar el mismo atributo de forma diferente. La mayoría de los valores se informan como porcentaje, siendo el mayor el mejor, pero esto no es obligatorio. Cuando un parámetro es inferior o igual al umbral proporcionado por el fabricante, se dice que el disco ha fallado en ese atributo. Con todas las reservas mencionadas en la primera parte de ese artículo, cuando falla un atributo "pre-fallo", presumiblemente una falla del disco es inminente.
Como segundo ejemplo, examinemos la "tasa de error de búsqueda":
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
7 Seek_Error_Rate 0x000f 071 060 030 Pre-fail Always - 51710773327
En realidad, y esto es un problema con los informes SMART, el significado exacto de cada valor es específico del proveedor. En mi caso, Seagate utiliza una escala logarítmica para normalizar el valor. Entonces, "71" significa aproximadamente un error por cada 10 millones de búsquedas (10 elevado a 7,1). Curiosamente, lo peor de todos los tiempos fue un error por cada millón de búsquedas (10 elevado a 6,0). Si lo interpreto correctamente, significa que los cabezales de mis discos están colocados con mayor precisión ahora que en el pasado. No seguí ese disco de cerca, por lo que este análisis está sujeto a precaución. ¿Quizás el convertidor sólo necesitó un tiempo de rodaje cuando se puso en marcha por primera vez? ¿A menos que esto sea consecuencia del desgaste de las piezas mecánicas y, por tanto, que hoy en día opongan menos fricción? En cualquier caso, y sea cual sea el motivo, este valor es más un indicador de rendimiento que una alerta temprana de fallo. Entonces eso no me molesta mucho.
Además de eso, y de tres errores sospechosos registrados hace unos seis meses, esa unidad parece estar en condiciones sorprendentemente buenas (según SMART) para una unidad de computadora portátil estándar que estuvo encendida durante más de 1100 días (26423 horas):
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
9 Power_On_Hours 0x0032 070 070 000 Old_age Always - 26423
Por curiosidad, realicé la misma prueba en una computadora portátil mucho más reciente equipada con un SSD:
sh$ sudo smartctl -i /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: TOSHIBA THNSNK256GVN8
Serial Number: 17FS131LTNLV
LU WWN Device Id: 5 00080d 9109b2ceb
Firmware Version: K8XA4103
User Capacity: 256 060 514 304 bytes [256 GB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: Solid State Device
Form Factor: M.2
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-3 (minor revision not indicated)
SATA Version is: SATA 3.2, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Tue Mar 13 01:03:23 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Lo primero que hay que notar, incluso si ese dispositivo es SMAR.T. habilitado, no está en elsmartctl
base de datos. Eso no impedirá que la herramienta recopile datos del SSD, pero no podrá informar el significado exacto de los diferentes atributos específicos del proveedor:
sh$ sudo smartctl -a /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 120) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 11) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000a 100 100 000 Old_age Always - 0
2 Throughput_Performance 0x0005 100 100 050 Pre-fail Offline - 0
3 Spin_Up_Time 0x0007 100 100 050 Pre-fail Always - 0
5 Reallocated_Sector_Ct 0x0013 100 100 050 Pre-fail Always - 0
7 Unknown_SSD_Attribute 0x000b 100 100 050 Pre-fail Always - 0
8 Unknown_SSD_Attribute 0x0005 100 100 050 Pre-fail Offline - 0
9 Power_On_Hours 0x0012 100 100 000 Old_age Always - 171
10 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
12 Power_Cycle_Count 0x0012 100 100 000 Old_age Always - 105
166 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
167 Unknown_Attribute 0x0022 100 100 000 Old_age Always - 0
168 Unknown_Attribute 0x0012 100 100 000 Old_age Always - 0
169 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 100
170 Unknown_Attribute 0x0013 100 100 010 Pre-fail Always - 0
173 Unknown_Attribute 0x0012 200 200 000 Old_age Always - 0
175 Program_Fail_Count_Chip 0x0013 100 100 010 Pre-fail Always - 0
192 Power-Off_Retract_Count 0x0012 100 100 000 Old_age Always - 18
194 Temperature_Celsius 0x0023 063 032 020 Pre-fail Always - 37 (Min/Max 11/68)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
240 Unknown_SSD_Attribute 0x0013 100 100 050 Pre-fail Always - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Este suele ser el resultado que puede esperar de un SSD nuevo. Incluso si, debido a la falta de normalización o metainformación para los datos específicos del proveedor, muchos atributos se informan como "Atributo_SSD_desconocido". Sólo espero que futuras versiones desmartctl
incorporará datos relativos a ese modelo de unidad en particular en la base de datos de la herramienta, para poder identificar posibles problemas con mayor precisión.
Pruebe su SSD en Linux con smartctl
Hasta ahora hemos examinado los datos recopilados por la unidad durante su funcionamiento normal. Sin embargo, el protocolo SMART también admite varios comandos de "autopruebas" para iniciar el diagnóstico a pedido.
A menos que se solicite explícitamente, las autopruebas se pueden ejecutar durante las operaciones normales del disco. Dado que tanto la prueba como las solicitudes de E/S del host competirán por la unidad, el rendimiento del disco se degradará durante la prueba. La especificación SMART especifica varios tipos de autoprueba. Los más importantes son:
Autoprueba breve (-t short
)
Esta prueba comprobará el rendimiento eléctrico y mecánico, así como el rendimiento de lectura del variador. La autoprueba breve normalmente solo requiere unos minutos para completarse (normalmente, de 2 a 10). Autoprueba extendida (-t long
)
Esta prueba tarda uno o dos órdenes de magnitud más en completarse. Por lo general, se trata de una versión más detallada de la autoprueba breve. Además, esa prueba escaneará toda la superficie del disco en busca de errores de datos sin límite de tiempo. La duración de la prueba será proporcional al tamaño del disco. Autoprueba de transporte (-t conveyance
)
Este conjunto de pruebas está diseñado como una forma relativamente rápida de comprobar posibles daños ocurridos durante el transporte del dispositivo.
A continuación se muestran ejemplos tomados de los mismos discos que el anterior. Te dejo adivinar cuál es cuál:
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 18:06:17 2018
Use smartctl -X to abort test.
La prueba ahora se ha declarado. Esperemos hasta que finalice para mostrar el resultado:
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.10.0-32-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 171 -
Hagamos ahora la misma prueba en mi otro disco:
sh$ sudo smartctl -t short /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Short self-test routine immediately in off-line mode".
Drive command "Execute SMART Short self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 2 minutes for test to complete.
Test will complete after Mon Mar 12 21:59:39 2018
Use smartctl -X to abort test.
Una vez más, duerma durante dos minutos y muestre el resultado de la prueba:
sh$ sudo sh -c 'sleep 120 && smartctl -l selftest /dev/sdb'
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 26429 -
# 2 Short offline Completed without error 00% 10904 -
# 3 Short offline Completed without error 00% 12 -
# 4 Short offline Completed without error 00% 0 -
Curiosamente, en ese caso, parece que tanto el fabricante de la unidad como el de la computadora parecen haber realizado algunas pruebas rápidas en el disco (con una vida útil de 0 h y 12 h). Definitivamente estaba mucho menos preocupado por monitorear el estado del disco. Entonces, dado que estoy realizando algunas autopruebas para ese artículo, comencemos una prueba extendida para ver cómo funciona:
sh$ sudo smartctl -t long /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Extended self-test routine immediately in off-line mode".
Drive command "Execute SMART Extended self-test routine immediately in off-line mode" successful.
Testing has begun.
Please wait 110 minutes for test to complete.
Test will complete after Tue Mar 13 00:09:08 2018
Use smartctl -X to abort test.
Al parecer, esta vez tendremos que esperar mucho más que para la prueba corta. Hagamoslo:
sh$ sudo bash -c 'sleep $((110*60)) && smartctl -l selftest /dev/sdb'
[sudo] password for sylvain:
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 20% 26430 810665229
# 2 Short offline Completed without error 00% 26429 -
# 3 Short offline Completed without error 00% 10904 -
# 4 Short offline Completed without error 00% 12 -
# 5 Short offline Completed without error 00% 0 -
En este último caso, preste especial atención a los diferentes resultados obtenidos con las pruebas cortas y extendidas, incluso si se realizaron una tras otra. Bueno, ¡tal vez ese disco no esté tan sano después de todo! Una cosa importante a tener en cuenta es que la prueba se detendrá después del primer error de lectura. Así que si quieres un diagnóstico exhaustivo de todos los errores de lectura, tendrás que continuar la prueba después de cada error. Le animo a que eche un vistazo a la muy bien escrita página del manual de smartctl(8) para obtener más información sobre las opciones.-t select,N-max
y-t select,cont
para eso:
sh$ sudo smartctl -t select,810665230-max /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===
Sending command: "Execute SMART Selective self-test routine immediately in off-line mode".
SPAN STARTING_LBA ENDING_LBA
0 810665230 976773167
Drive command "Execute SMART Selective self-test routine immediately in off-line mode" successful.
Testing has begun.
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.9.0-6-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Selective offline Completed without error 00% 26432 -
# 2 Extended offline Completed: read failure 20% 26430 810665229
# 3 Short offline Completed without error 00% 26429 -
# 4 Short offline Completed without error 00% 10904 -
# 5 Short offline Completed without error 00% 12 -
# 6 Short offline Completed without error 00% 0 -
Conclusión
Definitivamente, los informes SMART son una tecnología que puede agregar a su caja de herramientas para monitorear el estado del disco de sus servidores. En ese caso, también debería echar un vistazo al SMART Disk Monitoring Daemon smartd(8) que podría ayudarle a automatizar la supervisión a través de informes syslog.
Sin embargo, dada la naturaleza estadística de la predicción de fallas, estoy un poco menos convencido de que el monitoreo SMART agresivo sea de gran beneficio en una computadora personal. Por último, no olvides cuál es su tecnología, un impulsovoluntadfracasará, y hemos visto antes que en un tercio de los casos fracasará sin previo aviso. ¡Así que nada reemplazará RAID y copias de seguridad fuera de línea para garantizar la integridad de sus datos!