- Resumen
- ¿Porqué usar
RAID? - ¿Quién
debería usar los RAID? - RAID: Hardware vs.
Software - Arreglos paralelos vs.
independientes - Tipos de RAID
- ¿Que es
RAID? - Crear Particiones
RAID - Elección de discos para
un RAID - Configuración de
RAID - Como seleccionar un disco
RAID - Glosario
RAID (Redundant Array of Inexpensive Disks): Consiste en
una serie de sistemas para
organizar varios discos como si de uno solo se tratara pero
haciendo que trabajen en paralelo para aumentar la velocidad de
acceso o la seguridad frente
a fallos del hardware o ambas cosas.
Raid es una forma de obtener discos duros
más grandes, más rápidos, más
seguros y
más baratos aprovechando la potencia de la
CPU para
tareas que necesitarían circuitos
especializados y caros.
Las operaciones de
I/O a disco son relativamente lentas, primordialmente debido a su
carácter mecánico. Una lectura o una
escritura
involucra, normalmente, dos operaciones. La
primera es el posicionamiento
de la cabeza lecto/grabadora y la segunda es la transferencia
desde o hacia el propio disco.
El posicionamiento
de la cabeza está limitado por dos factores: el
tiempo de búsqueda (seek time) y el
retardo por el giro del disco hasta la
posición de inicio de los datos (latencia
rotacional). La transferencia de datos, por su
parte, ocurre de a un bit por vez y se ve limitada por la
velocidad de
rotación y por la densidad de
grabación del medio.
Una forma de mejorar el rendimiento de la transferencia es el
uso de varios discos en paralelo, esto se basa
en el hecho de que si un disco solitario es capaz de entregar una
tasa de transferencia dada, entonces dos discos serían
capaces, teóricamente, de ofrecer el
doble de la tasa anterior, lo mismo sucedería con
cualquier operación.
La adición de varios discos debería extender el
fenómeno hasta un punto a partir del cual algún
otro componente empezará a ser el factor limitante.
Muchos administradores o encargados de sistemas intentan
llevar a cabo esta solución en forma básicamente
manual,
distribuyendo la información entre varios discos de tal
forma de intentar asegurar una carga de trabajo similar para cada
uno de ellos. Este proceso de
"sintonía" podría dar buenos resultados de no ser
por dos factores principales:
1º No consigue mejorar las velocidades de transferencia de
archivos
individuales, sólo mejora la cantidad de archivos
accedidos en forma concurrente.
2º Es obvio que el balance no es posible de mantener en el
tiempo debido
a la naturaleza
dinámica de la información.
Una forma bastante más efectiva de conseguir el
objetivo es el
uso de un arreglo de discos, el cual según la
definición del RAID Consultory Board es "una
colección de discos que integran uno o más
subsistemas combinados con un software de control el cual
se encarga de controlar la operación del mismo y de
presentarlo al Sistema Operativo
como un sólo gran dispositivo de almacenamiento".
Dicha pieza de software puede ser integrada
directamente al Sistema Operativo
o estar en el propio arreglo; así como el arreglo puede
ser interno o externo.
Novell Netware incluye, desde hace algún tiempo, soporte
para arreglos de discos. El espejado y la
duplicación de discos son ejemplos de
arreglos basados en software.
Las soluciones de
arreglos basadas en hardware son principalmente
implementadas mediante el uso de controladoras
SCSI (Small Computer System Interface)
especializadas, las cuales a menudo están dotadas de
procesadores
propios para liberar a la CPU del
sistema de la
tarea de control y de
cachés para mejorar aún más el desempeño.
Para Netware cualquiera de las dos soluciones,
software o hardware, será visualizada como un único
y gran disco virtual.
Así pues un arreglo de discos ofrecerá un
mejor desempeño debido a que
dividirá en forma automática los
requerimientos de lectura/escritura entre los discos que lo
conforman. Por ejemplo, si una operación de
lectura/escritura
involucra a cuatro bloques de 4 Kb cada uno, entonces un arreglo
de 4 discos podría, teóricamente, entregar cuatro
veces la tasa de operación de un disco único, esto
debido a que el disco único sólo podría
atender a un bloque en forma simultánea, mientras que en
el arreglo cada disco podría manejar un sólo bloque
operando ellos al mismo tiempo
En la práctica, sin embargo, dichos niveles
no se obtienen debido, principalmente, a la
carga de trabajo inherente al control del propio
arreglo. Además el uso de varios discos se emplea
para construir cierto nivel de redundancia de los datos y es este
nivel de redundancia y la forma de implementarlo lo que crea los
niveles de RAID.
2-¿Quién
debería usar los RAID?
Aquellos de ustedes que necesiten controlar grandes
cantidades de datos (como los administradores de sistemas), se
beneficiarían del uso de la tecnología RAID. La
primera razón para usar RAID es:
- aumento de la velocidad
- aumento de la capacidad de archivo
- gran eficacia en
recuperarse de un fallo del sistema
3- RAID: Hardware vs.
Software
Existen dos posibilidades de realizar un sistema basado
en la tecnología RAID: RAID Hardware o RAID
Software.
RAID Hardware
Las soluciones hardware gestionan el subsistema RAID
independientemente del host, presentándole a este un solo
disco.
Un ejemplo de RAID hardware podría ser el
conectado al controlador SCSI que presenta al sistema un
único disco SCSI. Un sistema RAID externo se encarga de la
gestión
del RAID con el controlador localizado en el subsistema externo
de los discos. Todo el subsistema está conectado a un host
a través de un controlador SCSI normal y se le presenta al
host como un solo disco.
Existen también controladores RAID en forma de
tarjetas que
se comportan como un controlador SCSI con el sistema
operativo, pero gestionan todas las comunicaciones
reales entre los discos de manera autónoma. En estos
casos, basta con conectar los discos a un controlador RAID como
lo haría con un controlador SCSI, pero después
podrá configurarlo como un controlador RAID sin que el
sistema operativo note la diferencia.
RAID Software
El RAID Software implementa los diferentes niveles de
RAID en el código
del kernel que tienen que ver con la gestión
del disco (block device). Ofrece además la solución
menos costosa, el RAID software funciona con discos IDE menos
costosos así como con discos SCSI. Con las rápidas
CPU de hoy en día, las prestaciones
de un RAID software pueden competir con las de un RAID
hardware.
El driver MD del kernel de Linux es un
ejemplo de que la solución RAID es completamente
independiente del hardware. Las prestaciones
de un RAID basado en el software depende de las prestaciones y de
la carga del CPU.
4- Arreglos
paralelos vs. independientes
Arreglos paralelos: éstos son aquellos en que
cada disco participa en todas las operaciones de entrada/salida.
Este tipo de arreglo ofrece tasas altísimas de
transferencia debido a que las operaciones son
distribuidas a través de todos los discos
del arreglo y ocurren en forma prácticamente
simultánea. La tasa de transferencia será muy
cercana, 95%, a la suma de las tasas de los discos
miembros, mientras que los índices de operaciones
de entrada/salida serán similares a las alcanzadas por un
disco individual. En síntesis,
un arreglo paralelo accesará sólo un
archivo a la
vez pero lo hará a muy alta velocidad. Algunas
implementaciones requieren de actividades adicionales como la
sincronización de discos.
Los RAID de niveles 2 y 3 se implementan con arreglos
paralelos.
Arreglos independientes: son denominados así
aquellos arreglos en los cuales cada disco integrante opera en
forma independiente, aún en el caso de que le sea
solicitado atender varios requerimientos en forma concurrente.
Este modelo ofrece
operaciones de entrada/salida sumamente
rápidas debido a que cada disco está en
posición de atender un requerimiento por separado. De esta
forma las operaciones de entrada/salida serán atendidas a
una velocidad cercana, 95%, a la suma de las capacidades
de los discos presentes, mientras que la tasa de
transferencia será similar a la de un disco individual
debido a que cada archivo está almacenado en sólo
un disco.
Los niveles 4 y 5 de RAID se implementan con arreglos
independientes, mientras que los niveles 0 y 1 pueden ser
implementados tanto en forma de arreglos independientes como en
arreglos paralelos. Netware lo implementa como arreglos
independientes a nivel del propio Sistema Operativo y, por lo
tanto, no precisa de hardware o software adicional.
Lineal
Diferentes discos se enlazan uno detrás de otro
para que el sistema vea un solo disco más grande. Si falla
uno perdemos todo el sistema de ficheros.
RAID 0
La información se graba y se lee en paralelo
entre varios discos. Como no hay redundancia el riesgo de fallos
aumenta, pero el rendimiento es muy bueno.
RAID 1 : Mirrored Disk Array
(MDA)
Conjunto de discos en espejo:
La configuración de nivel 1 de Raid o disco en
espejo incluye dos unidades de disco:
1° unidad de datos y una unidad de replica. Cuando
se describen datos en una unidad, también se escriben en
la otra. El disco redundante es una replica exacta del disco de
datos, por lo que se conoce también como disco espejo. Los
datos pueden leerse de cualquiera de las 2 unidades de forma que
si se avería la unidad de datos es posible acceder a la
unidad de replica, con lo que el sistema puede seguir
funcionando. Con el nivel de Raid se obtiene la misma velocidad
de lectura/ escritura que una configuración normalizada de
disco, por lo que constituye la mejor opción para
aplicaciones que contienen un gran número de operaciones
de escritura.
Ventajas
- Mayor rendimiento en las lecturas de datos de las
lecturas convencionales. - Podemos recuperar todos los datos en caso de error en
unos de los discos ya que si un disco suspende la
operación el otro continua disponible.
Inconvenientes
- Bastante caro ya que necesitamos el doble de espacio
que el necesario. - Moderada lentitud en la escritura de datos ya que la
hemos de escribir en dos localizaciones.
Ambientes en donde implementarlos
Raid1 esta diseñado para sistemas en donde la
disponibilidad de información es esencial y su reemplazo
resultaría difícil y costoso (mas costoso que
reponer el disco en si).
Típico en escrituras aleatorias pequeñas
con tolerancia a
fallas. El problema de este tipo de arreglos es el costo que implica
duplicar el disco.
Raid 2 : Hamming code for Error
Correction
Es el primer nivel de Raid que usa código
de correcciones de error utilizando la " generación
Hamming" de código de error.
Con único de paridad solo se puede detectar un
único error, pero si esta interesado en la
recuperación de más errores son necesarios
más discos adicionales. Sistemas de nueve
discos.
Este nivel cuenta con varios discos para bloques de
redundancia y corrección de errores. La división es
a nivel de bits, cada byte se graba con un bit de paridad en cada
uno de los discos y un bit de paridad en el noveno. El acceso es
simultaneo a todas las unidades tanto en operaciones de escritura
como lectura. Algunos de estos discos son empleados para
códigos de error, los cuales se emplean para referencias
de los datos en caso de que falle uno de los discos. Este nivel
tiene un costo bastante
elevado ya que necesitamos muchos discos para mantener los
códigos de error. Gracias a como están distribuidos
los datos en los discos se consigue mejorar la velocidad de
transferencia principalmente en la lectura ya
que podemos emplear todos los discos en paralelo. Estos discos
aunque proporcionen un buen rendimiento no son muy empleados ya
que los niveles 1 –3 – 5 proporcionan una mayor
relación costo/ rendimiento
Ventajas
• Se emplea para mejorar la demanda y
también la velocidad de transferencia.
• Podemos recuperar los datos gracias a los discos
de código de error.
Inconvenientes
• Solución cara ya que requeriremos muchos
discos para guardar los códigos de error.
• Tiempo de escritura de datos bastante lentos,
incluso aunque los datos se separen el los diferentes
discos
Raid 3
Sistemas de disco en paralelo con disco de paridad para
corrección de errores.
Conocido también como Striping con paridad delicada.
Utiliza también un disco de protección de
información separado para almacenar información de
control codificada con lo que se logra una forma mas eficaz de
proporcionar redundancia de datos. Este control de
información codificada o paridad proviene de los datos
almacenados en los discos y permite la reconstrucción de
información en caso de fallas. Se requieren como
mínimo 3 discos y se utiliza la capacidad de un disco para
la información de control.
Los datos se dividen fragmentos que se transfieren a los discos
que funcionan en paralelo, lo que permiten enviar mas datos de
una sola vez, y aumentar en forma sustancial la velocidad general
de transferencia de datos. Esta ultima característica convierte a este nivel en
idóneo para que estas aplicaciones que requieran la
transferencia de grandes ficheros contiguos hacia y desde el
ordenador central.
Resultan mas adecuados para sistemas en los que
transfieren grandes cantidades de datos secuencialmente , ejemplo
audio, video. Para estos
es el nivel Raid mas eficiente ya que nunca es necesario leer
modificar, escribir el bloque de paridad. Es menos apropiado para
el tipo de acceso de base de datos en
los cuales se necesitan transferir pequeñas unidades de
datos de manera aleatoria.
No obstante en aquellos entornos en los que muchos
usuarios desean leer y escribir múltiple registros
aleatorios, las peticiones de operaciones de entrada /salida
simultaneas pueden sobrecargar y ralentizar el sistema. En el
nivel 3 de Raid los discos participan en cada transacción,
atendiendo cada petición de Entrada /Salida de una en una.
Por consiguiente el nivel 3 de Raid no es una opción
adecuada para operaciones transaccionales, en la que la mayor
parte del tiempo se emplea en buscar pequeños registros
esparcidos aleatoriamente en los discos.
Ventajas
•Alto rendimiento para aplicaciones de velocidad de
transferencia alta.
• Gracias al disco de paridad podemos recuperar
datos.
Inconvenientes
•Si perdemos el disco de paridad perdemos toda la
información redundante que teníamos
• Tipo de escritura de datos bastante lento.
RAID 4 Independient Disk Array
(IDA)
Sistemas de discos independientes con disco de control
de errores .
En el nivel 4 de raid los bloques de datos pueden ser
distribuidos a través de un grupo de
discos para reducir el tiempo de transferencia y explotar toda la
capacidad de transferencia de datos de la matriz de
disco .El nivel 4 de Raid es preferible al nivel 2 de Raid para
pequeños bloques de datos , por que en este nivel , los
datos son distribuidos por sectores y no por bits .Otra ventaja
del nivel 4 de RAID frente a los niveles 2 y 3 es que al mismo
tiempo puede estar activa mas de una operación de lectura
escritura sobre el conjunto de discos .
Cada disco graba un bloque de datos distinto, y un disco
adicional graba un código de corrección de errores.
Si falla un disco, su información se puede recomponer;
solo perdemos la capacidad de un disco, pero éste
está muy saturado.
El nivel 4 de RAID tiene división a nivel de
bloques y el acceso al arreglo de discos es paralelo , pero no
simultaneo . Posee un delicado aparidad y correccion de errores .
La operación de escritura se realiza en forma secuencial y
la lectura en
paralelo ,
Ventajas :
• Buen rendimiento en las escrituras de datos
• Tiene integridad de datos
Inconvenientes
• Si perdemos el disco de parida , perdemos toda la
información redundante que Teniamos .
• Meno rendiemiento en las lecturas de datos
RAID 5
igual que el anterior, pero el disco que graba el
código de corrección se va alternando.
Rápido, seguro, y
sólo pierde la capacidad de un disco…pero necesita al
menos 3 discos.
RAID-6. Este tipo es similar al RAID-5, pero
incluye un segundo esquema de paridad distribuido por los
distintos discos y por tanto ofrece tolerancia
extremadamente alta a los fallos y las caídas de disco.
Hay pocos ejemplos comerciales en la actualidad.
RAID-7. Este tipo incluye un sistema operativo incrustado
de tiempo real como controlador, haciendo las operaciones de
caché a través de un bus de alta velocidad y
otras características de un ordenador sencillo.
Un vendedor ofrece este sistema.
Raid 10
La información se distribuyen en bloques como el
Raid 0 y adicionalmente , cada disco se duplica como raid 1 ,
creando un segundo nivel de arreglo se conoce como "Striping de
arreglos duplicados " . Se requieren , dos canales , dos discos
para cada canal y se utilizan el 50 % de la capacidad para
información de control
Ventajas
• Este nivel ofrece un 100 % de redundancia de la
información y un soporte para grandes volúmenes de
datos , donde el precio no es
un factor importante .
Ambientes donde implementarlo
Ideal para sistemas de emisión critica , donde se
requiera mayor confiabilidad de la información , ya que
pueden fallar dos discos inclusive (uno por cada canal) y los
datos todavía se mantienen en linea .Es apropiado tambien
en escritura aleatorias pequenas .
Raid 30
Es ideal para aplicaciones no interactiva , tal como
señales de grafico e imágenes
.Se conoce tambien como Striping de arreglos de paridad dedicada
.La información es distribuidad atravez de los discos ,
como en Raid 0 y utiliza paridad dedicada , como Raid 3 , en un
segundo canal , requiere minimo 6 discos.
Ventajas
• Proporciona una alta confiabilidad igual que el
Raid 10 ya que tambien es capaz de tolerar dos fallas
físicas en canales diferentes , manteniendo la
información disponible
Ambientes donde implementarlo :
Raid 30 es mejor para aplicaciones no interactivas , tal
como señales de video , graficos
, que procesan secuencialmete grandes archivos y requieren alta
velocidad y disponibilidad
4.10. Raid 50
Esta diseñado apar aplicaciones que requieren un
almecenamiento altamente confiable una elevada tasa de lectura y
un buen rendimiento en la transferencia de datos con un nivel de
Raid 50 , la información se freparte en lso discos y se
usa parida distribuidad , po eso se conoce como Striping de
arreglo de paridad distribuidas .Se requiere minimo 6
discos
Ventajas
• Se logra confiabilidad de la información ,
un buen rendimiento en gral , y ademas soporta grandes
volúmenes de datos. Igualmente si dos discos sufren fallas
físicas en difirentes canales , la información no
se pierde .
Ambientes donde implementarlo
Raid 50 es ideal para aplicaiones que requieran un
almacenamiento
altamente confiable , una elevada tasa de lectura , y un buen
rendimiento en la transferencia de datos .A este nivel se
encuentran aplicaciones de oficina con
muchos usuarios accediendo apequeños archivos , al igual
que procesamiento de transacciones .
RAID-53. Este tipo ofrece un conjunto de bandas
en el cual cada banda es un conjunto de discos RAID-3. Esto
proporciona mejor rendimiento que el RAID-3, pero a un costo
mucho mayor.
Pero de todos estos los que más destacan son los
niveles 0,1,3,5, y 10 o RAID 0&1. Todos los demás
vienen siendo variaciones de estos últimos.
RAID es una forma de almacenar los mismos datos en
distintos lugares (por tanto de modo redundante) en
múltiples discos duros.
Al colocar los datos en discos múltiples, las operaciones
I/O (input/output, de entrada y salida) pueden superponerse de un
modo equilibrado, mejorando el rendimiento del sistema. Dado que
los discos múltiples incrementan el tiempo medio entre
errores (mean time between failure, MTBF), el almacenamiento
redundante de datos incrementa la tolerancia a fallos.
Un RAID, para el sistema operativo, aparenta ser un
sólo disco duro
lógico. El RAID emplea la técnica conocida como
"striping" (bandeado o creación de bandas), que incluye la
partición del espacio de almacenamiento de cada disco en
unidades que van de un sector (512 bytes) hasta varios megabytes.
Las bandas de todos los discos están interpaginadas
(interleaved) y se accede a ellas en orden.
En un sistema de un solo usuario donde se almacenan
grandes registros (como imágenes
médicas o de otro tipo), las bandas generalmente se
establecen para ser muy pequeñas (quizá de 512
bytes) de modo que un solo registro
esté ubicado en todos los discos y se pueda acceder a
él rápidamente leyendo todos los discos a la
vez.
En un sistema multiusuario, un mejor rendimiento
demanda que se
establezca una banda lo suficientemente ancha para contener el
registro de
tamaño típico o el de mayor tamaño. Esto
permite acciones I/O
superpuestas en los distintos discos.
El RAID está disponible en las dos modalidades en
las que se puede instalar: GUI y kickstart. Podrá utilizar
fdisk o el Disk Druid para crear su configuración RAID,
pero estas instrucciones se enfocarán principalmente
usando Disk Druid para completar esta
operación.
Antes de crear un dispositivo RAID, primero
deberá crear particiones RAID utilizando las siguientes
instrucciones.
Sugerencia: Si utiliza fdisk
Si está utilizando fdisk para crear una
partición RAID, debe tener en cuenta que en vez de crear
una partición del tipo 83, que es Linux native,
debe crear una partición del tipo fd (Linux
RAID).
Crear una partición. En Disk Druid, elija
Add para crear una partición nueva
Figura E-1. title>Crear una Nueva Partición
RAID
No podrá introducir un "punto de montaje"
(podrá hacerlo una vez que cree el dispositivo
RAID).
Introducir el tamaño de la
partición.
Seleccione Grow to fill disk si desea que la
partición ocupe todo el espacio libre disponible en el
disco. En este caso, el tamaño se aumentará y
disminuirá dependiendo de las modificaciones hechas en las
otras particiones. Si selecciona más de una
partición "growable", las particiones competirán
por el espacio disponible en el disco.
Introducir el tipo de partición RAID.
Finalmente, para Allowable Drives, seleccione el
disco donde será creado el RAID. Si tiene discos
múltiples, todos los discos serán seleccionados y
deberá anular la selección
de aquellos discos que no desea tener en el array
RAID.
Continue con estos pasos para crear tantas particiones
como necesite para la configuración RAID.
Figura E-2. Particiones RAID
Una vez que todas las particiones han sido creadas como
RAID, seleccione el botón Make RAID Device en la
pantalla principal de Disk Druid.
Figura E-3. Crear un Dispositivo RAID
Antes de nada, introduzca un "punto de
montaje".
Seguidamente, asegurese que el tipo de partición
sea seleccionada como Linux Native (que es la
predefinida).
Elija su dispositivo RAID. Debería elegir
md0 como primer dispositivo, md1 como segundo, y
así sucesivamente a menos que tenga una razón
determinada para crear los dispositivos de manera diferente. Los
dispositivos RAID van del md0 al md7, y cada uno de ellos puede
ser elegido una sola vez.
Elija el tipo de RAID. Puede elegir entre RAID 0,
RAID 1, y RAID 5.
Nota
Si está creando una partición RAID de
/boot, deberá elegir RAID nivel 1 y debe usar uno de los
dos discos primeros(IDE primero, SCSI segundo). Si no está
creando una partición RAID de /boot, y está creando
una partición de /, debe estar en RAID nivel 1 y debe usar
uno de los dos discos primeros(IDE primero, SCSI
segundo)..
3. Funcionamiento del RAID
Básicamente el RAID es un sistema el cual permite
almacenar información en una cantidad de discos (n), de
tal forma que agilice el proceso
maquina-disco.
El sistema RAID evitará en lo más posible
la pérdida de data de la siguiente manera:
Los discos optimizados para RAID poseen circuitos
integrados que detecta si el disco está fallando, de
ser así este circuito se encargará por encima del
tiempo real de sacar la información y almacenarla en los
otros discos, o si es el caso en el "hot spare".
Un hot spare es un disco que permanece siempre en el
sistema esperando a que otro se estropee y él entre
directamente en funcionamiento.
Una de las ventajas del sistema RAID es la posibilidad,
con los discos hot swap, de conectarlos y desconectarlos en
"caliente", es decir, que si un disco falla no hará falta
el apagar el sistema para remplazarlo.
Otras de las ventajas de RAID:
Reconstrucción y Regeneración
Cuando un disco falla la información redundante en los
discos y los datos en los discos buenos son usados para regenerar
la información de disco averiado.
Striping Es el acto de unir dos o más
discos físicos en un solo disco lógico con el fin
de dividir los datos entre los diferente discos para ofrecer una
significativa mejora en el rendimiento del conjunto de los
discos.
Instalación de raid
Lo que vamos a hacer es colocar nuestra partición /home en
dos discos duros, es decir RAID 1 o mirroring. No necesitaremos
espacio adicional donde colocar temporalmente nuestros
ficheros.
Instala un kernel que permita usar las nuevas herramientas
RAID. Cualquier kernel 2.4.x es válido, mira la
sección . Si quieres mantenerte en la distribución estable de Debian
necesitarás el paquete
kernel-patch-2.2.10-raid.
Es muy recomendable, aunque no necesario, hacer una
copia de seguridad del
directorio /home/ en un lugar seguro. Si tienes
suficiente espacio en otra partición:
cp -a /home/ /mnt/lugarseguro/copia-home
Si desconfías de todo:
cd /home/
find . -type f -exec md5sum {} ; >
/tmp/md5sum_home.txt
cd /mnt/lugarseguro/copia-home/
md5sum -c /tmp/md5sum_home.txt
En la sección
3.8.1 tienes una forma fácil y
fiable de hacer copias de seguridad.
Apagamos y desenchufamos el ordenador. Colocamos el
segundo disco duro en
diferente controladora, para evitar cuellos de botella. Digamos
que tenemos los dos discos como maestro en los canales IDE
primario y secundario, y que /home se montará en la
partición 5: /dev/hda5 y /dev/hdc5.
Es muy importante que el tamaño de hdc5 sea
ligeramente menor que el de hda5. Esta limitación se debe
a que en hda5 tenemos los ficheros que queremos duplicar; si
utilizásemos dos particiones vacías no sería
necesario.
Entraremos en modo monousuario, sobre todo para
asegurarnos que nadie está escribiendo en la
partición de /home/. En el arranque:
LILO boot: linux single
o bien teclea en cualquier momento:
init 1
Instalamos cpio raidtools2. Deberá detectar que
nuestro kernel admite esta versión de RAID.
Modificamos la tabla de particiones del nuevo
disco:
cfdisk /dev/hdc
Cambiamos el tipo de la partición que
contendrá /home a "FD Linux raid autodetect". Por el
momento no tocamos el disco original.
Creo /etc/raidtab con
raiddev /dev/md0
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/hdc5
raid-disk 0
device /dev/hda5
failed-disk 1
Recordar que hda5 contiene el sistema de ficheros que
queremos conservar, y que queremos montar el RAID sin perder ni
mover sus ficheros.
Construimos el RAID:
mkraid /dev/md0
La cadena está formada ahora sólo por
hdc5: hda5 ha sido marcada como defectuosa en /etc/raidtab y
además en la tabla de particiones no figura como de tipo
RAID.
Formateamos el nuevo dispositivo:
nice -19 mke2fs -cv -b 4096 -R stride=1
/dev/md0
Lo montamos y copiamos nuestros ficheros:
mkdir /mnt/futuroHome
mount /dev/md0 /mnt/futuroHome/
cd /home/
find . -xdev | cpio -pm /mnt/futuroHome/
El programa cpio es
mejor que un simple cp -a cuando queremos hacer copias
completamente idénticas, incluyendo ficheros especiales
como los que encontramos en /dev/
Editamos /etc/fstab para variar el punto de montaje de
/home
/dev/md0 /home ext2 rw 0 0
Reiniciamos. Nos aseguramos que el directorio /home
está intacto y que se trata del dispositivo
/dev/md0.
mount
Podemos consultar /proc/mdstat para ver que el
dispositivo md0 está formado por un único disco
duro:
cat /proc/mdstat
Añadimos a la cadena RAID el disco original.
Editamos en /etc/raidtab la línea:
device /dev/hda5
raid-disk 1
y ejecutamos:
raidhotadd /dev/md0 /dev/hda5
Modificamos la tabla de particiones del disco
original:
cfdisk /dev/hda
Cambiamos el tipo de hda5 a "FD Linux raid
autodetect".
Reiniciamos. Verificamos de nuevo que /dev/md0
está montado en /home.
El disco que acabamos de añadir se está
reconstruyendo con la información del primero. Es un
proceso transparente que utiliza el ancho de banda libre del
disco duro; puedes usar el ordenador con normalidad. El estado del
proceso:
cat /proc/mdstat
Si tienes interés en
probarlo, le haremos creer que hdc se ha roto. La interfaz IDE no
permite desconexiones "en caliente", así que apagaremos el
equipo y desconectaremos la alimentación del
segundo disco. Al reiniciar nuestros ficheros siguen intactos; si
quieres modifica alguno. Volvemos a apagar y a conectar el disco.
En el siguiente arranque todo sigue funcionando, y hdc se va
reconstruyendo en segundo plano.
Advertencias y aclaraciones:
Sólo hemos protegido el directorio /home; el
resto del sistema está en un solo disco. Repitiendo el
proceso podríamos tener todo en RAID, aunque con la
partición raíz es delicado.
RAID no comprueba los errores de escritura de los
discos, es decir, no sabe si por algún motivo los dos
discos contienen información distinta. No nos preocupa
porque los discos duros modernos internamente comprueban que
escriben lo que realmente les has mandado.
RAID te protege si todo un disco duro se avería,
pero no es una forma de hacer copias de seguridad.
Puedes tener discos de reserva que entran cuando se
detecta uno averiado.
Jamás cambies la geometría
de una partición que forma parte de una cadena RAID. Puede
interpretarlo como una desincronización, e intentar
arreglarlo…Si es necesario
raidstop /dev/md0
Si la partición no es del tipo "FD Linux raid
autodetect", RAID no la tiene en cuenta (por
seguridad).
Puedes usar los paquetes bonnie bonnie++ para medir el
rendimiento del RAID y compararlo con el de un solo disco
duro.
bonnie++ -s 500 -d /usr/local/
bonnie++ -s 500 -d /home/
8-Elección de discos para un
RAID
Utilizar discos rápidos para montar un RAID no
suele estar justificado. Son mucho más caros. Los discos
rápidos suelen serlo debido a una mayor agilidad de las
cabezas para posicionarse en la pista necesaria. Los cambios de
pista es la operación que más tiempo consume en un
disco duro, pero a diferencia por ejemplo de MSDOS en Linux
están optimizadas de manera que la información no
se accede en el mismo orden que es solicitada sino que se
comporta de manera similar a un ascensor inteligente que va
memorizando las peticiones y las va atendiendo por el orden
más conveniente. También se usan otras estrategias que
aumentan el rendimiento minimizando el numero de accesos a disco,
como memorias
cache. La velocidad de giro de los discos suele ser muy parecida
pero puede haber diferencias en cuanto a densidad y
número de cabezas que afectarían significativamente
a la velocidad de transferencia. Este parámetro si que
interesa tenerlo en cuenta. Por todo esto la recomendación
sería usar preferiblemente discos SCSI iguales o similares
y baratos. La velocidad vendrá por el acceso concurrente a
los mismos.
Hay que tener en cuenta que para el arranque del sistema
es necesario un disco no RAID y de pequeño tamaño
tamaño porque la partición que contenga el sistema
de ficheros raíz conviene que tenga pocas
cosas.
Características de los sistemas SCSI
A la hora de decidir qué discos comprar surgen un
montón de dudas por ello hablaremos un poco de las
características.
Nombre | NumBits | NumDisp | MB/s | Conector | Max Longitud Cable |
SCSI-1 | 8 | 7 | 5 | 50 pines BajaDens | 6 mts |
SCSI-2 | 8 | 7 | 10 | 50 pines AltaDens | 3 mts |
SCSI-3 | 8 | 7 | 20 | 50 pines AltaDens | 3 mts |
Ultra Wide | 16 | 15 | 40 | 68 pines AltaDens | 1,5 mts |
Ultra2 | 16 | 15 | 80 | 68 pines AltaDens | 12 mts |
Un RAID se puede por tanto construir con
varias particiones pero el resultado no es una partición
lógica
sino un disco lógico en el que sin embargo no podemos
hacer particiones. El nombre de estos dispositivos es el de
metadisco.
Al igual que en los discos IDE tenemos /dev/hd… para
discos SCSI tenemos /dev/sd…, para los metadiscos una vez
compilado el kernel con las opciones necesarias que más
tarde comentaremos aparecerán cuatro dispositivos $ ls -l
/dev/md*
brw-rw—- 1 root disk 9, 0 may 28 1997 md0
brw-rw—- 1 root disk 9, 1 may 28 1997 md1
brw-rw—- 1 root disk 9, 2 may 28 1997 md2
brw-rw—- 1 root disk 9, 3 may 28 1997 md3
Lo primero que hay que intentar beneficiar es la
velocidad del swap y para ello hay que utilizar un metadisco
pequeño en el RAID, o repartir el swap de la manera
tradicional entre todos los discos físicos. Si se ponen
varias particiones de swap, cada una sobre un disco distinto,
entonces el propio sistema de swap de Linux hace el reparto de la
carga entre todas, por lo que es innecesario el RAID en este
caso.
9.1 Configuración general
Esto es lo que necesita para cualquiera de los niveles
RAID:
Un núcleo. Obtenga la versión 2.0.36 o un
núcleo 2.2.x reciente.
Los parches RAID. Normalmente existe un parche
disponible para los núcleos recientes.
El paquete de herramientas
RAID (raidtools).
Paciencia, una pizza y su bebida con cafeína
favorita.
Todo este software se puede encontrar en ftp://ftp.fi.kernel.org/pub/linux. Las herramientas RAID
y los parches están en el subdirectorio
daemons/raid/alpha. Los núcleos se encuentran en el
subdirectorio kernel.
Parchee el núcleo, configúrelo para
incluir el soporte del nivel RAID que quiera usar.
Compílelo e instálelo.
A continuación desempaquete, configure, compile e
instale las herramientas RAID.
Vale, hasta ahora todo va bien. Si rearranca ahora,
debería tener un fichero llamado /proc/mdstat.
Recuérdelo, ese fichero es su amigo. Vea lo que contiene
haciendo un cat /proc/mdstat. Le debe decir que tiene registrada
la
personalidad RAID (es decir, el modo RAID) correcta y que
actualmente no hay dispositivos RAID activos.
Cree las particiones que quiere incluir en su grupo
RAID.
Ahora, vayamos a un modo específico.
9.2 Modo lineal
De acuerdo, así que tiene dos o más
particiones que no son necesariamente del mismo tamaño
(pero que, naturalmente, pueden serlo) que quiere adjuntar unas
con otras.
Prepare el fichero /etc/raidtab para describir su
configuración. He preparado un raditab para dos discos en
modo lineal y el fichero se parece a esto:
raiddev /dev/md0
raid-level linear
nr-raid-disks 2
persistent-superblock 1
device /dev/sdb6
raid-disk 0
device /dev/sdc5
raid-disk 1
Aquí no se soportan discos de reserva. Si un
disco muere, el array muere con él. No hay
información que poner en un disco de reserva.
Vale, creemos el array. Ejecute la orden
mkraid /dev/md0
Esto inicializará su array, escribirá los
superbloques persistentes y arrancará el array.
Échele un vistazo a /proc/mdstat. Debe ver que el
array está funcionando.
Ahora, puede crear un sistema de ficheros, justo como
haría con cualquier otro dispositivo, montarlo, incluirlo
en su fstab, etc.
9.3 RAID-0
Tiene dos o más dispositivos, de aproximadamente
el mismo tamaño, y quiere combinar sus capacidades de
almacenamiento y también combinar sus rendimientos
accediéndolos en paralelo.
Prepare el fichero /etc/raidtab para describir su
configuración. Un raidtab de ejemplo se parece a
esto:
raiddev /dev/md0
raid-level 0
nr-raid-disks 2
persistent-superblock 1
chunk-size 4
device /dev/sdb6
raid-disk 0
device /dev/sdc5
raid-disk 1
Como en el modo lineal, los discos de reserva tampoco se
soportan aquí. Un RAID-0 no tiene redundancia, por lo que
cuando un disco muere, el array le acompaña.
Una vez más, ejecute simplemente
mkraid /dev/md0
para inicializar el array. Esto debe inicializar los
superbloques y poner en funcionamiento el dispositivo RAID.
Éche un vistazo a /proc/mdstat para ver qué sucede.
Debería ver que su dispositivo ahora está en
funcionamiento.
Ahora, /dev/md0 está listo para ser formateado,
montado, usado y maltratado.
9.4 RAID-1
Tiene dos dispositivos de aproximadamente el mismo
tamaño y quiere que cada uno de los dos sea un duplicado
del otro. Finalmente, tiene más dispositivos que quiere
guardar como discos de reserva preparados, que
automáticamente formarán parte del duplicado si uno
de los dispositivos activos se
rompe.
Configure el fichero /etc/raidtab así:
raiddev /dev/md0
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sdb6
raid-disk 0
device /dev/sdc5
raid-disk 1
Si tiene discos de reserva, puede añadirlos al
final de la especificación de dispositivos como
device /dev/sdd5
spare-disk 0
Recuerde configurar la entrada nr-spare-disks
adecuadamente.
De acuerdo, ahora estamos listos para comenzar la
inicialización del RAID. Se debe construir el duplicado,
es decir, los contenidos (de todos modos, sin importancia ahora,
ya que el dispositivo todavía está sin formatear)
de los dos dispositivos se deben sincronizar.
Dé la orden
mkraid /dev/md0
para comenzar la inicialización del
duplicado.
Compruebe el fichero /proc/mdstat. Debe decirle que se
ha puesto en funcionamiento el dispositivo /dev/md0, que
está siendo reconstruido el duplicado y una cuenta del
tiempo estimado para la terminación de la
reconstrucción.
La reconstrucción se realiza usando el ancho de
banda ocioso de E/S. De esta manera, su sistema todavía
debería ser capaz de responder en gran medida, aunque los
LEDs de sus discos deben estar bonitamente
resplandecientes.
El proceso de reconstrucción es transparente, por
lo que realmente puede usar el dispositivo aunque la
duplicación esté actualmente en
reconstrucción.
Intente formatear el dispositivo mientras la
reconstrucción se esté realizando.
Funcionará. También puede montarlo y usarlo
mientras la reconstrucción se esté realizando.
Naturalmente, si el disco equivocado se rompe mientras se
está realizando la reconstrucción, no hay
solución.
9.5 RAID-4
– ¡Nota! No he comprobado esta
configuración por mí mismo. La configuración
de más abajo es mi mejor suposición, no algo que
realmente haya tenido funcionando.
Tiene tres o más dispositivos de aproximadamente
el mismo tamaño, un dispositivo es significativamente
más rápido que los otros dispositivos y quiere
combinarlos todos en un único dispositivo más
grande, conservando todavía alguna información de
redundancia. Finalmente, tiene varios dispositivos que desea usar
como discos de reserva.
Configure el fichero /etc/raidtab así:
raiddev /dev/md0
raid-level 4
nr-raid-disks 4
nr-spare-disks 0
persistent-superblock 1
chunk-size 32
device /dev/sdb1
raid-disk 0
device /dev/sdc1
raid-disk 1
device /dev/sdd1
raid-disk 2
device /dev/sde1
raid-disk 3
Si tuviéramos discos de reserva, se
insertarían de forma parecida, siguiendo las
especificaciones de discos RAID;
device /dev/sdf1
spare-disk 0
como de costumbre.
Su array se puede inicializar con la orden
mkraid /dev/md0
como es habitual.
Debería ver la sección de opciones
especiales de mke2fs antes de formatear el
dispositivo.
9.6 RAID-5
Tiene tres o más dispositivos de aproximadamente
el mismo tamaño, quiere combinarlos en un dispositivo
mayor, pero conservando todavía cierto grado de
redundancia para la seguridad de datos. Finalmente, tiene varios
dispositivos para usar como discos de reserva, que no
tomarán parte en el array antes de que otro dispositivo
falle.
Si usa N dispositivos donde el tamaño del
más pequeño es S, el tamaño de todo el array
será (N-1)*S. El espacio “faltante'' se usa para
información de paridad (redundancia). De esta manera, si
cualquier disco falla, todos los datos permanecerán
intactos. Pero si dos discos fallan, todos los datos se
perderán.
Configure el fichero /etc/raidtab así:
raiddev /dev/md0
raid-level 5
nr-raid-disks 7
nr-spare-disks 0
persistent-superblock 1
parity-algorithm left-symmetric
chunk-size 32
device /dev/sda3
raid-disk 0
device /dev/sdb1
raid-disk 1
device /dev/sdc1
raid-disk 2
device /dev/sdd1
raid-disk 3
device /dev/sde1
raid-disk 4
device /dev/sdf1
raid-disk 5
device /dev/sdg1
raid-disk 6
Si tuviéramos discos de reserva, se
insertarían de forma parecida, siguiendo las
especificaciones de discos RAID;
device /dev/sdh1
spare-disk 0
Y así sucesivamente.
Un tamaño de porción de 32KB es un buen
valor por
defecto para muchos sistemas de ficheros de propósito
general de este tamaño. El array sobre el que se utiliza
el raidtab anterior es un dispositivo de 7 por 6 GB = 36 GB
(recuerde que (N-1)*S = (7-1)*6 = 36). Contiene un sistema de
ficheros ext2 con un tamaño de bloque de 4KB.
Podría incrementar tanto el tamaño de
porción del array como el tamaño de bloque del
sistema de ficheros si su sistema de ficheros fuera o bien mucho
mayor o bien si simplemente contuviera ficheros muy
grandes.
Vale, ya hemos hablado bastante. Configure el fichero
raidtab y veamos si funciona. Ejecute la orden
mkraid /dev/md0
y observe qué ocurre. Es de esperar que sus
discos comiencen a trabajar como locos debido a que empiezan la
reconstrucción de su array. Échele un vistazo a
/proc/mdstat para ver qué está
sucediendo.
Si el dispositivo se ha creado correctamente, el proceso
de reconstrucción comenzará ahora. Su array no
será consistente hasta que esta fase de
reconstrucción haya terminado. No obstante, el array es
totalmente funcional (excepto, por supuesto, para el manejo de
fallos de dispositivos) y puede formatearlo y usarlo incluso
mientras se esté reconstruyendo.
Consulte la sección de opciones especiales de
mke2fs antes de formatear el array.
Bueno, ahora que ya tiene su dispositivo RAID
funcionando, siempre puede pararlo o rearrancarlo usando las
órdenes
raidstop /dev/md0
y
raidstart /dev/md0,
respectivamente.
En lugar de colocar éstos en ficheros de inicio y
rearrancar un número astronómico de veces hasta
hacer que funcione, siga leyendo y haga funcionar la
autodetección.
9.7 El superbloque persistente
Volviendo a los “buenos viejos tiempos'' (“The Good
Old Days'' (TM)), las herramientas RAID (raidtools)
leerían su fichero /etc/raidtab y a continuación
inicializarían el array. Sin embargo, esto
requeriría que el sistema de ficheros sobre el que reside
/etc/raidtab estuviera montado. Esto es desafortunado si quiere
arrancar a partir de un RAID.
También, la anterior aproximación
producía complicaciones al montar sistemas de ficheros
sobre dispositivos RAID. Éstos no se podían colocar
en el fichero /etc/fstab como era usual, sino que tenían
que ser montados en los guiones de inicio.
Los superbloques persistentes solucionan estos problemas.
Cuando un array se inicializa con la opción
persistent-superblock en el fichero /etc/raidtab, se escribe un
superbloque especial al principio de todos los discos
participantes en el array. Esto permite al núcleo leer la
configuración de los dispositivos RAID directamente de los
discos involucrados, en lugar de leerla de algún fichero
de configuración que puede no estar disponible en todo
momento.
Sin embargo, todavía debería mantener un
fichero /etc/raidtab consistente, ya que puede necesitar este
fichero para una reconstrucción posterior del
array.
Los superbloques persistentes son obligatorios si desea
la autodetección de sus dispositivos RAID durante el
arranque del sistema. Esto se describe en la sección
Autodetección.
9.8 Tamaños de porción
El tamaño de porción merece una
explicación. Nunca puede escribir de forma totalmente
paralela a un grupo de discos. Si tuviera dos discos y quisiera
escribir un byte, tendría que escribir cuatro bits en cada
disco; realmente, todos los segundos bits irían al disco 0
y los otros al disco 1. Sencillamente, el hardware no soporta
eso. En su lugar, elegimos algún tamaño de
porción que definimos como la masa “atómica''
más pequeña de datos que puede ser escrita en los
dispositivos. Una escritura de 16 KB con un tamaño de
porción de 4 KB provocaría que la primera y tercera
porción de 4KB se escribieran en el primer disco y la
segunda y el cuarta porción en el segundo, en el caso de
un RAID-0 de dos discos. De esta manera, para grandes escrituras,
podría observar una sobrecarga más pequeña
teniendo porciones lo bastante grandes, mientras que los arrays
que contuvieran principalmente ficheros pequeños se
podrían beneficiar más de un tamaño de
porción más pequeño.
Los tamaños de porción se pueden
especificar para todos los niveles de RAID excepto para el modo
lineal.
Para un rendimiento óptimo, debería
experimentar con el valor,
así como con el tamaño de bloque del sistema de
ficheros que pusiera en el array.
El argumento de la opción chunk-size en
/etc/raidtab especifica el tamaño de porción en
kilobytes. Por tanto, “4'' significa “4 KB''.
RAID-0
Los datos se escriben “casi'' en paralelo en todos los
discos del array. Realmente, se escriben chunk-size bytes en cada
disco, de forma consecutiva.
Si especifica un tamaño de porción de 4 KB
y escribe 16 KB a un array de 3 discos, el sistema RAID
escribirá 4 KB a los discos 0, 1 y 2, en paralelo, y a
continuación los 4 KB restantes al disco 0.
Un tamaño de porción de 32 KB es un punto
de inicio razonable para la mayoría de los arrays. Pero el
valor óptimo depende muchísimo del número de
discos implicados, del contenido del sistema de ficheros que
coloca y de muchos otros factores. Experimente con él para
obtener el mejor rendimiento.
RAID-1
Para las escrituras, el tamaño de porción
no afecta al array, ya que se deben escribir todos los datos a
todos los discos sin importar qué. Para las lecturas, sin
embargo, el tamaño de porción indica cuántos
datos leer consecutivamente de los discos participantes. Ya que
todos los discos activos del array contienen la misma
información, las lecturas se pueden hacer en paralelo al
estilo de un RAID-0.
RAID-4
Cuando se realiza una escritura en un array RAID-4,
también se debe actualizar la información de
paridad en el disco de paridad. El tamaño de
porción es el tamaño de los bloques de paridad. Si
se escribe un byte a un array RAID-4, entonces se leerán
chunk-size bytes de los N-1 discos, se calculará la
información de paridad y se escribirán chunk-size
bytes al disco de paridad.
El tamaño de porción afecta al rendimiento
de las lecturas de la misma manera que en un RAID-0, ya que las
lecturas de un RAID-4 se realizan de la misma forma.
RAID-5
En RAID-5 el tamaño de porción tiene
exactamente el mimo significado que en un RAID-4.
Un tamaño de porción razonable para un
RAID-5 es 128 KB pero, como siempre, puede desear experimentar
con éste.
También consulte la sección de opciones
especiales de mke2fs. Esto afecta al rendimiento de un
RAID-5.
9.9 Opciones de mke2fs
Hay disponible una opción especial cuando se
formatean dispositivos RAID-4 y RAID-5 con mke2fs. La
opción -R stride=nn permitirá a mke2fs situar mejor
diferentes estructuras de
datos específicas de ext2 en un dispositivo RAID de forma
inteligente.
Si el tamaño de porción es 32 KB significa
que 32 KB de datos consecutivos residirán en un
único disco. Si queremos construir un sistema de ficheros
ext2 con un tamaño de bloque de 4KB, nos damos cuenta de
que habrá 8 bloques del sistema de ficheros en una
porción del array. Podemos pasar esta información a
la utilidad mke2fs
cuando se cree el sistema de ficheros:
mke2fs -b 4096 -R stride=8 /dev/md0
El rendimiento de un RAID-{4,5} se ve fuertemente
influido por esta opción. No estoy seguro de cómo
la opción stride afectará a otros niveles RAID. Si
alguien tiene información sobre esto, por favor, que la
envíe a mi dirección.
9.10 Autodetección
La autodetección permite a los dispositivos RAID
ser automáticamente reconocidos por el núcleo
durante el arranque, justo después de que se realice la
detección ordinaria de particiones.
Esto requiere varias cosas:
Necesita soporte para autodetección en el
núcleo. Compruebe esto
Debe haber creado los dispositivos RAID usando
superbloques persistentes
El tipo de partición de los dispositivos usados
en el RAID se debe establecer a 0xFD (use fdisk y
establezca el tipo a “fd'')
NOTA: asegúrese de que su RAID NO ESTÁ
FUNCIONANDO antes de cambiar los tipos de las particiones. Use
raidstop /dev/md0 para parar el dispositivo.
Si sigue los pasos 1, 2 y 3 de arriba, la
autodetección debería activarse. Pruebe rearrancar.
Cuando el sistema se levante, vea el contenido de /proc/mdstat;
debería decirle que su RAID está
funcionando.
Durante el arranque, podría ver mensajes
similares a estos:
Oct 22 00:51:59 malthe kernel: SCSI device sdg: hdwr
sector= 512
bytes. Sectors= 12657717 [6180 MB] [6.2 GB]
Oct 22 00:51:59 malthe kernel: Partition
check:
Oct 22 00:51:59 malthe kernel: sda: sda1 sda2 sda3
sda4
Oct 22 00:51:59 malthe kernel: sdb: sdb1 sdb2
Oct 22 00:51:59 malthe kernel: sdc: sdc1 sdc2
Oct 22 00:51:59 malthe kernel: sdd: sdd1 sdd2
Oct 22 00:51:59 malthe kernel: sde: sde1 sde2
Oct 22 00:51:59 malthe kernel: sdf: sdf1 sdf2
Oct 22 00:51:59 malthe kernel: sdg: sdg1 sdg2
Oct 22 00:51:59 malthe kernel: autodetecting RAID
arrays
Oct 22 00:51:59 malthe kernel: (read) sdb1's sb offset:
6199872
Oct 22 00:51:59 malthe kernel:
bind<sdb1,1>
Oct 22 00:51:59 malthe kernel: (read) sdc1's sb offset:
6199872
Oct 22 00:51:59 malthe kernel:
bind<sdc1,2>
Oct 22 00:51:59 malthe kernel: (read) sdd1's sb offset:
6199872
Oct 22 00:51:59 malthe kernel:
bind<sdd1,3>
Oct 22 00:51:59 malthe kernel: (read) sde1's sb offset:
6199872
Oct 22 00:51:59 malthe kernel:
bind<sde1,4>
Oct 22 00:51:59 malthe kernel: (read) sdf1's sb offset:
6205376
Oct 22 00:51:59 malthe kernel:
bind<sdf1,5>
Oct 22 00:51:59 malthe kernel: (read) sdg1's sb offset:
6205376
Oct 22 00:51:59 malthe kernel:
bind<sdg1,6>
Oct 22 00:51:59 malthe kernel: autorunning
md0
Oct 22 00:51:59 malthe kernel: running:
<sdg1><sdf1><sde1><sdd1><sdc1><sdb1>
Oct 22 00:51:59 malthe kernel: now!
Oct 22 00:51:59 malthe kernel: md: md0: raid array is
not clean —
starting background reconstruction
Esta es la salida de la autodetección de un array
RAID-5 que no fue limpiamente desactivado (es decir, la
máquina se cayó). La reconstrucción se
inicia automáticamente. Montar este dispositivo es
perfectamente seguro, ya que la reconstrucción es
transparente y todos los datos son consistentes (sólo es
la información de paridad la que es inconsistente – aunque
la misma no se necesita hasta que un dispositivo
falle).
Los dispositivos autoarrancados también son
automáticamente parados durante el cierre del sistema. No
se preocupe de los guiones de inicio. Simplemente, use los
dispositivos /dev/md como cualquier otro dispositivo /dev/sd o
/dev/hd.
Sí, verdaderamente es así de
fácil.
Quizás desee buscar cualquier orden
raidstart/raidstop en sus guiones de inicio. Éstas suelen
encontrarse en los guiones de inicio estándares de RedHat.
Se usan para el antiguo estilo de RAID y no tienen utilidad en el
nuevo estilo de RAID con autodetección. Simplemente,
elimine las líneas y todo irá perfectamente
bien.
9.11 Arrancar desde un RAID
Existen varias formas de configurar un sistema que monta
su sistema de ficheros raíz sobre un dispositivo RAID.
Desafortunadamente, ninguna de las distribuciones de Linux con
las que yo he probado (RedHat y Debian) soportan un dispositivo
RAID como dispositivo del sistema de ficheros raíz durante
el proceso de instalación. Por tanto, le va a doler un
poco si quiere esto pero, de hecho, es posible.
Actualmente, LILO no maneja dispositivos RAID y ,por
ello, no se puede cargar el núcleo desde un dispositivo
RAID en el instante del arranque. Su sistema de ficheros /boot
tendrá que residir en un dispositivo que no sea RAID. Un
modo de asegurar que su sistema arranca, pase lo que pase, es
crear particiones /boot similares en todas las unidades de su
RAID, de esa forma la BIOS siempre
puede cargar datos desde, por ejemplo, la primera unidad
disponible. Esto necesita que no arranque con un disco defectuoso
en su sistema.
Otra forma de asegurar que su sistema siempre arranca es
crear un disquete de arranque cuando toda la configuración
se haya terminado. Si muere el disco en el que reside el sistema
de ficheros /boot, siempre puede arrancar desde el
disquete.
Método 1
Este método
asume que posee un disco de reserva en el que puede instalar el
sistema y que no es parte del RAID que configurará
más adelante.
Primero, instale un sistema normal en su disco
extra.
Obtenga el núcleo que piensa ejecutar, obtenga
los parches y las herramientas RAID y haga que su sistema
arranque con el nuevo núcleo con soporte RAID.
Asegúrese de que el soporte RAID está dentro
del núcleo y que no se carga como
módulo.
Vale, ahora debe configurar y crear el RAID que tiene
pensado usar para el sistema de ficheros raíz. Éste
es un procedimiento
estándar como ya se describió en otra parte de este
documento.
Simplemente para asegurarse de que todo está
bien, trate de rearrancar el sistema para ver si el nuevo RAID
aparece durante el arranque. Debería aparecer.
Coloque un sistema de ficheros sobre el nuevo array
(usando mke2fs), y móntelo en /mnt/newroot.
Ahora, copie el contenido de su sistema de ficheros
raíz actual (el disco extra) al nuevo sistema de ficheros
raíz (el array). Hay muchas formas de hacer esto. Una de
ellas es
cd /
find . -xdev | cpio -pm /mnt/newroot
Debe modificar el fichero /mnt/newroot/etc/fstab para
usar el dispositivo correcto (el dispositivo raíz
/dev/md?) para el sistema de ficheros raíz.
Ahora, desmonte el sistema de ficheros /boot actual y
móntelo en su lugar en /mnt/newroot/boot. Esto es
necesario para que LILO funcione correctamente en el siguiente
paso.
Actualice /mnt/newroot/etc/lilo.conf para que apunte a
los dispositivos correctos. El dispositivo de arranque debe ser
todavía un disco normal (no un dispositivo RAID) pero el
dispositivo raíz debe apuntar a su nuevo RAID. Cuando
esté hecho, ejecute
lilo -r /mnt/newroot
Esta ejecución de LILO debería terminar
sin errores.
Rearranque el sistema y observe que todo aparece como se
esperaba 🙂
Si está haciendo esto con discos IDE,
asegúrese de indicarle a su BIOS que todos
los discos son del tipo “auto-detect'', así la BIOS
permitirá a su máquina arrancar incluso cuando un
disco haya fallado.
Método 2
Este método
necesita que parchee su paquete raidtools para poder incluir
la directiva failed-disk en /etc/raidtab. Busque en los archivos
de la lista de correo Linux-raid los mensajes enviados por Martin
Bene, alrededor del 23 de abril de 1999, donde se envió el
parche failed-disk. Se espera que esta funcionalidad esté
pronto en el paquete raidtools (para cuando esté leyendo
esto puede que incluso no necesite parchear las
raidtools).
Sólo puede utilizar este método en
RAIDs de niveles 1 o superiores. La idea es instalar un sistema
sobre un disco que es adrede marcado como estropeado en el RAID,
copiar a continuación el sistema en el RAID que
estará funcionando en modo degrado y finalmente hacer que
el RAID use el ya no necesario “disco de instalación'',
aniquilando la anterior instalación pero haciendo que el
RAID funcione en modo no degradado.
Primero, instale un sistema normal sobre un disco (que
más tarde formará parte de su RAID). ¡Es
importante que este disco (o partición) no sea el
más pequeño. Si lo es, no será posible
añadirlo al RAID más tarde!
A continuación, obtenga el núcleo, los
parches, las herramientas, etc., etc. Ya conoce el ejercicio.
Haga que su sistema arranque con un nuevo núcleo que tenga
el soporte RAID que necesita compilado dentro del
núcleo.
Ahora, configure el RAID con su dispositivo raíz
actual como el failed-disk (disco estropeado) en el fichero
raidtab. No coloque el failed-disk como el primer disco en el
fichero raidtab, eso le dará problemas para
poner en marcha el RAID. Cree el RAID y coloque un sistema de
ficheros en él.
Pruebe a rearrancar y vea si el RAID aparece como
debería hacerlo.
Copie los ficheros del sistema y reconfigure el sistema
para usar el RAID como dispositivo raíz, como se ha
descrito en la sección anterior.
Cuando su sistema arranque con éxito
desde el RAID, puede modificar el fichero raidtab para incluir el
failed-disk anterior como un disco raid-disk normal. Ahora,
ejecute raidhotadd para añadir el disco a su sistema
RAID.
Ahora debería tener un sistema capaz de arrancar
desde un RAID no degradado.
9.12 Dificultades
Nunca NUNCA nunca reparticione discos que son
parte de un RAID que está funcionando. Si debe alterar la
tabla de particiones de un disco que es parte de un RAID, pare
primero el array y después reparticione.
Es fácil poner demasiados discos en un bus. Un bus Fast-Wide SCSI
normal puede sostener 10 MB/s que es menos de lo que muchos
discos pueden obtener por sí solos hoy en día. Por
supuesto, colocar seis de tales discos en un bus no le
proporcionará el aumento de rendimiento
esperado.
La mayoría de los controladores SCSI sólo
le proporcionarán un rendimiento extra si los buses SCSI
son llevados prácticamente al máximo por los discos
conectados a ellos. No observará una mejora de rendimiento
por usar dos controladores 2940 con dos viejos discos SCSI en
lugar de simplemente hacer funcionar los dos discos sobre un
único controlador.
Si olvida la opción persistent-superblock puede
que su array no arranque por las buenas después de que
haya sido parado. Simplemente, recree el array con la
opción colocada correctamente en el fichero
raidtab.
Si un RAID-5 no logra reconstruirse después de
que un disco haya sido eliminado y reinsertado, puede deberse al
orden de los dispositivos en el fichero raidtab. Intente mover el
primer par “device''–“raid-disk'' al final de la descripción del array en el fichero
raidtab.
Cómo instalar un RAID0
A continuación describimos cómo instalar
un RAID0. Si desea montar un RAID distinto de RAID0 en un kernel
2.0.xx, hay que conseguir un parche.
El RAID0 no tiene redundancia pero hay que pensar que
para tener redundancia conviene tener un numero de discos elevado
para no desperdiciar espacio en disco. Gastar todo un disco
cuando tenemos tres es un despilfarro. Además esto no
cubre todos los casos de perdida de información sino
sólo los fallos por deterioro físico de un disco,
lo cual no es muy frecuente. Por el contrario si tenemos 10
discos, gastar uno para el control de paridad no resulta
demasiado desperdicio. En un RAID0 se perderá toda la
información en caso de fallo de cualquiera de los discos
que lo componen por lo cual una adecuada política de copias de
seguridad resulta especialmente recomendable.
Lo primero será incluir los drivers en el kernel.
Para Linux 2.0.xx RAID las opciones serán:
Multiple devices driver support (CONFIG_BLK_DEV_MD)
[Y/n/?] Y
Linear (append) mode (CONFIG_MD_LINEAR) [Y/m/n/?]
Y
RAID-0 (striping) mode (CONFIG_MD_STRIPED) [Y/m/n/?]
Y
Después de arrancar con el nuevo kernel
aparecerá en /proc una entrada mdstat que contiene la
información de los cuatro (cuatro es el valor por defecto)
dispositivos nuevos creados como md0, md1, md2, md3. Como no
hemos inicializado ninguno aparecerán todos como inactivos
y aun no los podemos usar.
Para gestionarlos existen unas utilidades.
‘mdutils’
• mdadd
• mdrun
• mdstop
• mdop
Puede obtenerlas en:sweet-smoke.ufr-info-p7.ibp.fr
/pub/Linux, pero suelen estar incluidas en todas las
distribuciones.
Para versiones del núcleo superiores a la 2.1.62
existe otro paquete distinto llamado ‘RAIDtools’ que
permiten usar RAID0, RAID4 o RAID5.
En el ejemplo que sigue ilustramos como definir un
metadisco RAID0 que usará dos discos duros. Concretamente
/dev/sdb1 y /dev/sdc1.
meta-device | RAID Mode | Disk Partition 1 | Disk Partition 1 |
/dev/md0 | linear | /dev/sdb1 | /dev/sdc1 |
Se puede incluir mayor número de
particiones.
Una vez formateado el metadisco no se debe alterar este
registro ya que podría perderse toda la
información.
mdadd -a
mdrun -a
Ahora debería aparecer inicializado el md0. Para
formatearlo:
mke2fs /dev/md0
Y montarlo.
mkdir /mount/md0
mount /dev/md0 /mount/md0
Si todo ha funcionado correctamente, podemos incluir
estas ordenes en los scripts de arranque para que la
próxima vez que arranquemos el ordenador se monte
automáticamente el RAID0. Para ello, añadiremos una
entrada en /etc/fstab para montar el metadisco durante el
arranque pero también habrá que incluir
‘mdadd -a’ y ‘mdrun -a’ en un fichero que
se ejecute antes de que se intente realizar el montado. Si
nuestra distribución es Debian, un buen lugar
incluir estas ordenes es /etc/init.d/checkroot.sh justo antes de
remontar en modo lectura/escritura el sistema de ficheros
raíz, esto es, justo antes de la línea: "mount -n
-o remount,rw /"
Ejemplo:
Se describe a continuación la
configuración que yo estoy usando. Tengo un disco IDE de
6.3 Gb, uno SCSI de 4.2Gb, y otro de 2Gb.
HD 6.3Gb IDE
/ | /bigTemp + /incoming | swap | 2Gb(RAID) hda4 |
HD 4.2Gb SCSI
C: | D: | swap | 2Gb(RAID) sda4 |
HD 2Gb SCSI
swap | 2Gb(RAID) sdb2 |
#######</etc/fstab>################################################
# <file system> <mount point> <type>
<options> <dump> <pass>
/dev/hda1 / ext2 defaults 0 1
/dev/hda2 /mnt/hda2 ext2 defaults 0 2
/dev/md0 /mnt/md0 ext2 defaults 0 2
proc /proc proc defaults 0 2
/dev/hda3 none swap sw,pri=10
/dev/sdb1 none swap sw,pri=10
/dev/sda3 none swap sw,pri=10
#########</etc/mdtab>#######################################
# <meta-device> <RAID-mode> <DskPart1>
<DskPart1> <DskPart1>
/dev/md0 RAID0,8k /dev/hda4 /dev/sda4
/dev/sdb2
En el disco de 6Gb está la partición del
sistema de ficheros raíz en hda1 y luego una gran
partición que se usa para descarga de Internet almacenamiento de
imágenes de CD’s
etc. No representa tampoco mucha carga porque se usa poco. El
disco de 4Gb tampoco tiene particiones que puedan estorbar gran
cosa al RAID porque son particiones de msdos que apenas se usan
desde Linux. El disco de 2G está casi totalmente dedicado
al RAID. Se reserva un pequeño espacio en cada uno de los
discos que se utilizará como swap.
Hay que procurar que todos los discos (particiones) que
forman el RAID tengan más o menos el mismo tamaño
pues diferencias de tamaño perjudican el rendimiento del
RAID. Diferencias pequeñas no son significativas. Se
aprovecha todo el espacio así que toda la
información que puede ser entrelazada entre distintos
discos quedará entrelazada y la restante quedará
sin entrelazar.
Montar en un mismo RAID varios discos IDE es poco
eficiente, pero un disco IDE junto con varios SCSI funciona
bastante bien. Los discos IDE no permiten accesos concurrentes,
pero sí los discos SCSI.
5. Como seleccionar un
disco RAID
El seleccionar un disco raid puede ser una dura tarea ,
ya que no existen criterios establecidos , para saber , cual es
la mejor solucion . Una equivacion bastante común es
juntar todos los discos Raid en el mismo nivel , porlo que
debe,mos elegir una solucion correcta para el grupo comleto de
disco , no metiendo todos en el mismo nivel sino estructurando
los discos deopendiendo de las necesidades en seguruidad e
integridad de los datos .
Para seleccionar un disco Raid en primer lugar tenemos
que conocer nuestra necesidades , o saber los tipos de
aplicaciones que se emplean .Podemos separa las aplicaciones en
dos tipo:
• Aplicaciones de demanda :
Podriamos seleccionar el Raid 5 ya que ofrece una alta
velocidad de demanda , tanto en escrituras como lecturas
.
• Apliaciones de Transferencias :
La mejor opcion pasaria por Raid 3 ya que ofrece una
alta velocidad de tranferencia para gráficos e imágenes y aplicaciones
en gral en las que necesitamos gran transferencia de datos
.
Ademas del tipo de aplicación , abremos de tener
en cuanta los factores que nos guiaran a octar por la
elección de un Raid u otro como son :
• Integridad y costo :
normalmente llegaremos a una solucion Raid que asegure
la integridad de los datos del disco , ya que de esta manera
tendremos preservados , nuestros datos sobre posibles errores del
disco .El Raid 0 es el unico nivel que no proporciona integridad
.
• Costo :
El costo vendra marcado por nuesto poder
adquisitivo sera uno de los factores mas importantes a la hora de
seleccionar nuestro disco .No solo tenemos que pensar en la
integridad de los datos , sino en cuando se estropee un disco
tenemos que apagar el sistema . A para ello existe varios
dispositivos como Hot Swap , Hot Spare , Duplex Controler ,
Redundant Power Supplies .
La siguiente tabla muestra las
opciones mas acertadas , a la hora de elegir el nivel Raid que
mejor se adapte a nuestra necesidades teniendo en cuenta todos
estos factores :
Costo | Rendimiento | Integridad | Nivel Raid |
– | – | – | Raid 1 |
– | X | – | Raid 0 |
– | X | X | Raid 1 |
X | – | – | Raid 0 |
X | – | X | Raid 3/5 |
X | X | – | Raid 0 |
X | X | X | Raid 3/5 |
Maximas y minimas cantidades de Hd que se pueden
ordenar para los diferentes niveles de RAID.
Nivel de Raid | Minimo | Maximo |
5 | 3 | 16 |
4 | 3 | N/A |
3 | 3 | N/A |
2 | N/A | N/A |
1 | 2 | 2 |
0 | 2 | 16 |
Acrónimos
RAID Redundant Array of independent Disks
SLED Single Large Expensive Disk
HD Hard Disk
MTBDL Mean Time before Data Loss
MTBF Mean Time Between failures
DSA Data Striping Without Parity
MDA Mirrored Disk Array
PDA Parallel Disk Array
IDA Independient Disk Array
10. Glosario:
Duplex controler: Controladora doble. Son
controladoras de disco que pueden trabajar de modo simple o de
forma doble, para que la carga de la controladora sea distribuida
y más eficaz.
Hot swap: Son discos que se reemplazan en caliente. Esto
quiere decir que si alguno de los discos RAID se estropeara
físicamente bastaría con quitarlo y poner otro sin
tener que apagar el sistema.
Hot spare: Disco sobrante. Es un disco que permanece
siempre en el sistema esperando a que uno se estropee y entre
directamente en funcionamiento.
Integridad de los datos: Es la capacidad que tiene un disco de
aguantar un error de grabación de corrupción
o perdida de datos. Para tal efecto se tiene que seleccionar un
disco RAID o alguna alternativa. El nivel de integridad es uno de
los primeros criterios que ser han de investigar.
Mirroring: Haciendo espejo. Es un nivel de RAID (el nivel
1) que pasa por hacer una copia integra de un disco en otro.
Paridad: Es una información redundante que es guardada
para regenerar datos perdidos por un error en el disco. La
paridad se genera haciendo XOR sobre los datos de los discos y
guardándolo en otro disco o en un disco dedicado a ese
efecto, esto dependerá del nivel de RAID que
usemos.
Reconstrucción o regeneración: Cuando un
disco falla la información redundante en los discos y los
datos en los discos buenos son usados para regenerar la
información del disco averiado.
Redundat Power Supplies: Fuente de alimentación
redundante. El sistema consta de dos fuentes de
alimentación. Si uno se estropea se pone en marcha,
pudiéndose cambiar la estropeada en caliente.
Sistemas Basados en Velocidad de Demanda: Son aquellos
en que se requieren un gran numero de demandas de E/S en el menor
tiempo posible. Una alta velocidad de demanda es típica en
sistemas multiusuario o en aplicaciones de bases de datos en
las que se generan un gran numero de pequeñas demandas de
E/S. En este caso cada disco del conjunto puede procesar una
demanda simultáneamente.
Sistemas Basados en Velocidad de Transferencia: Son aquellos que
intentan satisfacer una sola demanda con la máxima
velocidad. Un claro ejemplo son las aplicaciones de ingeniería científicas
imágenes, etc.
En estos sistemas el tamaño de la demanda es mucho
más grande que en los sistemas basados en velocidad de
demanda, para el que emplea todos los discos del conjunto en
paralelo para satisfacer una mayor demanda en el mínimo
tiempo posible.
Trabajo práctico creado por
Claudio Seror
Técnico electrónico y tercer año de
analista de sistemas