Debido a una falla en las comunicaciones entre los investigadores, el equipo aún tenía información que no se había respaldado. Afortunadamente, el equipo original tenía dos discos duros en RAID1, y en la instalación de Hasefrog sólo utilizamos el primer disco :-)
Así que he sacado el segundo disco para ponérselo a otro equipo con el mismo hardware, con la esperanza de recuperar la información perdida. Me sentía optimista: el disco estaba intacto, así que debería de bootear, cargar el raid en modo degradado, luego los LVMs y eso sería todo: el equipo volvería a la vida como si nada.
Sí, como no.
Para empezar, el disco no arrancó (todo por no decir "no boot-eó"). Como decía Alf: "No hay problema". Utilizando el SARS (Sistema de Arranque Remoto (sic)) entré al entorno de rescate de Fedora... y no encontró nada :-(.
Ni modo, será el camino difícil.
Entrando al shell del entorno de recuperación de Fedora. Una revisión rápida indica que las particiones del disco se encuentran en su lugar. Menos mal.
# fdisk -l /dev/sda
Disk /dev/sda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 33 265041 fd Linux raid autodetect
/dev/sda2 34 3265 25961040 fd Linux raid autodetect
/dev/sda3 3266 6497 25961040 fd Linux raid autodetect
/dev/sda4 6498 9729 25961040 fd Linux raid autodetect
La estrategia: hacer el disco boot-eable (sic) para tener el equipo funcionando nuevamente.
- Activar los dispositivos RAID
- Activar los LVMs
- Instalar el GRUB
- reboot
# raidautorun /dev/md0
# raidautorun /dev/md1
# raidautorun /dev/md2
# raidautorun /dev/md3
# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md0 : active raid1 sda1[1]
264960 blocks [2/1] [_U]
md2 : active raid1 sda3[1]
25960960 blocks [2/1] [_U]
md3 : active raid1 sda4[1]
25960960 blocks [2/1] [_U]
md1 : active raid1 sda2[1]
25960960 blocks [2/1] [_U]
unused devices:
# lvm pvscan
PV /dev/md1 VG Vo0 lvm1 [24.75 GB / 0 free]
PV /dev/md2 VG Vo0 lvm1 [24.75 GB / 0 free]
PV /dev/md3 VG Vo0 lvm1 [24.75 GB / 0 free]
Total: 3 [74.26 GB] / in use: 3 [74.26 GB] / in no VG: 0 [0 ]
# lvm vgchange -ay
6 logical volume(s) in volume group "Vo0" now active
# lvm lvscan
ACTIVE '/dev/Vo0/local' [4.60 GB] normal
ACTIVE '/dev/Vo0/tmp' [1.09 GB] normal
ACTIVE '/dev/Vo0/var' [1.09 GB] normal
ACTIVE '/dev/Vo0/swap' [1.00 GB] normal
ACTIVE '/dev/Vo0/home' [57.89 GB] normal
ACTIVE '/dev/Vo0/zod' [8.60 GB] normal
# mount /dev/Vo0/zod /mnt/sysimage
# mount /dev/md0 /mnt/sysimage/boot
# grub
grub> setup (hd0)
Con un poco de suerte, las información estará allí.
Ya arrancó, parece que tiene todo en su lugar. Ahora a notificar al dueño de la información.
No hay comentarios.:
Publicar un comentario