lunes, 10 de marzo de 2008

Rescatando a Chilpayatl

En un desventurado berrinche del destino, le instalamos Hasefrog a un equipo con una nVidia GeForce2 440 MX, que por muchos años tuvo Linux. Pasó por (casi) todas las versiones de Fedora, un par de casi desastres, en particular uno en el desapareció el python.

Debido a una falla en las comunicaciones entre los investigadores, el equipo aún tenía información que no se había respaldado. Afortunadamente, el equipo original tenía dos discos duros en RAID1, y en la instalación de Hasefrog sólo utilizamos el primer disco :-)

Así que he sacado el segundo disco para ponérselo a otro equipo con el mismo hardware, con la esperanza de recuperar la información perdida. Me sentía optimista: el disco estaba intacto, así que debería de bootear, cargar el raid en modo degradado, luego los LVMs y eso sería todo: el equipo volvería a la vida como si nada.

Sí, como no.

Para empezar, el disco no arrancó (todo por no decir "no boot-eó"). Como decía Alf: "No hay problema". Utilizando el SARS (Sistema de Arranque Remoto (sic)) entré al entorno de rescate de Fedora... y no encontró nada :-(.

Ni modo, será el camino difícil.

Entrando al shell del entorno de recuperación de Fedora. Una revisión rápida indica que las particiones del disco se encuentran en su lugar. Menos mal.
# fdisk -l /dev/sda
Disk /dev/sda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sda1 * 1 33 265041 fd Linux raid autodetect
/dev/sda2 34 3265 25961040 fd Linux raid autodetect
/dev/sda3 3266 6497 25961040 fd Linux raid autodetect
/dev/sda4 6498 9729 25961040 fd Linux raid autodetect

La estrategia: hacer el disco boot-eable (sic) para tener el equipo funcionando nuevamente.

  1. Activar los dispositivos RAID

  2. # raidautorun /dev/md0
    # raidautorun /dev/md1
    # raidautorun /dev/md2
    # raidautorun /dev/md3
    # cat /proc/mdstat
    Personalities : [raid1] [raid6] [raid5] [raid4]
    md0 : active raid1 sda1[1]
    264960 blocks [2/1] [_U]

    md2 : active raid1 sda3[1]
    25960960 blocks [2/1] [_U]

    md3 : active raid1 sda4[1]
    25960960 blocks [2/1] [_U]

    md1 : active raid1 sda2[1]
    25960960 blocks [2/1] [_U]

    unused devices:

  3. Activar los LVMs


  4. # lvm pvscan
    PV /dev/md1 VG Vo0 lvm1 [24.75 GB / 0 free]
    PV /dev/md2 VG Vo0 lvm1 [24.75 GB / 0 free]
    PV /dev/md3 VG Vo0 lvm1 [24.75 GB / 0 free]
    Total: 3 [74.26 GB] / in use: 3 [74.26 GB] / in no VG: 0 [0 ]
    # lvm vgchange -ay
    6 logical volume(s) in volume group "Vo0" now active
    # lvm lvscan
    ACTIVE '/dev/Vo0/local' [4.60 GB] normal
    ACTIVE '/dev/Vo0/tmp' [1.09 GB] normal
    ACTIVE '/dev/Vo0/var' [1.09 GB] normal
    ACTIVE '/dev/Vo0/swap' [1.00 GB] normal
    ACTIVE '/dev/Vo0/home' [57.89 GB] normal
    ACTIVE '/dev/Vo0/zod' [8.60 GB] normal

  5. Instalar el GRUB


  6. # mount /dev/Vo0/zod /mnt/sysimage
    # mount /dev/md0 /mnt/sysimage/boot
    # grub
    grub> setup (hd0)

  7. reboot

  8. Con un poco de suerte, las información estará allí.

Ya arrancó, parece que tiene todo en su lugar. Ahora a notificar al dueño de la información.

No hay comentarios.: