J'ai fait l'upgrade de mon bon vieux serveur SME en 7.13 -> Pas de problème en particulier.
Ensuite j'ai installé 2 autres disques identiques a celui qui tourne pour monter un RAID 5 et c'est la que je rencontre un petit problème...
Aucun raid était déclaré, même apres l'upgrade, je l'ai donc fait à la mimi (soyons fous )
Aujourd'hui mon raid tourne mais je n'arrive pas à booter dessus :
la preuve que mon raid tourne (le 3/2 est normal je n'ai intégré que 2 disques pour le moment dans le raid, le 1er etant le physique qui est actuellement utilisé):
[root@rangiroa ~]# cat /proc/mdstat
Personalities : [raid5]
md2 : active raid5 hdd2[2] hdb2[1]
2000640 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
md3 : active raid5 hdd3[2] hdb3[1]
76291328 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
unused devices: <none>
ma modif dans le fichier /boot/etc/grub.conf (je boot sur software RAID Centos que je me suis crée pour l'occasion, a noter que j'ai recopier toutes les data sur les partitions sur md).
#boot=/dev/hda
default=0
timeout=5
splashimage=(hd0,0)/grub/smeserver.xpm.gz
foreground 000000
background 4E95D3
hiddenmenu
title CentOS (2.6.9-55.0.2.ELsmp)
root (hd0,0)
kernel /vmlinuz-2.6.9-55.0.2.ELsmp ro root=LABEL=/
initrd /initrd-2.6.9-55.0.2.ELsmp.img
title Software RAID CentOS (2.6.9-55.0.2.ELsmp)
root (hd0,0)
kernel /vmlinuz-2.6.9-55.0.2.ELsmp ro root=/dev/md3
initrd /initrd-2.6.9-55.0.2.ELsmp.img
Est ce que j'aurais raté quelque chose ? sûrement vu que je me prends un gros kernel panic lorsque je boot sur le software RAID.
Une idée ??