Bonjour a tous,
Voila mon petit SME7.1.3 avec les derniers updrage (affichage de SME7.1.2 bizarre) du jour a son RAID qui a peter
J'utilise 2 disques de 80Go sur hda et hdc en LVM.
si je comprends bien mon disque hdc a un coup dans l'aile!
apres un fdisk -l voici l'etat de ma config:
---------------------------------------------------
Disk /dev/hda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/hda1 * 1 13 104391 fd Linux raid autodetect
/dev/hda2 14 9729 78043770 fd Linux raid autodetect
Disk /dev/hdb: 203.9 GB, 203928109056 bytes
255 heads, 63 sectors/track, 24792 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/hdb doesn't contain a valid partition table
Disk /dev/hdc: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/hdc1 * 1 13 104384+ fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/hdc2 13 9729 78043807 fd Linux raid autodetect
Disk /dev/md2: 79.9 GB, 79916695552 bytes
2 heads, 4 sectors/track, 19510912 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md2 doesn't contain a valid partition table
Disk /dev/md1: 106 MB, 106823680 bytes
2 heads, 4 sectors/track, 26080 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md1 doesn't contain a valid partition table
-------------------------------------------------------------
Le hdb est un 200go qui me sert a faire du backup et ne m'interesse pas dans ce post. (sauf si vous avez des commentaires )
après un cat /proc/mdstat:
-------------------------------------------
Personalities : [raid1]
md1 : active raid1 hda1[0]
104320 blocks [2/1] [U_]
md2 : active raid1 hda2[0]
78043648 blocks [2/1] [U_]
unused devices: <none>
-------------------------------------------
Je peux en conclure que mon RAID n'est pas operationnel et que mon hdc est la cause de mon probleme.
J'utilise donc un nouveaux disque 80Go dont les anciennes partitions sont supprimées avec partition magic et je remplace mon hdc par ce nouveaux disque.
Je redemarre mon serveur,il charge et apres quelques secondes il m'affiche :
Give root password for maintenance (or type Control-D to continue)
Control-D je reboot
password > je rentre mon password et je fais quoi? je commence la reconstruction de mon Raid avec les commandes qui suivent?
Sur une SME6 d'apres mes souvenirs le hda arrivait quand meme a booter mais la rien sauf a taper de la ligne de commande!
Après lecture de ce poste :
http://forums.ixus.fr/viewtopic.php?t=3 ... light=raid
Je suppose que je devrais faire un :
[root@ixus ~]# sfdisk -d /dev/hda > sfdisk_hda.out
[root@ixus ~]# sfdisk /dev/hdc < sfdisk_hda.out
Question au passage, je dois utiliser sfdisk ou fdisk ?et quels est la difference?
ensuite:
[root@ixus ~]# mdadm -a /dev/md1 /dev/hdc1
mdadm: hot added /dev/hdc1
[root@ixus ~]# mdadm -a /dev/md2 /dev/hdc2
mdadm: hot added /dev/hdc2
et la le Raid doit se reconstruire
j'hesite vraiment a faire la manip puisque si je remplace hdc par un disque vierge ou si je l'enleve ma SME ne boot plus et je tombe sur le CONTROL-D donc j'hesite vraiment a faire la manip de peur de planter le serveur!
Autre question je possede des backups mais si je veux faire un ghost je pense que cela ne marche pas en LVM donc il reste mondo archive ou avez vous des solutions style ghost?
Merci d'avance pour vos reponses
Richard
PS: pour ceux qui liront ce post un autre link incontournable:
http://wiki.contribs.org/Raid#Hard_Driv ... 80.93_Raid