Solution? 3Raid (R1dm0+R5dm1+R5Dm2) Sme multipart / Symblk

Forum dédié à la distribution du même nom et que vous pourrez télécharger sur http://www.contribs.org. La nouvelle version de cette distribution se nomme SME Server

Modérateur: modos Ixus

Solution? 3Raid (R1dm0+R5dm1+R5Dm2) Sme multipart / Symblk

Messagepar incogito » 22 Août 2008 20:18

Bonjour, nouveau sur ce subforum
= background =====================================
J'utilise depuis plusieurs années Smoothwall + Srvr win2K - Je cherche une solution sur un Pc
Hard,
    * carte Highpoint Pci 1640 Raid5 et je souhaite monter un Raid 5 en plus
    * envisagé carte Pcie (chère + hard dépendant) mais finalement ayant lu pas mal d'articles et après des tests j'ai opté pour du Raid Software sous Linux sur Port Sata2 sur carte mère (4-6 port sata) plus la 1640 (chipset 370 reconnue en simple sata et pas avec son raid
Softs - envisagé
    * VmWare avec Smoothwal/mOnOwall plus un SanSoft FreeNas/OpenFiler - souvent déconseillé même si c'est possible (allocation ressources hard trop sensibles pour un firewall router)
    * solution Soft avec les deux .. et je suis tombé sur Clarkconnect (déjà testé il y a qq années) et SmeServer

Je teste aussi ClarkConnect mais je n'apprécie pas la dégradation de la gestion des multiples droits par user-group (voir mon post sur subforum si utile)

== Nous voilà donc sur SmeServer ==========
très sympa, simple d'utilisation mais performant, complet et efficace - pas mal éprouvé, bien documenté - Délicat - la gestion des maj d'infos sur les contribs fouilli et pas tjrs à jour

J'ai commencé les tests : Même noyau que clarkconnect d'ailleurs (Rhel/centos/linux 2.18)
1) Hardware: sans problème - (Intel chipset)
    * Hpt374 = Highpoint 1640 reconnue en natif (soit 4 port sata) pour la fonction Soft Raid - n'utiliserai pas le chipset xor de la carte et sa gestion Raid intégré (sources driver open dispo à recomplier)
    * Hpt370 (une carte pci IDE 2 port 4 disk)
    * Via Sata card pour tester du Sata Raid
    * 2 cartes Eth
2) Soft
    * Admin, Config, maj .. Ok
    * Ibay bien .. User/group ... Ok ...
    * installe d'une petite 10 de contribs ... un peu galère (info dissonante, pas toujours à jour etc. ..
    * test d'utilisation (droits, organisation) et de performance sur le réseau en Groupe/domaine Windows

J'en arrive à mon problème principal et il me semble unique avec SmeServer
Rappel de mon Organisation
- 1 puis 2 Disk Ide (1 seul port Ide) en Raid 1 pour installer SmeServer
- Raid5 dm1 4 port sata sur carte mère
- Raid5 dm2 4 port sata sur 1640

L'idée est bien sûr de séparer
- Système
- Data avec "/home/e-smith/files" des "ibays/"
*remarque bien expliqué dans le Bug 1362 - on peut pas séparer "/home" à ce niveau pour des problèmes d'intégrité de démarrage cohérence en cas de problème ou montage Disk sur lequel il est monté

J'ajoute que mes users en réseau local doivent pouvoir voir différents partage (voisinage réseau ...)
/support / Shared /Mediatek /Bibliotek etc... qui sont répartis sur les deux Raid

J'ai vu ces solutions - Confirmer, infirmer, corriger - je vous en suis reconnaissant
S1)- ajouter un Raid + créer ibay + mount disk + manip sur déplacement "ibay"
S2)- version 7.2-7.3 - "sme partition" http://bugs.contribs.org/show_bug.cgi?id=1362
S3)- version 7.3 - à l'installation (F2 Options) il ya maintenant "sme multipart" AUCUNE DOC ???

Solution S1) Addisk+Transfert iBay & Symbolink
AddDisk Raid ou pas peu importe http://wiki.contribs.org/AddExtraHardDisk
1) définir un disk seul ou issu de la création d'un raid
2) créer un Ibay "test" qui donnera "/home/e-smith/files/test"
3) puis deux solutions sont possibles

>> 3a (mount disk sur "/home/e-smith/files/ibays/test" se subsitue à ce qu'il y a
- mount RaidDiskDisk /temp/test (mount temporaire pour déplacer ibays/test avant mount définitif)
- y déplacer "/home/e-smith/files/ibays/test"
- dismount Disk /temp/test
- mount RaidDisk "/home/e-smith/files/ibays/test"
- ne pas oublier de l'ajouter dans le fstab

>> ou 3b (Symblink)
- mount RaidDisk /Data définitif donc ajouter dans fstab
- copy "/home/e-smith/files/ibays/test"
- ln -s /tmp/test /home/e-smith/files/ibays/test/ /Data/test >>> donc quand on va sans cet Ibay en fait le symblink nous redirige sur /Data/test

Seule la solution 3B présente l'avantage de la souplesse pour mon besoin




1) déclarer autant d'iBay que de partage vus sur réseau "/support / Shared /Mediatek /Bibliotek etc... "
2) soit répartir à ma guise les Ibays sur les 2 Raid5 ou alors installer un LVM pour les 2 Raid5

Solution S2) sme partition
"sme partition" existe TOUJOURS en 73. et donne accès à "Disk Druid"
http://www.redhat.com/docs/manuals/enterprise/#RHEL5.2
http://www.redhat.com/docs/en-US/Red_Ha ... g-x86.html

Cela veut dire que l'on doit déclarer toutes les partitions nécessaires au système. Reste le problème de savoir comment partitionner correctement pour être conforme à SmeServer
Quelles partitions, Taille mini, type etc ....
... et c'est ce que fait "sme multipart" mais automatiquement, ou du moins il fait de son mieux mais qui nous donne donc aussi les indications sur le partitionnement nécessaire pour SmeServer

Solution S3) sme multipart
(à ne pas confondre avec le multipart des mails)
Je l'ai découverte grâce à ma curiosité à l'installation (F2 Options) au premier écran
Il installe et active LVM pour gérer Multipart.
LVM - http://fr.wikipedia.org/wiki/LVM
http://www.redhat.com/docs/en-US/Red_Ha ... index.html

Selon mes tests et lectures "multipart" se charge de :
    - fct1) prends en compte les devices présents et tente d'installer du Raid0 (1 disk), Raid1 (2 disk), Raid5 (=3 disk) (raid6 ??) selon le nombre de disk et essaye aussi d'imposer un "Disk spare"
    - fct2) Crée plusieurs partitions pour "/"(root) "/temp" "/root" "/var" "swap" & "/home/e-smith/files/ibays"
    - fct3) tentera de mettre en place un Raid à chaque redémarrage et dès qu'il trouve un disk libre
Ceci dit, il fait ce qu'il peut .. on va le voir dans les tests dessous

Le problème est que je ne vois pas d"explication et d'information Seules références :


Je serai ravi d'avoir vos opinions et commentaires, infos etc .. sur tout celà
merci d'avance - Je continue les tests et mettrai les infos
Dernière édition par incogito le 24 Août 2008 09:15, édité 9 fois au total.
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar incogito » 22 Août 2008 20:42

SmeServer version 4.3 - Options de démarrage

Au démarrage - Premier écran avec ligne de commande (clavier qwerty):
L'écran propose plusieurs options et des indications et/ou des choix avec les touches F1-F2-F3-F4-F5
pour ligne de commande = "sme" pour i386 / "smei586" pour processeur 586

Options
    "sme noraid" Skip soft raid
    "sme raid1" force install SmeServer en Raid1
    "sme nolvm" désactive l'utilisation de LVM
    "sme nospare" Installer du Raid avec >=3disk sans prendre de disk Spare
    "sme dd" pour utiliser un "driver disk"
    "sme rescue" problème de boot du système à résoudre - nécessite de démarrer soit du Cd ou Floppy
    option "sme xxx noprobe" pour désactiver la détection automatique du Hardware durant l'installation
    "sme partition" permet d'accéder au partitionnement à faire manuellement avec "Disk Druid"
    "sme multipart" installation sur de multiples partitions (voir ci-après)

Il est aussi possible de passer des arguments au Kernel Linux (voir F4)

Info - "sme multipart nospare" ne tiend pas compte du nospare selon mon test

Observations sur mes tests
- j'ai déjà installé 7.3 en mode normal sans raid sans prob
- dispose pour test de 4disks = (1disk30G) (2disk 160g) (1 disk110G)
- Test avec 1 dsk 110G (à chaque démarrage tente de monter un raid1 ou de trouver un spare)
- fais un test avec (2disk 160g) pour Raid1 - Okay

http://wiki.contribs.org/Raid Plus "Référence à 4.3. Hard Drive Configuration" http://wiki.contribs.org/SME_Server:Doc ... figuration
SME Server 7 introduces a new feature - Automatic configuration of Software RAID 1, 5 or 6. RAID is a way of storing data on more than one hard drive at once, so that if one drive fails, the system will still function. In the case of RAID 6, two drives can fail and the system will still function. We highly recommend that at a minimum you utilize 2 identical drives in your sytem to take advantage of the redundancy provided by the RAID configuration. Your server will be automatically configured as follows:
* 1 Drive - Software RAID 1 (ready to accept a second drive).
* 2 Drives - Software RAID 1
* 3-5 Drives - Software RAID 5 (4-5 drives with SME 7.1)
* 6+ Drives - Software RAID 6

"sme multipart"
1- Pour chaque device (disk) il crée une
- partition SystRaid1 (pour "/boot") de 101m sur tous les devices hda1, hdb1 ... sda1 etc ..
- partition SystRaid2 pour le reste de la place libre sur tous les devices hda2, hdb2 ... sda etc ..
2 - création des Raid md1 et md2
- Crée un Raid md1 de 101m en ext3 "/boot" pour tous les devices hda1, hdb1 ... sda1 etc ..
- Crée un Raid md2 normalement en prenant tous les hda2, hdb2 ... sda etc ..
- md2 est déclaré en Volume Group "physical VG" nommé "VG Main" volume groupe Main
3 - création des LV logical Volume sur "VG Main"
- LV root ext3 "/"
- LV Swap "/swap"

Pour l'instant je n'ai que cela car avec mes 4 disques de taille différents, c'est devenu le chaos
Prends la taille la plus petite pour le raid5-6 - http://bugs.contribs.org/show_bug.cgi?id=313

Analyse sur le choix d'implémentation : avec séparation Disk SmeServer et Disk Data
-- Raid0-1 - préfère disques de même capacité,
-- Raid5-6 - si disk taille différnets c'est le Bordel c'est le bordel
de plus selon le nbre de disques présent à l'installation
-- 1-2 disks pas de prob pour Raid0-R1
-- plus de 3 disks il va automatiquement faire du raid5 - il ne semble pas capable de prendre 2 disks pour Smeservr et les autres avec un autre raid pour "/home/..."

Reste à tester "sme multipart raid1" qui permettrait de forcer raid1 pour Smeserver mais je crois qu'il ne prend pas en compte de multiple arguments et ne saura pas comment gérer les autres disks

pas fini les test .. donc à suivre



Etapes suivies pour "sme multipart"
> sme multipart
"running anaconda" - regarde si système déjà existant
"Install (erase all disks) OR upgrade"
Si "sme partition" alors "Disk Druid"
Si "sme multipart" alors partitions et déclarations "/"(root) "/temp" "/root" "/var" "swap" & "/home/e-smith/files/ibays" Plus LVM

Test Upgrade : Il voit les disques supplémentaires mais ne propose pas de re-partitions
cela semble logique qu'il ne soit pas en mesure de savoir ou proposer quoi faire des répertoires et partitions et de déplacement de répertoire sur de nouvelles partitions -- fin de test avec upgrade --
Dernière édition par incogito le 24 Août 2008 09:17, édité 7 fois au total.
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar incogito » 23 Août 2008 10:13

Test Sme "multipart" sur un Disque Raid0
Maxtor 28G
id: disk
bus info: ide@0.0
logical name: /dev/hda
========================
id: volume:0
description: EXT3 volume
physical id: 1
bus info: ide@0.0,1
logical name: /dev/hda1
size: 101MiB
capacity: 101MiB
capabilities: primary bootable multi journaled extended_attributes large_files huge_files recover ext3 ext2 initialized
filesystem = ext3
========================
id: volume:1
description: Linux raid autodetect partition
physical id: 2
bus info: ide@0.0,2
logical name: /dev/hda2
size: 28GiB
capacity: 28GiB
capabilities: primary multi lvm2


Filesystem.....................Size Used Avail Use% Mounted on
/dev/mapper/main-root 4.0G 1.1G 2.7G 28% /
/dev/md1 99M 13M 81M 14% /boot
none 506M 0 506M 0% /dev/shm
/dev/mapper/main-files 7.9G 51M 7.5G 1% /home/e-smith/files
/dev/mapper/main-tmp 4.0G 41M 3.7G 2% /tmp
/dev/mapper/main-var 4.0G 316M 3.5G 9% /var

I-bays Utilisation Chemin
Primary 20K /home/e-smith/files/ibays/Primary
opt 2.4M /opt

Utilisateurs Utilisation Chemin
root 80K /root

Test Sme "multipart" sur 2 Disques Raid1 à venir
Dernière édition par incogito le 23 Août 2008 20:49, édité 1 fois au total.
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar incogito » 23 Août 2008 20:37

*** reservé pour addendum - merci
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar jdh » 23 Août 2008 20:42

A quoi cela sert il ?
Avatar de l’utilisateur
jdh
Amiral
Amiral
 
Messages: 4741
Inscrit le: 29 Déc 2002 01:00
Localisation: Nantes

Messagepar incogito » 23 Août 2008 20:55

ah, merci de réagir .. A deux choses, si j'ai bien compris :
1- gérer automatiquement une configuration avec du Raid 1-5-6?
2- permettre de rattacher une ou plusieurs des partitions ainsi crée automatiquement sur un disque/ou/raid ajouté à la configuration initiale - par exemple tous les ibays "/home/e-smith/files" contenant des données

les raisons apparaissent dans la discussion du * Bug 1362 "Disk layout - separate /home and /tmp partitions/volumes" http://bugs.contribs.org/show_bug.cgi?id=1362
merci
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar jdh » 23 Août 2008 21:25

Je ne pose pas la question comme ça !

A quoi cela sert-il ?


Le temps où il fallait créer "plein" de partitions est révolu ! Le temps où le swap devait faire "2 fois la mémoire" est dépassé quand on a 1 G de mémoire.

On peut considérer 3 zones de la façon suivante :

- systeme : /, /boot, /bin, /etc, /lib, /usr : à peu près stable (un /boot de 101M : les miens ne dépassent jamais 8M !).
- temp ou assimilé : /tmp, /var : augmente avec les logs
- données : /home : évolue au fil des besoins des utilisateurs

Les 2 premières ne devrait pas excéder 4-5 G, et encore c'est un très grand maximum pour un serveur !

Aussi, aujourd'hui, je ne vois pas quel intérêt de créer plus de 2 partitions (en sus du swap). (C'est d'ailleurs ce que fait SME par défaut ?)


En plus, sur un fil récent on notait que mdadm ne pouvait agrandir les partitions (pas la version nécessaire) ... (Que fait-on quand une partition d'un découpage en 10 finit par se remplir ?)


En fait, je voulais écrire "A quoi cela sert il ? ... puisque cela ne sert à rien !".

Au moins j'aurais voulu voir un essai de justification ...


NB : Plus jeune, je croyais dur comme fer au raid hardware. Aujourd'hui, je préfère le raid software ... Le couple LVM (qui vient d'Aix) / Raid avec un mdadm récent (aka permettant d'agrandir) offre la puissance et la souplesse nécessaire. Le risque de se trouver avec des disques ophelins si la carte Raid hardware casse n'est pas nul ...

NB2 : Plus jeune, je croyais qu'il fallait du Raid 1 pour le système et du Raid 5 pour les données. Puis quand on réfléchit à la perte de capacité, même il y a 5 ans : 5 disques (SCSI à 15000t) avec 2 en Raid 1 et 3 en Raid 5, cela fait 2 disques non disponibles ! Et puis pourquoi donner 36G à C: et 72G à D: ? Le plus simple et sans doute le mieux : un array de 5 disques en Raid 5 et on partitionne où on veut ...
Avatar de l’utilisateur
jdh
Amiral
Amiral
 
Messages: 4741
Inscrit le: 29 Déc 2002 01:00
Localisation: Nantes

Messagepar incogito » 24 Août 2008 05:33

cher amiral

1) c'est pas moi qui décide de la manière de partitionner
2) avez-vous lu la description de mes besoins ?
3) avez-vous vraiement lu le Bug 1362 "Disk layout - separate /home and /tmp partitions/volumes" http://bugs.contribs.org/show_bug.cgi?id=1362 - Il y est expliqué que séparer "/home" n'est pas la bonne idée et les multiples raisons de ce partitionnement

Pour ma part

A- 1 disk (ancien 30/60g ) pour le syst/application si j'en ai deux qui servent à rien pourquoi pas raid1 - d'autant que je remplace deux Pc (smoothwall + win2k) par une donc sensible - je me fiche de /tmp, /swap et /Var bien suffisant en effet

B- je tiens impérativement à séparer les DATA - ici "/home/e-smith/files" pour de multiples raisons
- tous les 2/3 ans, j'ai des changemetns importatns de configurations - disques, systèmes réseaux etc...
- je veux détacher les raid (j'ai deux raid5) quand j'install ou upgrade le matériel ou tout autres choses
- il n'est pas dit que je reste toujours sur Smeserver - je peux passer sur d'autres solutions

C- dans Bug1362 - il est aussi expliqué comment agrandir les partitions avec LVM - pour ma part je n'utiliserai pas LVM au-dessus de mes deux raid5 - et c'est d'ailleurs un prob pour ma config avec "sme multiraid" - cela voudrai dire que j'ai un Lvm "main-files" avec un merge des 2 raid5 - je préfère choisir quoi mettre dans 2 raid5 et garder leur indépendance - de plus mon raid5-1 est sur les 4 ports sata de la carte mère en sata-2 et le raid5-2 est sur les 4 port Sata-1 de la 1640
Donc d'accord sur mdm et oui agrandir par Lvm sauf que cette solution ne répond pas à mon besoin.

On trouve ici une explication pour agrandir avec 2 disk mis en Raid (cela pourrait être un raid5) et en ajoutant ce raid supp au VG Main - en utilisant le syst LVM de multipart
"How-To extend the SME root file system using two Raid1 HDDs" http://forums.contribs.org/index.php?topic=39564.0

Globalement la solution "sme multipart" permet d'agrandir facilement "VG Main" et de déclarer facilement des LVM que l'on peut attribuer aux iBays mais c'est pas ce que je cherche
Car le problème est que les partitions sur "/home/e-smith/files" sont des lvm partitions logiques découpées sur "VG main" qui est la concaténation logiques de tous les PV (physical volume = raids et disks) montés sur les Disk physiques
== Lvm - partition logique découpées sur le Vg main (/
............. /dev/mapper/main-root = "/"
............. /dev/mapper/main-files = "/home/e-smith/files"
............. /dev/mapper/main-tmp = " /tmp"
............. /dev/mapper/main-var "/var"
== "Vg Main" Volume group consolidant des PV (phyical volume) et sur lequel sont découpés les Lvm
............. md2 est déclaré comme "VG Main"
== "PV md2" = Raid 0-1-5-6 créés sur les Disk dispos

ps - si vous me lisez bien - j'utilise une carte raid (164) que j'ai déjà mais pas sa fonction raid - donc j'ai bien choisi un "raid soft) et utilise 4 port sata fournie par la carte 1640


En plus, sur un fil récent on notait que mdadm ne pouvait agrandir les partitions (pas la version nécessaire) .
Pour mdm et agrandissement - voir http://forums.contribs.org/index.php?topic=33738.0

Enfin, "l'ancien" (vous insistez bcp dessus) et amiral respectable, - surtout- voici l'occasion de me donner votre conseil de solution pour mon besoin - que je sollicite avec plaisir
solution S1 ? à la classique
solution S2 ? à la main (sme partition) sans lvm - 2*raid5 donc 2 mount manuels
solution S3 ? multipart avec Lvm moderne ?

merci ..

ps - LV: logical volume, VG: volume group, PV: physical volume, fs: file system
incogito
Matelot
Matelot
 
Messages: 8
Inscrit le: 21 Août 2008 13:00

Messagepar jdh » 24 Août 2008 09:27

C'est mieux. Mais je vois là plutôt un contexte technique du à l'augmentation du nombre de disques (l'alim va-t-elle suivre ?)

Ma réflexion est sur le fond du partitionnement. Les pratiques des années 70 et 80 ne sont plus justifiées.

Le swap à "2x mémoire" valable avec 64M ou 128M, devient stupide avec 1G ou 2G. D'autant que cela répond(ait) au besoin de dépassement exceptionnel très occasionnel.

Aujourd'hui 3 (types de) partitions sont nécessaires
- le swap : il en faut un petit peu; je lis sur le rapport de bug toujours cette vielle règle "2x mémoire" !
- le système : inclure les logs de /var/log
- les données :

Les 2 premières partitions ne devrait pas dépasser quelques gigas, les données occupant le reste de l'espace disponible. Ca c'est pour l'espace.

SME est une distribution "tout en un", qui intègre donc le partionnement. (SME prévoit d'être seul et déclare que toutes les données seront détruites).

Cette approche est pragmatique et adaptée à la nature de ceux qui démarrent avec une distribution Linux. Mais cela pose des difficultés quand on veut changer les disques (nombre ou taille).

Ce qui serait bien, ce serait un mode spécial ligne de commandes avec fdisk, mdadm, les commandes lvm, suivi du lancement de l'installation. Mais cela serait peut-être contraire avec l'esprit.

Ce que je regrette c'est le "multipart" qui n'a plus aucun intérêt. Par contre, ton lien sur LVM montre très bien son grand intérêt (c'est un très bon apport d'Aix d'IBM) soit pour ajouter des disques soit maintenir de multiples partitions. LVM est, et tu le notes, idéal quand on ajoute des "blocs" de disques.

Je crois qu'il faut être raisonnable : pas trop de disques (l'alim va-t-elle suivre), 3 partitions et un raid simple. Par exemple 2 disques de 750G sata (raid 1) ou 3 disques de 500G sata (raid 5) c'est déjà pas mal (et tant pis pour les anciens disques : les disques neufs sont aussi plus performants).

NB :
- 2 disques de 30G (système) + 2 disques de 500G (données) ? trop de disques ! => 2 disques de 500G


(Question perverse : quelle sauvegarde ?)
Avatar de l’utilisateur
jdh
Amiral
Amiral
 
Messages: 4741
Inscrit le: 29 Déc 2002 01:00
Localisation: Nantes


Retour vers E-Smith / SME Server

Qui est en ligne ?

Utilisateur(s) parcourant actuellement ce forum : Google [Bot] et 1 invité

cron