Utilser plusieurs cartes Réseau pour un meilleur débit

Forum dédié à la distribution du même nom et que vous pourrez télécharger sur http://www.contribs.org. La nouvelle version de cette distribution se nomme SME Server

Modérateur: modos Ixus

Utilser plusieurs cartes Réseau pour un meilleur débit

Messagepar npsystem » 10 Fév 2010 13:38

Bonjour,

Je souhaite monter une nouvelle config SME 7.3 :

Proc : intel 7400
Mobo: Asus P5QL pro
ram: 4go
disk: 6x 2to
réseau : 3x Netgear GA311
mode : serveur only
raid 5 (sme)

L'idée est d'avoir un serveur de fichier très rapide. Je souhaiterais pouvoir profiter de 2 ou 3 cartes GA311 afin de mutualiser leurs performance et avoir des débits plus performants. L'idée est donc d'avoir un bridge de ces trois cartes Est ce possible ?

Pour information j'ai trouvé cette solution http://www.sonoracomm.com/support/18-su ... e-alias-ip mais je ne suis pas sur qu'elle réponde à mon besoin !
npsystem
Quartier Maître
Quartier Maître
 
Messages: 15
Inscrit le: 10 Fév 2009 22:41

Re: Utilser plusieurs cartes Réseau pour un meilleur débit

Messagepar HP77 » 10 Fév 2010 14:28

Bonsoir,

npsystem a écrit:... Je souhaite monter une nouvelle config SME 7.3 :

Tant qu'à faire du neuf, SME 7.4 est la version (stable) la plus récente...

npsystem a écrit:L'idée est d'avoir un serveur de fichier très rapide. Je souhaiterais pouvoir profiter de 2 ou 3 cartes GA311 afin de mutualiser leurs performance et avoir des débits plus performants. L'idée est donc d'avoir un bridge de ces trois cartes Est ce possible ?

Pas impossible, on appelle ça le "bonding" (attachement) et il semblerait bien que SME (7.4) possède déjà quelque chose à ce sujet dans ses fichiers de configuration.
Maintenant, à savoir comment ça marche, je n'ai pas encore trouvé réponse à cette question (cf. cette discussion : SME 7.4 + contrib ddclient = interface "bond0" !!?).

Si jamais vous trouvez des infos utiles là-dessus, et davantage pour SME, n'hésitez pas à en part ici. :wink:

Juste une remarque au passage, le réseau peut être un "goulot d'étranglement" mais un il n'est pas le seul car les disques aussi ont leurs mots (maux? :P ) à dire...
Et le contrôleur disque, la bande passante des bus véhiculant les données, etc...

Je dirais seulement ceci : "avant d'installer plusieurs cartes réseau gigabit, il faudrait déjà voir si on arrive déjà à en saturer une seule" (en reprenant les dires d'un membre très actif du forum) :wink:

Sur ce, bonne soirée !

Salutations,
HP
HP77
Contre-Amiral
Contre-Amiral
 
Messages: 491
Inscrit le: 25 Nov 2009 06:44
Localisation: Singapour

Messagepar Gaston » 10 Fév 2010 16:34

Bonjour,
[EDIT] cette info est erronée , cf ci-dessous [/EDIT]
SME n'est pas fait pour utiliser plus de d'une interface réseau en mode server-only.
Sinon si tu veux jouer, c'est effectivement le terme "bonding" qu'il faut utiliser dans Google

G.
Dernière édition par Gaston le 12 Fév 2010 16:11, édité 1 fois au total.
Avatar de l’utilisateur
Gaston
Amiral
Amiral
 
Messages: 1367
Inscrit le: 06 Oct 2003 00:00
Localisation: Saint Maur, 94 FR

Messagepar jdh » 10 Fév 2010 17:26

Sous Linux, associer plusieurs cartes réseaux s'appelle bien "bonding". (Sous Windows, on parle de "teaming" qui a sa logique aussi).

Il y a plusieurs modes de fonctionnement du "bonding" impliquant ou non le switch.

cf http://linux.developpez.com/bonding/


Il n'est pas forcément souhaitable de bricoler sa config puisque SME est un "tout". A fortiori dans la version server+gateway puisqu'il y a un script firewall qui se base peut-être sur eth0/eth1 ...

(Je n'ai d'ailleurs pas compris pourquoi peut apparaitre "bond0" dans une SME : de mon point de vue, il faut créer cela volontairement)
Avatar de l’utilisateur
jdh
Amiral
Amiral
 
Messages: 4741
Inscrit le: 29 Déc 2002 01:00
Localisation: Nantes

Messagepar npsystem » 11 Fév 2010 15:12

ok, merci, je vais tester cela et je reviens vers vous. Effectivement il faut arriver à saturer le giga, nous avons 24 postes et nous travaillons sur des fichiers très lourds (200 à 700 mo) d'où ce besoin de perf.
npsystem
Quartier Maître
Quartier Maître
 
Messages: 15
Inscrit le: 10 Fév 2009 22:41

Messagepar npsystem » 11 Fév 2010 16:27

Le site http://smeserver.fr/console.php indique ceci :
Si vous avez sélectionné le mode de fonctionnement serveur uniquement et que vous disposez de deux cartes réseau identiques, vous avez la possibilité de les utiliser conjointement, afin de doubler le débit de votre serveur.
Notez que les deux cartes réseau doivent être connectées au moins à un équipement de niveau 2 (commutateur, ou switch), et dans l'idéal, à deux switchs d'un même VLAN.

C'est exactement ce que souhaiterais faire mais néanmoins la console ne me le propose pas !! Pour info je ne suis connecté qu'a un seul switch de base.
npsystem
Quartier Maître
Quartier Maître
 
Messages: 15
Inscrit le: 10 Fév 2009 22:41

Messagepar jdh » 11 Fév 2010 18:11

Je ne suis pas spécialiste SME mais je doute de cette affirmation.

Parce que, sur le lien que j'indique, on décrit ce qu'il faut faire pour y arriver (sans condition de "cartes identiques"). Et il me parait difficile de créer un script qui commencerais par tester si 2 cartes sont présentes et identiques pour ensuite faire tout cela ...

L'espoir fait vivre dit-on ... Cela doit pouvoir être rapidement testé dans un contexte virtuel avec présentation de 2 cartes de même modèle et choix install en "server only" ...
Avatar de l’utilisateur
jdh
Amiral
Amiral
 
Messages: 4741
Inscrit le: 29 Déc 2002 01:00
Localisation: Nantes

Messagepar sibsib » 11 Fév 2010 22:22

Bonjour,

npsystem a écrit:ok, merci, je vais tester cela et je reviens vers vous. Effectivement il faut arriver à saturer le giga, nous avons 24 postes et nous travaillons sur des fichiers très lourds (200 à 700 mo) d'où ce besoin de perf.


J'émets un gros gros doute, là...

Pour réussir à saturer un lien giga, il faut effectivement plusieurs clients (et plutôt 'velus' !) qui sollicitent en même temps le serveur. Pour un fichier de 700 Mo, le taux de transfert unitaire d'une station non optimisé étant de l'ordre (au doigt mouillé) de 300 mb/s, on a donc un transfert en 700 Mo / 300 Mb * ~10 (Un Mo = 8 Mb, plus l'overhead IP) = 18 secondes. Avec 24 utilisateurs, pour saturer le lien, il faut donc que 4 d'entre eux sollicitent la ressource dans les 18 secondes.

Surtout, malgré le montage de 6 disques en Raid 5 (de mémoire), il reste à démonter que le serveur sera en mesure de fournir des données à un débit continu de plus de 125 Mo/s pour pouvoir justifier l'usage d'une aggrégation.

Enfin, une aggrégation en load balancing qui fonctionne ne passe pas par un switch de base :-)

Bref, comme à chaque fois au boulot qu'un SysAdmin me demande une aggrégation de lien, je lui demande de me monter qu'il peut saturer un lien giga...

Je n'en ai qu'un qui y est arrivé (et il a obtenu son aggrégat :) ) Il s'agit du système qui centralise les sauvegarde via le LAN et qui le renvoie au robot de sauvegarde via le SAN. Là, la machine (qui est fortement couillue en RAM et CPU) n'assure que des I/O en mémoire. Et bien pour monter à 1,5 Go, elle met toutes ses ressources CPU et RAM au tas.

Ce n'est que mon avis :-)

A+,
Pascal
Sibsib, admin heureux d'un petit SME !!!
- SME 8.0 beta 6 dans une VM :-)
- ESXI 4.1 sur hardware noname
Ma petite page sur SME
Avatar de l’utilisateur
sibsib
Amiral
Amiral
 
Messages: 2368
Inscrit le: 11 Mai 2002 00:00
Localisation: France - région parisienne

Messagepar Gaston » 12 Fév 2010 17:57

Bonjour,
je corrige mon information fausse donnée plus haut
npsystem a écrit:la console ne me le propose pas
ben si :oops:


Sur serveur SME7.4 (j'ai pas vérifié pour SME8)
Quel que soit la configuration, l'interface "bond0" est créée (présence de fichier de conf dans /etc/sysconfig/network-scripts ) mais non activée au boot (onboot = no)
Dans une configuration server-only, en cas de présence de deux interfaces réseau, via la console d'administration, on est sollicité pour générer la configuration de bonding, et cela se fait tout seul ....

SME server Only 1 carte réseau
Code: Tout sélectionner
[root@sme ~]# /sbin/ip -o link show
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue \    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop \    link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
4: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP> mtu 1500 qdisc pfifo_fast qlen 1000\    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff

SME server Only 2 cartes réseau sans bonding
Code: Tout sélectionner
[root@sme ~]# /sbin/ip -o link show
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue \    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop \    link/ether 00:00:00:00:00:00 brd ff:ff:ff:ff:ff:ff
6: eth0: <BROADCAST,MULTICAST,ALLMULTI,UP> mtu 1500 qdisc pfifo_fast qlen 1000\    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff
7: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop qlen 1000\    link/ether 00:0c:29:e8:10:57 brd ff:ff:ff:ff:ff:ff

SME server Oly 2 cartes réseau + bonding
Code: Tout sélectionner
[root@sme ~]# /sbin/ip -o link show
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue \    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5: bond0: <BROADCAST,MULTICAST,ALLMULTI,MASTER,UP> mtu 1500 qdisc noqueue \    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff
6: eth0: <BROADCAST,MULTICAST,SLAVE,UP> mtu 1500 qdisc pfifo_fast master bond0 qlen 1000\    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff
7: eth1: <BROADCAST,MULTICAST,SLAVE,UP> mtu 1500 qdisc pfifo_fast master bond0 qlen 1000\    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff
8: eth0.4094: <BROADCAST,MULTICAST,SLAVE> mtu 1500 qdisc noop \    link/ether 00:0c:29:e8:10:43 brd ff:ff:ff:ff:ff:ff
[root@sme ~]#


G.
Avatar de l’utilisateur
Gaston
Amiral
Amiral
 
Messages: 1367
Inscrit le: 06 Oct 2003 00:00
Localisation: Saint Maur, 94 FR

Messagepar Titofe » 12 Fév 2010 20:30

Je confirme pour 'Serveur Seulement', je l'ai utiliser pendant 1 an sur un serveur qui avait deux carte 100M.
Avatar de l’utilisateur
Titofe
Vice-Amiral
Vice-Amiral
 
Messages: 599
Inscrit le: 13 Sep 2006 17:02

Messagepar Franky05 » 04 Mars 2010 01:28

Bonsoir,

Je confirme, si présence de deux cartes réseau dans la machine la console propose l'activation du bonding lors de l'installation du serveur. Le mode de bonding proposé est le mode 1 à savoir l'active-backup. Ce mode fonctionne parfaitement mais ça coince (.......enfin je coince) lors de tests avec le mode 0. J'ai remplacé active-backup par, successivement, balance-rr et 0 mais dans les deux cas, je perds le réseau plus rien ne fonctionne. Dois-je mettre round-robin à la place ? Ou cela vient-il tout simplement du fait que mes cartes sont reliées à un seul et simple switch (non manageable et qui ne gère pas le port trunking) ?

Cordialement.

Frank.
Franky05
Aspirant
Aspirant
 
Messages: 117
Inscrit le: 25 Mars 2008 08:13


Retour vers E-Smith / SME Server

Qui est en ligne ?

Utilisateur(s) parcourant actuellement ce forum : Google [Bot] et 1 invité

cron