Bonjour,
npsystem a écrit:ok, merci, je vais tester cela et je reviens vers vous. Effectivement il faut arriver à saturer le giga, nous avons 24 postes et nous travaillons sur des fichiers très lourds (200 à 700 mo) d'où ce besoin de perf.
J'émets un gros gros doute, là...
Pour réussir à saturer un lien giga, il faut effectivement plusieurs clients (et plutôt 'velus' !) qui sollicitent en même temps le serveur. Pour un fichier de 700 Mo, le taux de transfert unitaire d'une station non optimisé étant de l'ordre (au doigt mouillé) de 300 mb/s, on a donc un transfert en 700 Mo / 300 Mb * ~10 (Un Mo = 8 Mb, plus l'overhead IP) = 18 secondes. Avec 24 utilisateurs, pour saturer le lien, il faut donc que 4 d'entre eux sollicitent la ressource dans les 18 secondes.
Surtout, malgré le montage de 6 disques en Raid 5 (de mémoire), il reste à démonter que le serveur sera en mesure de fournir des données à un débit continu de plus de 125 Mo/s pour pouvoir justifier l'usage d'une aggrégation.
Enfin, une aggrégation en load balancing qui fonctionne ne passe pas par un switch de base
Bref, comme à chaque fois au boulot qu'un SysAdmin me demande une aggrégation de lien, je lui demande de me monter qu'il peut saturer un lien giga...
Je n'en ai qu'un qui y est arrivé (et il a obtenu son aggrégat
) Il s'agit du système qui centralise les sauvegarde via le LAN et qui le renvoie au robot de sauvegarde via le SAN. Là, la machine (qui est fortement couillue en RAM et CPU) n'assure que des I/O en mémoire. Et bien pour monter à 1,5 Go, elle met toutes ses ressources CPU et RAM au tas.
Ce n'est que mon avis
A+,
Pascal