Présentation

  • : Le blog de Décideur Public - Univers Numérique
  • Le blog de Décideur Public - Univers Numérique
  • : Blog d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

2 mars 2012 5 02 /03 /mars /2012 13:30

Les spécialistes du stockage viennent de Mars et ceux du réseau de Vénus ! En dépit des interactions entre ces deux fonctions, chacun parle son propre langage, dispose de ses propres fournisseurs et utilise ses propres indicateurs, ce qui rend la communication quelque peu complexe entre ces deux univers…

Mais l’optimisation WAN est l’élément fonctionnel qui connecte ces deux mondes, puisque la réussite des stratégies de continuité d’activité dépend de l’infrastructure réseau. Le WAN est notamment l’autoroute empruntée par les données pour être dupliquées et stockées à distance, et il s’agit du principal vecteur par lequel des fichiers centralisés sont envoyés ou récupérés par les utilisateurs.

L’optimisation WAN s’assure que cette autoroute reste toujours performante en optimisant les capacités disponibles, palliant ainsi les contraintes de distances et garantissant un acheminement fiable et rapide des paquets. En clair, en améliorant la bande passante grâce à une maîtrise de la latence et de la perte de paquets, l’optimisation WAN devient la clé de voûte de nombre de projets de stockage.

Il existe trois contraintes WAN qui pèsent sur l’efficacité des processus de réplication et de stockage distant, et qui impactent ainsi le RPO (Recovery Point Objective, à savoir la durée maximum d'enregistrement des données qu'il est acceptable de perdre lors d'une défaillance) : la bande passante, les distances (latence) et la qualité du WAN (paquets perdus ou restitués dans le mauvais ordre). La relation qui lie ces trois contraintes est complexe, vu que leur niveau de criticité varie selon l’environnement réseau. À titre d’exemple, Augmenter la bande passante devient inopérant en cas de forte latence due à des distances trop importantes entre les équipements sources et cibles.  De même, la bande passante importe peu si les paquets sont perdus ou fournis de manière non-séquencée compte tenu des phénomènes de congestion, comme c’est souvent le cas au sein des environnements Cloud et MPLS plus économiques, mais de moindre qualité.

L’ensemble de ces trois contraintes doit donc être pris en compte pour optimiser l’efficacité de la réplication de données via un WAN, et donc le RPO. « Network Acceleration » permet de garder la main sur la latence grâce à de multiples techniques d’accélération de protocoles. « Network Integrity » répond également aux problématiques de perte de paquets et permet aux entreprises de prioriser les flux de trafic selon leur criticité. Enfin, « Network Memory » optimise l’utilisation de la bande passante grâce à la compression et la déduplication WAN. Résultat : les données sont plus nombreuses à être envoyées entre les lieux sources et cibles, en moins de temps et sur des distances toujours plus importantes.

 

  • Des opérations transparentes entre data centers. Il est devenu courant de voir des data centers configurés en mode redondant actif/actif. En cas de défaillance d’un data center, l’objectif est de basculer les utilisateurs sur le second data center aussi rapidement que possible. Pour autant, lorsque les data centers sont disséminés géographiquement (ce qui est souvent le cas pour minimiser l’impact d’un sinistre majeur), des performances atones remettent en cause l’utilité d’une telle infrastructure. Il existe de nombreux outils pour migrer en toute transparence les serveurs, espaces de stockage et données entre différents lieux (VMware Vmotion et EMC VPLEX par exemple). Pour autant, si le réseau n’est pas à la hauteur, ces outils n’opéreront pas de manière efficace sur le WAN. De plus, en cas de défaillance de l’un des data centers, certains utilisateurs accéderont au data center secondaire via le WAN, mais l’utilisation de leurs applications et espaces de stockage devient aléatoire si les performances réseau ne sont au rendez-vous. 
  • Une sauvegarde vers tous les lieux, quel que soit le lien WAN. Autrefois, les entreprises se contentaient de sauvegarder leurs données vers des lieux définis, compte tenu des contraintes réseau. Certains acteurs du stockage recommandaient d’ailleurs que les processus de réplication utilisent des réseaux déployés sur de courtes distances, car présentant une latence moindre (inférieure à 80 ms). De plus, la réplication n’était conseillée que via des lignes dédiées, capable d’assurer une fourniture pertinente des paquets. Mais cette contrainte creusait davantage les budgets et exigeait souvent de déployer et de gérer des data centers onéreux et des réseaux dédiés au stockage.
  • Un accès pervasif aux fichiers distants (NAS centralisé). De nombreuses entreprises connaissent des freins dans leur projet de stockage NAS centralisé, puisque l’accès distant à des fichiers centralisés peut se révéler lent et coûteux via le WAN. Les technologies traditionnelles comme le WAFS (Wide Area File Services) sont apparues pour répondre à cette problématique grâce avec la mise en cache des fichiers et à leur gestion à distance. Cependant, ces solutions étaient souvent difficiles à déployer, sujettes à des problématiques de cohérence de données, et considérées comme plus coûteuses que les solutions d’optimisation WAN car ne ciblant que certaines applications seulement (partage de fichiers).
  •  Avec la déduplication de fichiers, l’optimisation WAN a rapidement supplanté le WAFS au cours des années récentes en tant que principal moyen d’activer un accès rapide et fiable vers des fichiers centralisés. La compression des données a également été associée à la QoS, au lissage du trafic, ainsi qu’à des techniques de correction de la latence et de la perte de paquets, pour ainsi répondre à l’ensemble des défis réseau qui ralentissent l’accès à une infrastructure NAS centralisée. Il devient alors possible de déployer des équipements NAS sur des lieux différents, quelle que soit l’envergure du WAN, les distances, ou la qualité du réseau. L’optimisation WAN prend en charge toute perte de trafic et offre un retour sur investissement bien plus important que dans le cas du WAFS, et sans risque de divulgation ou de compromission de données. Ainsi, de nombreux fournisseurs qui mettaient auparavant en avant leurs solutions WAFS, se sont par la suite rétractés et ont retiré leurs produits (Blue Coat, Expand, Riverbed, ou encore Cisco).
  • Maitrise des coûts de télécommunications. Dans de nombreux cas, la bande passante est coûteuse, et augmenter cette bande passante est un mauvais choix. De nombreux fournisseurs d’équipements de stockage ont intégré la compression et la déduplication au sein de leurs solutions de réplication pour répondre à cette problématique. Lorsqu’un réseau n’est dédié qu’aux opérations de stockage, tout fonctionne parfaitement. Mais lorsque le trafic lié au stockage partage le WAN avec d’autres types de trafic (fichier, email, Web, vidéo, etc. ), la déduplication qu’offre l’équipement de stockage est insuffisante et cette fonctionnalité doit également être réalisée au sein du réseau.
  • En intégrant la déduplication au sein du WAN, le trafic non lié au stockage est optimisé, ce qui génère des économies en matière de bande passante, tandis que le processus de sauvegarde des données utilise un réseau convergent, ce qui est moins coûteux. D’où l’intérêt de dédupliquer le trafic au niveau de la couche IP, ce qui consiste à dédupliquer tout ce qui transite par le réseau sur IP, pour ainsi optimiser la bande passante et générer des économies substantielles.

Pascal Caillerez


Partager cet article

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article

commentaires