Syndication

  • Flux RSS des articles

Partager

Twitter

Viadeo

LinkedIn

Décideur Public - Systèmes d'Information sur LinkedIn

Facebook

Mardi 3 avril 2012 2 03 /04 /Avr /2012 15:40

Le Big Data est un phénomène récent, particulièrement sous le feu de l’actualité ces derniers mois. Au-delà de l’effet de buzz véhiculé par les différents éditeurs pour promouvoir leurs solutions, on peut pour mieux comprendre ses enjeux s’attarder à cerner les concepts sous-jacents du Big Data.

 

Par Big Data, il faut entendre de notre point de vue trois concepts liés :

  • La capacité à adresser et stocker de fortes volumétries de données, qu’elles soient structurées ou non structurées,
  • L’interaction avec les nombreuses sources d’informations extérieures à l’entreprise et non maîtrisée par elle,
  • L’analyse de l’ensemble de ce nouveau capital informationnel.

La capacité à adresser et stocker de fortes volumétries de données (à la fois structurées et non structurées), difficilement exploitables avec des solutions classiques de gestion de bases de données, est le premier objectif du Big Data. Que cela soit à des fins transactionnelles ou décisionnelles, les entreprises sont de plus en plus confrontées à cette problématique de croissance exponentielle de la donnée à exploiter. Les premiers à avoir dû trouver des solutions ont été les acteurs historiques du Web (Yahoo, Google…) puis tous les acteurs du e-commerce (e-Bay, Amazon…) et des réseaux sociaux (Facebook, Linkedin…).

 

Pour traiter ces gros volumes de données, les éditeurs se sont tournés vers les appliances, c’est-à-dire la combinatoire entre du « hard » (le matériel) et du « soft » (le logiciel) à l’image de Teradata, acteur historique dans ce domaine. On peut citer dans sa lignée les solutions Exadata pour Oracle, GreenPlum pour EMC², Netezza pour IBM, Fast-track pour Microsoft, HANA pour SAP… 

 

De nombreuses études montrent que les sources d’informations internes à l’entreprise ne sont plus suffisantes pour pouvoir appréhender de manière adéquate un sujet majeur comme la connaissance client. En effet, de plus en plus de données sont stockées en dehors des Systèmes d’Information de l’entreprise, par des acteurs tiers, qui détiennent ainsi des informations capitales pour la bonne compréhension de ses enjeux. De plus, le web des objets (web 4.0) va aussi contribuer à fournir une masse d’informations au fil de l’eau pour les entreprises, par exemple les compteurs Linky pour ERDF. Toutes les données provenant des médias sociaux, des capteurs intelligents, sont donc de nouvelles sources de données importantes à prendre en compte, avec la particularité qu’elles peuvent être structurées et non structurées et qu’elles doivent être captées en continu. Sur ce segment, les acteurs traditionnels du monde ETL (Informatica, Datastage, Talend, ODI…) se positionnent via le couplage à des web services. 

 

Arriver à capter toute cette masse d’informations interne et externe à l’entreprise n’a de sens que si l’analyse de ce nouveau capital informationnel est possible. La Business Intelligence (BI) classique n’est plus un moyen suffisant car elle impose :

  • De disposer de données structurées et organisées, de devoir parfois connaître a priori les types d’analyse que l’on souhaite mettre en œuvre pour pouvoir modéliser correctement son entrepôt de données (ou Data Warehouse),
  • De pouvoir intégrer des volumes de plus en plus importants de données, dans des délais de plus en plus courts, en respectant la structuration des différents modèles de stockage. 

C’est là tout l’enjeu du Big Data : les données stockées, en plus d’être à très fortes volumétries, sont hétérogènes en terme de contenant (format structuré et non structuré) mais surtout de contenu. Les informations provenant des réseaux sociaux par exemple possèdent un contenu non prédictible, pouvant toucher aussi bien la connaissance client que la « e-réputation ». Ainsi, l’entreprise doit faire face à deux écueils pour l’exploitation de ces données à des fins d’analyse :

  • La très grosse volumétrie d’informations structurées et non structurées à prendre en compte,
  • La non-connaissance a priori du contenu de l’information à analyser. 

Pour contrer le premier écueil, on voit émerger des solutions techniques comme le framework Hadoop permettant des traitements sur des volumes de données importants, de l’ordre de plusieurs petaoctets.

Pour le deuxième écueil, des approches combinant outils de BI classique et outils de mining (data mining et text mining) permettent l’exploitation de ces données en séparant bien ce qui est de l’ordre du prédictif (adressé par la Business Intelligence) de ce qui est de l’ordre du non prédictif (adressé par le data et le text mining : la Business Analytics).

big-data-gfi.jpg

Les acteurs de la grande distribution, des télécoms, les acteurs internet et les instituts de sondage sont aujourd’hui les principales entreprises qui initient la mise en œuvre de telles solutions. Du côté des métiers de l’entreprise, les attendus sont multiples :

  • Marketing : améliorer le cross-selling, développer le géo-marketing, entreprendre du marketing comportemental (lié à l’analyse des comportements), permettre la micro-segmentation client
  • Merchandising : optimisation des assortiments, optimisation des prix, optimisation des emplacements
  • Opérations : optimisation des usages réseaux, détection des fraudes, prévention des incidents et amélioration de la qualité de service
  • Logistique : gestion des inventaires, optimisation de la logistique, optimisation des négociations fournisseurs

De plus, la réglementation pousse aussi à mettre en œuvre ces types d’approches : la gestion des risques ou de la fraude  pour les banques ou la LCEN (Loi pour la confiance dans l’économie numérique) dans les télécoms par exemple. Ils nécessitent de stocker de très gros volumes de données pour assurer une traçabilité maximale (par exemple à des fins de requêtes judiciaires), tout en nécessitant une réactivité importante dans l’analyse des données et le déclenchement d’alertes liées à des comportements suspects. 

 

Bien que les concepts qui le composent soient pour la plupart anciens, le Big Data est un phénomène résolument nouveau. Le fait que le Big Data soit sous les feux de la rampe en ce moment n’est pas un hasard : face à l’explosion des volumétries de données, à la nécessité d’avoir un « time to market » toujours de plus en plus court, à l’augmentation des risques et à la nécessité de les gérer (approvisionnement en matières premières, défaut de crédit…), à la concurrence toujours de plus en plus forte dans un marché mondialisé, à la montée du Web des objets… les entreprises doivent donc passer de l’époque où elles optimisaient leurs processus de gestion des données (à travers les ERP notamment) à un nouvel âge où elles doivent maintenant exploiter les données quelles qu’elles soient pour mieux comprendre et analyser leur écosystème et ainsi adapter leur business model. Le temps de l’optimisation des processus en vase clos est aujourd’hui dépassé et les entreprises doivent encore d’avantage tenir compte du monde extérieur pour améliorer leur compétitivité.

 

Nicolas Eimery, directeur du Pôle de compétences Performance Management & Business Intelligence, Gfi Informatique


Par Décideur Public - Systèmes d'Information - Publié dans : Tribune libre
Ecrire un commentaire - Voir les commentaires
Retour à l'accueil

Liste d'articles

Voir tous les articles de la catégorie "Tribune libre"

Présentation

Rechercher

Images Aléatoires

  • gendarmerie-nationale
  • MCS-LogoMCS
  • BrunoDelhaye PDG
  • Rettien-Neocoretech1
  • André Michelin
  • CG Yvelines
Contact - C.G.U. - Signaler un abus - Articles les plus commentés