Suivre ce blog
Administration Créer mon blog

Présentation

  • : Le blog de Décideur Public - Systèmes d'Information
  • : Blog d’informations gratuit et indépendant dédié aux nouvelles technologies et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

Twitter

Rechercher

Viadeo

LinkedIn

Décideur Public - Systèmes d'Information sur LinkedIn

3 avril 2012 2 03 /04 /avril /2012 14:40

Le Big Data est un phénomène récent, particulièrement sous le feu de l’actualité ces derniers mois. Au-delà de l’effet de buzz véhiculé par les différents éditeurs pour promouvoir leurs solutions, on peut pour mieux comprendre ses enjeux s’attarder à cerner les concepts sous-jacents du Big Data.

 

Par Big Data, il faut entendre de notre point de vue trois concepts liés :

  • La capacité à adresser et stocker de fortes volumétries de données, qu’elles soient structurées ou non structurées,
  • L’interaction avec les nombreuses sources d’informations extérieures à l’entreprise et non maîtrisée par elle,
  • L’analyse de l’ensemble de ce nouveau capital informationnel.

La capacité à adresser et stocker de fortes volumétries de données (à la fois structurées et non structurées), difficilement exploitables avec des solutions classiques de gestion de bases de données, est le premier objectif du Big Data. Que cela soit à des fins transactionnelles ou décisionnelles, les entreprises sont de plus en plus confrontées à cette problématique de croissance exponentielle de la donnée à exploiter. Les premiers à avoir dû trouver des solutions ont été les acteurs historiques du Web (Yahoo, Google…) puis tous les acteurs du e-commerce (e-Bay, Amazon…) et des réseaux sociaux (Facebook, Linkedin…).

 

Pour traiter ces gros volumes de données, les éditeurs se sont tournés vers les appliances, c’est-à-dire la combinatoire entre du « hard » (le matériel) et du « soft » (le logiciel) à l’image de Teradata, acteur historique dans ce domaine. On peut citer dans sa lignée les solutions Exadata pour Oracle, GreenPlum pour EMC², Netezza pour IBM, Fast-track pour Microsoft, HANA pour SAP… 

 

De nombreuses études montrent que les sources d’informations internes à l’entreprise ne sont plus suffisantes pour pouvoir appréhender de manière adéquate un sujet majeur comme la connaissance client. En effet, de plus en plus de données sont stockées en dehors des Systèmes d’Information de l’entreprise, par des acteurs tiers, qui détiennent ainsi des informations capitales pour la bonne compréhension de ses enjeux. De plus, le web des objets (web 4.0) va aussi contribuer à fournir une masse d’informations au fil de l’eau pour les entreprises, par exemple les compteurs Linky pour ERDF. Toutes les données provenant des médias sociaux, des capteurs intelligents, sont donc de nouvelles sources de données importantes à prendre en compte, avec la particularité qu’elles peuvent être structurées et non structurées et qu’elles doivent être captées en continu. Sur ce segment, les acteurs traditionnels du monde ETL (Informatica, Datastage, Talend, ODI…) se positionnent via le couplage à des web services. 

 

Arriver à capter toute cette masse d’informations interne et externe à l’entreprise n’a de sens que si l’analyse de ce nouveau capital informationnel est possible. La Business Intelligence (BI) classique n’est plus un moyen suffisant car elle impose :

  • De disposer de données structurées et organisées, de devoir parfois connaître a priori les types d’analyse que l’on souhaite mettre en œuvre pour pouvoir modéliser correctement son entrepôt de données (ou Data Warehouse),
  • De pouvoir intégrer des volumes de plus en plus importants de données, dans des délais de plus en plus courts, en respectant la structuration des différents modèles de stockage. 

C’est là tout l’enjeu du Big Data : les données stockées, en plus d’être à très fortes volumétries, sont hétérogènes en terme de contenant (format structuré et non structuré) mais surtout de contenu. Les informations provenant des réseaux sociaux par exemple possèdent un contenu non prédictible, pouvant toucher aussi bien la connaissance client que la « e-réputation ». Ainsi, l’entreprise doit faire face à deux écueils pour l’exploitation de ces données à des fins d’analyse :

  • La très grosse volumétrie d’informations structurées et non structurées à prendre en compte,
  • La non-connaissance a priori du contenu de l’information à analyser. 

Pour contrer le premier écueil, on voit émerger des solutions techniques comme le framework Hadoop permettant des traitements sur des volumes de données importants, de l’ordre de plusieurs petaoctets.

Pour le deuxième écueil, des approches combinant outils de BI classique et outils de mining (data mining et text mining) permettent l’exploitation de ces données en séparant bien ce qui est de l’ordre du prédictif (adressé par la Business Intelligence) de ce qui est de l’ordre du non prédictif (adressé par le data et le text mining : la Business Analytics).

big-data-gfi.jpg

Les acteurs de la grande distribution, des télécoms, les acteurs internet et les instituts de sondage sont aujourd’hui les principales entreprises qui initient la mise en œuvre de telles solutions. Du côté des métiers de l’entreprise, les attendus sont multiples :

  • Marketing : améliorer le cross-selling, développer le géo-marketing, entreprendre du marketing comportemental (lié à l’analyse des comportements), permettre la micro-segmentation client
  • Merchandising : optimisation des assortiments, optimisation des prix, optimisation des emplacements
  • Opérations : optimisation des usages réseaux, détection des fraudes, prévention des incidents et amélioration de la qualité de service
  • Logistique : gestion des inventaires, optimisation de la logistique, optimisation des négociations fournisseurs

De plus, la réglementation pousse aussi à mettre en œuvre ces types d’approches : la gestion des risques ou de la fraude  pour les banques ou la LCEN (Loi pour la confiance dans l’économie numérique) dans les télécoms par exemple. Ils nécessitent de stocker de très gros volumes de données pour assurer une traçabilité maximale (par exemple à des fins de requêtes judiciaires), tout en nécessitant une réactivité importante dans l’analyse des données et le déclenchement d’alertes liées à des comportements suspects. 

 

Bien que les concepts qui le composent soient pour la plupart anciens, le Big Data est un phénomène résolument nouveau. Le fait que le Big Data soit sous les feux de la rampe en ce moment n’est pas un hasard : face à l’explosion des volumétries de données, à la nécessité d’avoir un « time to market » toujours de plus en plus court, à l’augmentation des risques et à la nécessité de les gérer (approvisionnement en matières premières, défaut de crédit…), à la concurrence toujours de plus en plus forte dans un marché mondialisé, à la montée du Web des objets… les entreprises doivent donc passer de l’époque où elles optimisaient leurs processus de gestion des données (à travers les ERP notamment) à un nouvel âge où elles doivent maintenant exploiter les données quelles qu’elles soient pour mieux comprendre et analyser leur écosystème et ainsi adapter leur business model. Le temps de l’optimisation des processus en vase clos est aujourd’hui dépassé et les entreprises doivent encore d’avantage tenir compte du monde extérieur pour améliorer leur compétitivité.

 

Nicolas Eimery, directeur du Pôle de compétences Performance Management & Business Intelligence, Gfi Informatique


Partager cet article

Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article

commentaires

KNT 22/05/2012


Très bon article, très détaillé.


Très intéressant à lire, merci.

Liste Des Articles

  • Les principales menaces informatiques potentielles sont des failles déjà connues
    Les 10 failles de sécurité les plus utilisées par les hackers en 2014 exploitent des vulnérabilités de codes déployés dans des systèmes depuis parfois des dizaines d’années HP Security Research vient de publier l’édition 2015 de son étude annuelle ‘Cyber...
  • Le nom du réseau FTTH de Seine-et-Marne dévoilé...
    Le lancement de la délégation de service public pour l’établissement du réseau à très haut débit de fibre optique jusqu’à l’abonné en Seine-et-Marne a eu lieu le 2 mars. L'événement a réuni les différents porteurs du projet, dont Clément Verhille (Directeur...
  • Île d'Olonne
    La Mairie de l'Île d'Olonne a choisi, l'un des leaders de l'affichage dynamique urbain, Cocktail Vision pour informer ses habitants ! Depuis deux mois, le panneau à LED Cocktail Vision, qui n'est pas réservé qu'aux grandes agglomérations, est installé...
  • Facture électronique: Les pouvoirs publics donnent le ton
    Christophe REBECCHI, Directeur Général de ReadSoft France Par Christophe REBECCHI, Directeur Général de ReadSoft France Avec le choc de simplification voulu par l’Etat, le recours à la facture électronique va devenir la norme à l’horizon 2020 pour les...
  • Comment restaurer la confiance entre PME et grandes entreprises selon le Cigref et Syntec Numérique
    Christian Saint-Etienne - Economiste Les relations entre PME et grandes entreprises sont en France, un éternel sujet de controverses. Pour autant, dans les faits, l’intégration des premières aux secondes est de plus en poussée grâce notamment à la numérisation...

Facebook