Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Décideur Public - Univers Numérique

Décideur Public - Univers Numérique

Site d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. rita.audi@decideur-public.info


Le Big Data dope l’informatique décisionnelle traditionnelle, par Romain Chaumais, co-fondateur d’Ysance

Publié par Décideur Public - Systèmes d'Information sur 17 Juin 2011, 09:52am

Catégories : #Tribune libre

Romain Chaumais YsanceFace à la démultiplication des systèmes produisant de la donnée réseaux sociaux, tablettes, mobiles, applications, capteurs électroniques… – le volume d’informations fabriquées au quotidien croît de façon exponentielle. Parallèlement, les entreprises perçoivent désormais la valeur économique des informations comportementales détaillées. Complémentaire des plateformes décisionnelles, le Big Data cherche à naviguer dans cette avalanche de données afin d’y identifier en temps réel des informations pertinentes et utiles sur un mode, avant tout, exploratoire et peu structuré.

 

Après le Cloud Computing, voici le Big Data. Même phénomène de mode, même saupoudrage marketing et au fond, même incompréhension. Que recouvre donc ce nouveau concept ? En réalité, cette notion est née de la convergence de deux phénomènes majeurs : l’explosion des données générées (Data Deluge) et la prise de conscience de la valeur des données brutes (Raw Data).

 

La volumétrie des données à la disposition des entreprises croît exponentiellement depuis plusieurs années. Dans tous les domaines de l’économie (industrie, domotique, transport…), l’essor des technologies machine-to-machine et autres capteurs connectés permet à des objets dits « intelligents » de communiquer sans intervention humaine avec un système d'information centralisé. En résulte une démultiplication des informations à conserver sur chaque interaction. Du côté du web, les technologies sont passées au fil des ans d’une approche site centric (un objet analysé) à une logique user centric (plusieurs milliers ou centaines milliers d’individus analysés). Plus récemment, l’essor des réseaux sociaux et de la mobilité a imposé un modèle d’analyse de type social centric (plusieurs millions d’individus et d’interactions avec leur environnement à analyser). Si Facebook compte pas moins de six milliards de photos partagées et 22 milliards de commentaires publiés chaque mois, de nombreuses entreprises beaucoup plus petites brassent chaque jour des centaines de millions de transactions et/ou d’événements et stockent plusieurs téraoctets de données chaque année.

 

Par ailleurs, les entreprises perçoivent désormais que la moindre donnée comportementale, le moindre log, aussi isolés soient-ils, recèlent une valeur économique. Il en va de l’individualisation du marketing, de l’optimisation des processus, de la traçabilité des transactions ou encore de la pertinence des alertes. Auparavant noyée dans des approches ensemblistes forcément réductrices, chaque aberration devient dès lors riche d’enseignements. Résultat : chaque donnée brute doit être stockée.

 

Le voilà donc, le rôle du Big Data. Dans un environnement foisonnant d’une masse sans cesse plus dense d’informations brutes, il consiste à collecter, à stocker, puis à interroger en quasi temps réel un puits de données directement exploitables et orientées « usage ». Une nécessité rendue possible par la concomitance d’innovations techniques majeures : Cloud Computing, base de données nouvelle génération (bases de données en colonnes notamment), architecture de type MapReduce

 

Cette montée en puissance marque une (r)évolution majeure dans l’informatique décisionnelle. A la différence des solutions décisionnelles traditionnelles, celle-ci apporte une donnée « chaude », certes moins structurée, mais avec un niveau de détail tel qu’il permet d’isoler et d’analyser, au cas par cas, chaque transaction et événement. L’analyse au fil de l’eau des grands flux d’information sur les produits et services, les acheteurs ou les fournisseurs, ou encore les préférences des consommateurs apporte ainsi souplesse et réactivité à des outils décisionnels certes robustes, mais structurellement trop figés. Cette nouveauté n’est pas anodine pour les directions générales. Par son mode exploratoire, cette technique offre une capacité d’observation pointue de nature à analyser les réussites comme les échecs, voire remettre en question l’activité et l’organisation de l’entreprise.

 

En somme, ce concept dope les systèmes décisionnels traditionnels, auxquels il ajoute une dimension inédite : pouvoir exploiter d’immenses volumes de données au niveau de détail le plus fin. Le Big Data ne s’oppose donc pas à la Business Intelligence, mais la complète en lui apporter un degré de précision et une souplesse jusqu’ici inédites. Ainsi, l’informatique décisionnelle offre des outils industrialisés, pré-formatés pour répondre à des questions précises. En revanche, le Big Data permet d’explorer un dédale de données interdépendantes et de faire émerger des phénomènes significatifs pour identifier de nouvelles informations pertinentes.

 

Cette complémentarité doit logiquement se répercuter sur la conception des systèmes d’information décisionnels. D’un point de vue technique, une telle approche en amont des solutions de BI traditionnelles permet de simplifier l’architecture décisionnelle et d’optimiser les outils de pilotage. Déjà révolutionnée par l’essor du SaaS (Software as a Service), l’informatique décisionnelle est donc loin d’avoir achevé sa mue.

 

Romain Chaumais , co-fondateur d’Ysance et responsable du pôle Business Intelligence


Pour être informé des derniers articles, inscrivez vous :

Commenter cet article

Archives

Nous sommes sociaux !

Articles récents