Le Big data, phénomène IT en 2012 n’a pas fini de faire parler de lui. Vélocité, simplicité, volume, maitrise des coûts, etc. La déferlante Big data entraîne tout sur son passage et va imposer en 2013 son rythme à la Business Intelligence traditionnelle. Sévèrement challengée cette dernière n’a d’autre choix que de s’adapter ou de disparaître. La BI traditionnelle est morte, vive la Big BI !
2012 a été sans nul doute l’année du Big data en France et 2013 le sera vraisemblablement aussi. Car les entreprises ont parfaitement assimilé l’intérêt de chaque donnée au-delà de la donnée structurée et les opportunités business sous-jacentes : individualisation de leur marketing, valorisation de leur image sur les réseaux sociaux, optimisation des processus logistiques ou encore de la traçabilité des transactions clients.
La moindre donnée comportementale, le moindre log, aussi isolés soient-ils (les black data), recèlent une valeur économique. C’est donc tout naturellement que les entreprises - quelle que soit leur structure ou leur taille, sans forcément entrer dans un projet décisionnel de type Big data - attendent de la BI de demain qu’elle se calque aux avantages et aux innovations qu’offre le Big data.
1 - Vers toujours plus de données, de moins en moins structurées
Le fait que l’écosystème produise de plus en plus de données a pour corollaire de rendre les utilisateurs davantage « datavore ». Pour les orienter dans leur stratégie décisionnelle, les entreprises veulent désormais voir apparaître dans leurs tableaux de bord des données textuelles comme les avis clients, les commentaires produits, les remarques sur les réseaux sociaux ou l’analyse des logs. Les bases de données traditionnelles sont donc en train de disparaitre au profit de bases de données diversifiées et de moins en moins structurées. Seulement voilà, à ce jour il est très difficile voire impossible d’exploiter cette volumétrie de données avec les techniques de BI traditionnelles sans monter des architectures et des infrastructures extrêmement complexes, chronophages et onéreuses.
2 - Vers des données « chaudes »
A la différence des solutions décisionnelles traditionnelles, le Big data apporte une donnée chaude traitée à l’instant T avec un niveau de détail tel qu'il permet d'isoler et d'analyser, au cas par cas, chaque transaction et événement. L’analyse au fil de l’eau des grands flux d’information sur les produits et services, les acheteurs ou les fournisseurs, ou encore les préférences des consommateurs apporte à l’entreprise un avantage concurrentiel non-négligeable. Une réalité du Big data que l’on cherche de plus en plus à transposer à la BI. Alors qu’il y a à peine quelques mois, le rafraichissement des tableaux de bord d’aide à la décision se limitait à J+1 (contre Mois+1 il n’y a même pas 5 ans !), aujourd’hui les entreprises veulent au minimum un rafraichissement plusieurs fois par jour voir plusieurs fois par heure notamment pour les e-commerçants. Face à la réactivité du Big data, les outils décisionnels, certes robustes, apparaissent donc comme structurellement trop figés.
3 - Vers des données publiques (open data)
Issu du phénomène Big data, l’Open Data apporte un nouveau mode d’analyse, celui des données publiques. Dans leur recherche de toujours plus de données, les entreprises s’intéressent de plus en plus aux données externes : réseaux sociaux, géolocalisation, étude comportementale, etc. C’est la raison pour laquelle les données publiques (Insee, instances gouvernementales, états ou collectivités locales) sont si importantes. La multiplication d’agrégateurs de données publiques et le succès de Google Trends illustrent d’ailleurs bien cet intérêt grandissant.
Appliquée à la BI, l’exploitation des données publiques deviendrait un nouveau vecteur d’aide à la décision avec par exemple, la création de produits/services à valeur ajoutée autour de ces données ou une meilleure connaissance des profils clients/consommateurs.
La mise en perspective Big data vs BI ne semble donc pas jouer en faveur de cette dernière. Les éditeurs subissent aujourd’hui une grande pression pour être à la hauteur des attentes des entreprises. D’autant que le Big data, du fait de son écosystème Open Source (Hadoop) et Cloud, coûte beaucoup moins cher pour un nombre exponentiel de données et une moindre contrainte de traitement.
Ainsi, la BI de demain sera à l’image du Big data ou ne sera pas. Déjà les géants américains se sont positionnés : BigQuery de Google ou plus récemment Redshift d’Amazon proposent des solutions BI inspirées du Big data : traitement quasi-instantané de données de masse (moins structurées et combinées avec l’open data) avec des prix très compétitifs (environ 500€ / To/Mois pour Google Big Query et Amazon RedShift).
Si en 2012, le Big data a fait soufflé un vent nouveau sur la Business Intelligence, c’est une tempête qui s’annonce pour 2013. La BI va-t-elle être capable avec son existant de répondre à ces nouveaux besoins ou est-ce plutôt le Big data qui va « descendre » de ses sphères de datascientist vers des sphères un peu plus généralistes ? Grande question à laquelle cette nouvelle année apportera la réponse.
Romain Chaumais, Co-fondateur d’Ysance et directeur des opérations.
Commenter cet article