Présentation

  • : Le blog de Décideur Public - Univers Numérique
  • Le blog de Décideur Public - Univers Numérique
  • : Blog d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

19 novembre 2014 3 19 /11 /novembre /2014 14:57

Geoffroy-d-Hardemare.jpg 

Geoffroy d’Hardemare - Data & Analytics – Avanade France, Belgique & Suisse Romande

Reconnaissons que nous avons changé d’ère dans le décisionnel et rendons hommage aux précurseurs ! Il s’est passé un peu plus de vingt ans depuis la définition du tableau de bord prospectif (ou Balanced Scorecard) par Robert S. Kaplan and David Norton qui visait à élargir le champ du pilotage de l’entreprise non pas sur la seule dimension financière mais aussi aux processus, à l’organisation et aux ressources humaines.  À la même époque, une autre révolution mise à jour par Bill Inmon puis Ralph Kimball a permis de formaliser l’informatique décisionnelle par des solutions et de définir les principes d’architecture de l’entrepôt de données (ou Datawarehouse). Au cours de ces dernières années, les innovations technologiques se sont mêlées à la culture d’entreprise.

Depuis ces révolutions, les données ont envahi le monde et l’aide à la décision a conquis pratiquement toutes les fonctions de l’entreprise, en ordre parfois dispersé mais en permettant d’avoir désormais une bonne maturité sur ces sujets. Nous pouvons cependant regretter que les usages se soient limités, pour partie, à la production du reporting de masse. En caricaturant un peu, la belle mine d’or de l’information s’est transformée en usine à reporting.

Les défis actuels des responsables informatiques et métier dans le domaine du pilotage sont à la fois technologiques et humains. Sans surprise, ils doivent fournir une information plus vite, à plus d’utilisateurs, avec plus de valeur, tout en rationalisant et réduisant les coûts ! Sans oublier, bien entendu, les nouvelles attentes des utilisateurs qui veulent plus de valeur et vont s’exprimer sur des usages comme la mobilité, l’analytique, l’interactivité (alertes, fraudes ou data visualisation par exemple). Ces principaux défis sont au nombre de trois :

Allez plus vite, c’est passer d’une fréquence journalière au temps réel, ce qui signifie de passer d’une logique de stock de données à une logique de flux continu de données. Les entreprises doivent adopter une approche totalement différente en matière de conception de projet. Les processus de collecte et la mise en œuvre des systèmes décisionnels doivent être repensés pour obtenir des gains business en termes d’alertes et d’interactions avec les processus opérationnels du marketing, de la finance, du risque, des back office...

Plus d’utilisateurs et plus de valeur : d’une part, il est nécessaire de simplifier les usages de l’exploration des données et du reporting, tout en permettant le partage d’informations, d’autre part, les informations offertes doivent avoir de la valeur pour les personnes qui les reçoivent. Aujourd’hui, le traitement de la donnée est probablement la plus grande faiblesse des entreprises ; il est primordial que les métiers s’approprient ou se réapproprient les solutions technologiques.

Réduire les coûts, c’est tout d’abord rationaliser les plateformes de Business Intelligence sur les différents usages et optimiser les investissements projets par des démarches plus agiles permettant aux utilisateurs de coproduire leur solution de reporting en s’autorisant des ajustements par essais-erreur. La simplicité des technologies est un atout évident pour conduire les projets sans oublier l’amélioration de l’autonomie des utilisateurs et la sécurité des accès aux données.

Ajoutons à ces évolutions, l’explosion des volumes de données et les possibilités de consommation de l’information par des infrastructures du cloud. En effet, le cloud permet d’utiliser de la puissance machine, sur des gros volumes, en fonction de la demande (du besoin de l’entreprise), à un moment donné (il n’est pas nécessaire d’avoir de la puissance machine tout le temps mais au moment où c’est nécessaire). C’est pourquoi le cloud offre des capacités pour le big data et ceci pour un coût plus bas (à la demande) comparé à l’alternative de paiement de ses propres environnements (gros serveurs, etc…). Nous avons donc pratiquement la définition du big data qui est caractérisé par les 5 V (variété, volume, vélocité, valeur, véracité). Nous l’avons dit, le traitement de la donnée ou l’analytique (valeur) est le domaine que nous devons mieux appréhender. Celui-ci requiert des profils, des outils et des compétences à la croisée des chemins des mathématiques (statistiques, probabilité), de l’informatique (traitement des données) et des métiers du marketing, de la recherche et développement ou du pilotage du risque par exemple.

Même si les fondamentaux de l’architecture décisionnelle sont toujours présents, il ne faut pas négliger l’impact des nouveaux usages sur celle-ci pour répondre au self-service BI, l’analytique et le temps réel. Ces nouveaux enjeux ont un effet sur la gouvernance des données que l’on souhaite mettre en place. Certaines entreprises mesurent bien l’importance de ce sujet et ont conduit des schémas directeurs sur leur informatique décisionnelle rationaliser leur patrimoine existant et innover. La gestion de données n’est pas seulement une brique technologique supplémentaire mais doit être une vraie culture au sein de l’entreprise.

Partager cet article

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article

commentaires