Syndication

  • Flux RSS des articles

Partager

Twitter

Viadeo

LinkedIn

Décideur Public - Systèmes d'Information sur LinkedIn

Facebook

Lundi 26 novembre 2012 1 26 /11 /Nov /2012 11:28

Malgré des avancées indéniables, le secteur public reste à la traîne par rapport au secteur privé en ce qui concerne le contrôle et l’exploitation des grands volumes de données. Cependant, les nouvelles législations et la politique d’ouverture des données publiques encouragent les projets de modernisation de l’infrastructure informatique. Ces gigantesques ensembles de données sont une ressource largement inexploitée mais, si l’Etat français veut réellement en tirer parti, il faut d’abord poser quelques principes de base.

La question de la confidentialité des données

Contrairement au secteur privé, la réussite commerciale n’est ni la mission ni l’objectif du secteur public ; sa vocation est de servir les citoyens le mieux possible. Mais pour cela, l’Etat doit s’assurer que les informations du public sont analysées et stockées de manière sécurisée.

Explorer et analyser les données big data que détiennent les diverses instances publiques n’est que le début du parcours. Il faut ensuite que ces masses de données soient protégées, et c’est aux acteurs publics qu’il incombe de s’assurer que les informations des citoyens sont en sécurité, partout et à tout moment.

Le besoin de transparence

Le besoin de transparence dans les big data du secteur public est un autre point de discussion. Les données sont traditionnellement dispersées dans des silos et il est difficile de les rassembler pour en avoir une vision claire et centralisée. Il faut donc casser ces silos et ouvrir les données pour s’assurer qu’elles sont toutes fiables et utilisables par les acteurs publics.

La transparence des données au sein du secteur public est un travail qui ne fait que commencer. Pour tirer le maximum des big data, tout en respectant les normes de conformité et les réglementations qui se multiplient, les organismes publics doivent veiller continuellement à les normaliser. C’est la condition pour que les données puissent être distribuées et utilisées dans n’importe quel système, par toutes les agences et administrations, dans tous les formats. Ce processus permettra aux organisations publiques de partager plus efficacement les informations avec leurs parties prenantes, internes et externes, et renforcera la transparence de leurs actions ainsi que leur capacité à en rendre compte.

Les données essentielles

Bien sûr, si elles ne sont pas correctement gérées, stockées et sécurisées, les big data peuvent rapidement devenir une charge financière considérable. Identifier les données périmées ou inutilisées grâce à un processus dit de « retrait de données » est un moyen efficace de réduire les risques et de faire des économies substantielles. Les données inactives peuvent ainsi être retirées des environnements de production ce qui permet de les limiter en taille, de rationaliser les processus de sauvegarde et de restauration, de réduire les coûts matériels et d’améliorer la performance des systèmes.

L’explosion des données et le phénomène big data est une réelle opportunité pour le secteur public d’améliorer ses modes de fonctionnement. Que ce soit en s’attaquant à la sécurité des données ou en adoptant des normes de données ouvertes, les organisations publiques peuvent renforcer l’efficacité des big data et rendre le partage de données possible entre tous les acteurs du secteur. Disposant ainsi d’une vraie connaissance des besoins des citoyens, elles seront en mesure de leur apporter un meilleur service.

 

Pascal Laik, directeur général France, Informatica


Par Décideur Public - Systèmes d'Information - Publié dans : Tribune libre
Ecrire un commentaire - Voir les commentaires
Retour à l'accueil

Liste d'articles

  • Quatre conseils pour optimiser la gestion d'une intercommunalité
    Par Rémi Lacroix, Expert Intercommunalités chez JVS-Mairistem Les réformes successives autour de l'intercommunalité bousculent les organisations en place et redéfi­nissent les compétences de chaque collectivité. Après une vague de fusions et de regroupements d'EPCI en 2013 et...
  • GED versus archivage électronique : Concurrents ou complémentaires ?
    Par Séverine Denys, responsable de l’activité AE, et Laurence Anouilh, consultante chez Locarchives La Gestion Electronique des Documents (GED) et le Système d'Archivage Electronique (SAE) sont des outils qui présentent des ressemblances au point d'être parfois...
  • Vers une authentification forte des acteurs de santé
    Par Frédéric Lefebvre, Ingénieur Avant-Vente pour Ilex International  Ilex International est un éditeur de logiciels spécialisés dans l'IAM (Identity & Access Management)     L’évolution de la législation et du cadre...
  • Lean Management : de la production automobile au Cloud
    Alexandre Rosset – Directeur du Centre de Services de Coreye Comme toute activité de production de biens et services, les prestations associées aux contrats de cloud computing sont soumis à des impératifs de qualité et de performance. Il n’est donc pas surprenant que...
  • Aide à la décision : recueillir les données… et après ?
      Geoffroy d’Hardemare - Data & Analytics – Avanade France, Belgique & Suisse Romande Reconnaissons que nous avons changé d’ère dans le décisionnel et rendons hommage aux précurseurs ! Il s’est passé un peu plus de vingt ans depuis la...
Voir tous les articles de la catégorie "Tribune libre"

Présentation

Images Aléatoires

  • Jean-Leonce-Dupont 100px
  • Christophe Auberger
  • BrunoDelhaye PDG
  • DGA
  • CHU Réunion
  • Capgemini Atos Acoss
Contact - C.G.U. - Signaler un abus - Articles les plus commentés