Présentation

  • : Le blog de Décideur Public - Univers Numérique
  • Le blog de Décideur Public - Univers Numérique
  • : Blog d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

15 mai 2017 1 15 /05 /mai /2017 11:15

Emilie Blanchard, professeur d'Histoire-Géographie et cofondatrice de Lelivrescolaire.fr

« Mieux préparer les élèves à être acteurs du monde de demain » : c’est l’ambition annoncée du Plan Numérique pour l’éducation, lancé en 2015. Le Ministère vient d’annoncer les départements et collèges retenus dans le cadre du dispositif « Collège numérique et ruralité ». Quelques mois après l’appel à projet « Collèges numériques et innovation pédagogique », c’est une nouvelle phase dans la mise en œuvre du grand Plan Numérique pour l’éducation, lancé pour accélérer l’équipement et l’accès aux ressources numériques des collégiens.

Un équipement massif

Le Plan Numérique a mis sur le devant de la scène un objet qui, après avoir conquis de nombreux foyers, a fait une entrée remarquée dans les salles de classe : la tablette. Quel est l’impact des tablettes sur les apprentissages des élèves ? Quels usages en font principalement les élèves et les enseignants ? Quelles sont les premières recommandations issues de la recherche pour que les enseignants s’approprient mieux cet outil ?

Au regard des effets annoncés du numérique sur les apprentissages, l’Etat et les collectivités ont, en France comme dans de nombreux pays (Etats-Unis, Canada, Brésil, Turquie, Danemark, etc.) investi massivement dans des équipements mobiles. Au total, en France, en 2017, ce sont près de 3000 collèges – soit 51 % des collèges publics – et 3525 écoles qui seront progressivement équipés, soit près de 600 000 élèves équipés. 6 départements ont choisi d’équiper la totalité de leurs collèges, et 30 % des collectivités équipent entre 66 % et 100 % leurs collèges. Au total, cela représente plus d’1 milliard d’euros dépensés sur 3 ans dans le cadre du Plan Numérique, avec l’objectif affiché d’une généralisation des enseignements par le numérique au collège pour 2018/2019.

Quels effets des tablettes sur les apprentissages ?

Quels sont les effets de ces politiques massives d’équipement ? Si le recul nécessaire manque encore pour avoir des résultats fiables d’enquêtes menées à grande échelle, les premières études sur les tablettes à l’école (Karsenti et Fievez, 2013) ont permis d’apporter un éclairage scientifique sur cet outil et ses usages pédagogiques.

Le premier constat est que, si les freins techniques sont encore nombreux dans une partie des établissements (débit insuffisant, absence d’un dispositif efficace de déploiement et de maintenance, etc.), les avantages des tablettes à l’école l’emportent sur ces freins. A côté des aspects pratiques - sa légèreté (tous ses manuels dans une tablette !), sa maniabilité et de l’accès facilité aux ressources multiples que la tablette offre -, les effets sur la motivation des élèves arrivent en bonne place, ainsi que les compétences liées à la collaboration entre les élèves : interactions entre pairs, apprentissages plus actifs, capacité à réutiliser des connaissances ou des compétences dans des contextes différents, etc. Quelle que soit la matière concernée, la tablette permet de créer, de modifier, de travailler ensemble autour d’un même document avec les élèves ou de faire travailler les élèves en pair à pair. La tablette favorise le partage, l’interaction, de nouvelles modalités de travail plus collaboratives. L’élève n’est plus passif face à l’information ; il devient acteur, producteur, créateur de contenus (recherche d’informations, création de supports, etc.).

Support individuel, la tablette facilite enfin la mise en œuvre de la différenciation pédagogique. L’apprentissage adaptatif, encore balbutiant,  permet de nourrir de grands espoirs quant à un meilleur accompagnement des élèves, en répondant au mieux aux besoins de chacun. Or, si la tablette – et plus largement le numérique – ne sont pas des outils nécessaires à la mise en place de l’individualisation des enseignements, ils la facilitent grandement.

Les tablettes, vecteurs de l’innovation pédagogique ?

Le second point saillant des premières études est que la formation et l’accompagnement des enseignants est une condition nécessaire à une bonne appropriation des supports mobiles. Dans toutes les expérimentations menées, la formation des enseignants est un élément-clé de l’appropriation des outils numériques. Certes, les formations progressent, et de nombreux enseignants se forment actuellement d’eux-mêmes via les réseaux sociaux, les MOOC ou en échangeant sur leurs pratiques pédagogiques avec leurs collègues qui expérimentent eux aussi (Enquête PROFETIC, 2016). Mais il ces pratiques ne concernent encore qu’une minorité d’enseignants. Pour que les tablettes s’installent durablement dans le paysage scolaire, et pour que le potentiel pédagogique des tablettes soit pleinement exploité, il faut du temps. Du temps pour se former aux usages pédagogiques des tablettes, grâce à des formations liant le numérique, la pédagogie et l’enseignement disciplinaire, comme le montre l’étude menée par la DEPP sur les Collèges connectés (2015). Du temps pour tester, explorer, observer, échanger avec des collègues, intégrer à leur pratique ce qu’ils ont appris.

Un outil dont les potentialités pédagogiques sont encore peu explorées

Un dernier constat s’impose : si l’équipement en tablettes est massif, les usages pédagogiques des tablettes sont pour l’instant limités. Si l’on suit le modèle SAMR développé par Ruben Puentedura pour estimer l’impact des technologies numériques dans l’enseignement, on observe que dans la majorité des cas, les enseignants sont dans une utilisation personnelle ou professionnelle de l’outil, mais sans changement dans leur pédagogie (phases dites de substitution ou d’augmentation). La phase d’appropriation des tablettes comme des outils pour permettre la modification ou la réalisation de nouvelles tâches, impossibles avant, ne concerne pour l’instant qu’une minorité d’enseignants. Globalement, les enseignants qui utilisent les tablettes privilégient les fonctionnalités traditionnelles de consultation et non de création ou de collaboration.

La vraie question n’est pas celle de l’outil, mais celle de la pédagogie. Comme pour toutes les autres nouvelles technologies, l’introduction des tablettes à l’école réaffirment la place centrale de l’enseignant dans la classe. Sans changement dans les pratiques pédagogiques, la technologie n’a pas d’impact sur les apprentissages. La tablette en soi ne favorise pas la réussite des élèves ; ce sont les usages pédagogiques qui en sont faits qui font la différence.

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
11 mai 2017 4 11 /05 /mai /2017 10:29

Amina Boualem
Ingénieur d'affaires
Numen Solutions

Des lois pour se passer enfin du papier

Depuis des années les établissements de santé gèrent les dossiers médicaux des patients avec un système hybride combinant des applications métier informatiques permettant d’identifier le patient à son entrée dans l’établissement et des documents papiers, pour toutes les autres étapes de son parcours (radios, analyses, comptes rendus, etc.). Il est temps d’en finir avec cette gestion archaïque et de se passer (en partie du moins) du papier. 

Avec la loi n°2016-41 de janvier 2016 dite “de modernisation du système de santé” qui incite les établissements à se regrouper en GHT (groupements hospitaliers de territoire) et à mettre en œuvre une stratégie commune de prise en charge du patient, le sujet de la dématérialisation et de la remise à plat des méthodes de gestion du dossier patient, est de nouveau à l’ordre du jour. L’idée étant de savoir comment améliorer la qualité de service rendu au patient, mais aussi d’assurer la qualité et la continuité des soins entre les différents établissements du groupement, et pour le personnel hospitalier d’améliorer la disponibilité des informations et ne plus perdre de temps à naviguer entre documents papiers et outils informatiques. Le véritable problème est donc le suivant : comment digitaliser et optimiser le parcours patient, de son entrée dans l’établissement, jusqu’à sortie ? 

Des informations à mieux partager
Pour gérer les informations médicales des patients, les hôpitaux s’appuient aujourd’hui sur plusieurs briques applicatives qui traitent, de manière souvent silotée, ces données hétérogènes (DPI et GAP pour les données médicales, traitement des données administratives ou de l'identité du patient, PACS pour l'imagerie). Bien que complet sur le plan fonctionnel, ce paysage applicatif complexe soulève deux questions : comment obtenir de manière simple et rapide une vision à 360° du dossier patient ? Et comment gérer l’hybridité de l’information ? En effet, bien que partiellement informatisé, le dossier patient continue d’être alimenté en  documents papiers, internes ou externes, qui viennent s’ajouter au DPI (résultats d’analyses, prescriptions du médecin traitant, radios, comptes rendus, feuilles de surveillance anesthésique, lettres manuscrites d’admission, etc.). 

Un jonglage encore aléatoire
Le DPI n’est pas un système d’archivage ou de stockage de document, il gère majoritairement des données. Certains peuvent effectivement agréger des documents en PDF, mais à force d’en ajouter le système devient vite lent et ingérable. Pour le moment, les hôpitaux jonglent donc avec des données d’un côté et beaucoup de papier de l’autre. Ce qui revient à classer les documents papier dans des salles d’archives et à les rapatrier à chaque fois que le patient revient sur place. L’impact est, vous vous en doutez, énorme pour le personnel en termes de logistique et de temps passé. Pour certains CHU comme celui de Nantes, ce sont près de 2000 dossiers patients papiers qui transitent chaque jour des archives jusqu’aux salles de soin. 

Papier vs électronique : le mix impossible
La grande majorité des hôpitaux oscille donc toujours entre papier et électronique, et rares sont ceux qui proposent au patient un parcours intégralement digital. D’où l’existence de doublons d’un hôpital à un autre, avec un dossier patient plus ou moins complet, selon l’établissement. L’objectif est désormais de rendre le dossier patient “unique” pour tous les établissements faisant partie du GHT et d’assurer cette mutualisation grâce à un outil de gestion documentaire unifié. Il est primordial de garantir la disponibilité de ces informations au sein de l’hôpital concerné, mais aussi aux différents services des autres établissements. Oui, mais comment ? 

Vers une nécessaire convergence
En faisant d’abord converger les SIH de chaque établissement du GHT. Cette convergence doit évidemment être graduelle et se faire par brique fonctionnelle. Dans un premier temps, il faut choisir le DPI qui sera commun à tous membres du GHT ou retenir des DPIs ouverts et interopérables. Dans un deuxième temps, il conviendra de  procéder à la numérisation des archives médicales et d’interfacer le SIH avec un Système d’Archivage Electronique (SAE) pour assurer la conservation électronique des dossiers patients avec des garanties de confidentialité (secret médical oblige), d’intégrité (valeur probante), de pérennité (lisibilité sur le long terme), et de disponibilité de l’information (vue 360° du dossier patient) . Quant aux nouveaux documents, ils seront numérisés et/ou versés dans le SAE au fil de l’eau et mis à disposition en temps réel pour les médecins. 

Dématérialiser et se passer du papier
Disposer d’un seul socle pour tout centraliser, tout gérer et se passer du papier ? C’est aujourd’hui envisageable avec notre solution d’acquisition et de conservation d’archives papier ou électronique, Easyfolder. Complémentaire, indépendante du DPI et de l’infrastructure matérielle en place mais interopérable avec tout SI ou service documentaire, elle permet aux établissements une gestion digitalisée de tous les documents, nativement papier ou électroniques. En effet, depuis le décret du 5 décembre 2016, puis l’ordonnance du 12 janvier 2017, il est possible de détruire les documents papiers comportant des données de santé à caractère personnel après numérisation (sous certaines conditions technologiques). Partage de l’information, sécurisation des données, économies majeures, les gains sont évidents. Pourquoi vous en priver ?

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
28 avril 2017 5 28 /04 /avril /2017 10:31
Théodore-Michel Vrangos, cofondateur et président d’I-TRACING

Théodore-Michel Vrangos, cofondateur et président d’I-TRACING

L’usage du cloud progresse à grande vitesse en entreprise.
La sécurité des clouds est multiple. Garantir un bon niveau de protection des informations est difficile, d’autant qu’il y a peu de spécialistes en sécurité du cloud.
Alors, quels critères retenir ? Comment s’assurer de faire les bons choix ?

Le mot cloud recouvre plusieurs notions, très différentes et très terre-à-terre. Tout d’abord, le cloud est une appellation, entrée dans le langage courant, désignant l’envoi des données vers l’extérieur, dans un espace partagé ou non, plus professionnel et dont c’est le métier. Le cloud c’est aussi le monde de plus en plus vaste des applications en mode SaaS, hébergées à l’extérieur, utilisées par les collaborateurs d’une entreprise en mode abonnement et sans les contraintes de la production informatique et de l’acquisition des licences. C’est la mode de l’usage partagé face aux anciens usages de la propriété absolue.

Le cloud recouvre aussi, notamment pour les ingénieurs réseaux et systèmes, les technologies de virtualisation, de partage sécurisé, de sauvegarde centralisée, les portails permettant le provisionning rapide des VM, la facturation efficace à la consommation, en interne pour les métiers (les clouds privés) et en externe (les clouds publics). Bien d’autres clouds existent, comme ceux dédiés aux mobiles, au traitement externe des données marketing, à la bureautique, à la messagerie, etc. Le cloud ou plus exactement les clouds sont donc polymorphes et s’adaptent à ce que nous souhaitons réellement externaliser et partager.

Il est évident et inéluctable que l’usage du cloud en entreprise va continuer à progresser à grande vitesse, entraîné d’un côté par la réduction des coûts et d’un autre côté par les usages des utilisateurs, attirés par la richesse fonctionnelle et la rapidité de mise en œuvre. Difficile dans ce contexte d’assurer un niveau satisfaisant de sécurité et de protection des informations pour une entreprise. Interdire l’usage du cloud y est impossible, contre-productif, voire même destructeur de valeur et de progrès pour les métiers de l’entreprise. Il faut donc s’adapter, bâtir des sécurités en fonction des pratiques. La sécurité des clouds est ainsi multiple. Elle se décline sur les différentes typologies d’usages, ceux qui sont connus mais aussi ceux qui sont inconnus (on parle alors de risque du shadow cloud).

Le problème chronique et central dans ce domaine est la rareté des spécialistes expérimentés en sécurité du cloud, déficit encore supérieur à celui des Analystes Data Security et des Ingénieurs Sécurité Réseaux.

Mener une démarche cohérente

Pour répondre aux risques du cloud, il faut tout d’abord connaître et avoir une visibilité des usages du cloud existants. Les RSSI commencent souvent par ce point. C’est un point-clé car très souvent les équipes métiers (marketing, finance, communication, R&D, etc.) ne savent pas si et dans quelle mesure (quelles informations, quels processus, etc.) les applications utilisent, exfiltrent, partagent, stockent, des données à l’extérieur. Les RSSI doivent le savoir pour ensuite former et informer les utilisateurs internes sur les dangers et mettre en place des mesures de protection et une couverture des risques. Il existe des outils et des démarches d’analyse, d’audit et de cartographie des pratiques cloud en place. Quelques éditeurs spécialisés – on les compte sur les doigts d’une main - proposent ce type d’outils.

Les résultats des audits peuvent être ponctuels ou permanents, intégrés et interfacés dans le SIEM en place. L’objectif est d’avoir le même niveau de connaissance des usages du cloud par l’entreprise que de ce qui se passe au sein du data center interne.

Le deuxième point-clé de la prise en compte du cyber risque cloud est la mise en œuvre de contrôles renforcés au niveau du réseau à travers des firewalls de nouvelle génération, à travers des solutions de IAM (Identity and Access Management) communes aux solutions de sécurisation des informations sensibles dans le cloud (chiffrement notamment). La protection de l’information, donnée partageable en partie ou en totalité, est par définition un élément-clé ; c’est là-dessus que des solutions de type WAF (Web Application Firewall) apportent une réponse concertée.

Le troisième volet de la couverture des risques cloud porte sur la traçabilité des utilisateurs à privilèges, population étendue, interne (les admin), mais surtout extérieure avec les mainteneurs externes, les admin de centres d’appels externalisés, etc. Ce domaine, appelé PAM (Privileged Accounts Monitoring) est devenu en moins de deux ans un autre point stratégique pour le RSSI. C’est un domaine complexe sur le plan technologique mais aussi sur le plan organisationnel car il impacte les administrateurs et leurs habitudes concrètes de travail. La formation et la sensibilisation aux risques, solutions et processus de sécurisation des pratiques du cloud est un volet souvent négligé. Pourtant dans ce contexte de pénurie en experts de la sécurité cloud, il serait tellement logique de former des ingénieurs à ce domaine... La Cloud Security Alliance propose à cet effet des démarches à suivre.

Une réglementation toujours plus exigeante

Les RSSI ont un chemin glissant devant eux. Ils vont se trouver face à des utilisateurs finaux et des utilisateurs métiers virulents s’ils tentent de ralentir la progression de l’usage du cloud. Par ailleurs, ils vont avoir de plus en plus de contraintes et de lois à respecter, de régulateurs sectoriels ou légaux (GDPR, CNIL, ANSSI, PCI, ARCEP, ARJEL…), sans parler de la pression des directions générales des entreprises si des incidents de sécurité surviennent….

Le cloud en tant qu’hébergement externalisé revêt un aspect spécifique. Pour le cloud de l’hébergement et des data centers, la deuxième appellation comprenant l’externalisation de l’hébergement des applications, le sujet de la sécurité se déclinera très rapidement en termes de certification.

Après le Règlement général sur la protection des données (GDPR), adopté en avril 2016 et qui doit entrer en vigueur en 2018, l’ANSSI réfléchit à une nouvelle certification de sécurité des prestataires du cloud qui obligerait les OIV (Organisme d’Importance Vitale) à utiliser exclusivement des prestataires cloud certifiés. Comment les 250 entreprises les plus sensibles du pays (les OIV) peuvent-elles limiter l’export aveugle de leurs données informatiques -  ‘’le pétrole du XXIème’’ - vers des hébergeurs dont on maîtrise peu la probité, notamment quand il s’agit d’espionnage économique ? La réponse est naturelle : définir et appliquer une nouvelle certification. A l’instar de la qualification PASSI pour les acteurs de l’audit de sécurité, l’ANSSI est sur le point de lancer une certification sécurité à deux niveaux à destination des hébergeurs et opérateurs de cloud. La réflexion date de 2014 et va sûrement aboutir car ces deux dernières années, nombre de grandes entreprises nationales ont externalisé des services (notamment bureautiques) et des apps, s’appuyant largement sur le cloud, lui-même hébergé aux quatre coins du globe. Et assez souvent, à l’insu des utilisateurs métiers - d’où l’utilité des RSSI, mais cela est un autre sujet.

Fortement inspirés par la norme ISO 27001, deux niveaux de qualification seraient applicables aux différents acteurs français, européens mais aussi américains : un premier niveau Cloud Secure et un deuxième niveau Cloud Secure +.  Le 1er niveau couvrirait les bonnes pratiques de la SSI : contrôles d’accès physiques, authentification forte, chiffrement des données, hébergement des données en Europe. Le 2ème niveau imposerait une authentification multi-facteurs, une gestion et une conservation ciblées des logs, un chiffrement physique, un hébergement en France, une politique de gestion et la traçabilité des administrateurs, etc. Peu de mystère : les OIV seront probablement obligés de faire appel aux prestataires Cloud Secure +, qu’ils soient français ou non. D’ailleurs, stoppant dans l’œuf toute volonté protectionniste, l’ANSSI a appelé les grands acteurs américains du cloud à participer à la réflexion et au mouvement. Et très récemment, certains majeurs ont annoncé des data centers cloud en France ! Comme quoi…

En complément, une vingtaine de prestataires du cloud menés par OVH ont bâti une charte de bonne conduite, présentée fin septembre à Bruxelles. Associée à un label de certification délivré par un organisme indépendant, cette charte engage ses signataires à traiter, entre autres, les données de leurs clients en Europe en indiquant notamment la localisation géographique des data centers utilisés. L’objectif à terme est que cette charte serve de base juridique pour le législateur, car le G29 des CNIL européennes est censé lui aussi réglementer.

Avec autant d’enjeux, de contraintes et de composantes à respecter, les RSSI risquent de se perdre dans les nuages ! Mieux vaut qu’ils soient bien accompagnés.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
26 avril 2017 3 26 /04 /avril /2017 17:12

Par Annabelle Richard & Guillaume Morat, Avocats – Pinsent Masons France LLP

La loi n°2016-1321 du 7 octobre 2016 pour une République numérique (dite "Loi Lemaire") a notamment eu pour objectif de favoriser une politique d'ouverture des données et des connaissances, dans un objectif de transparence ou afin de permettre leur réutilisation, notamment à des fins économiques.

1.     Qu'est ce que l'Open Data ?

Il n'existe aucune définition de l'Open Data dans la Loi Lemaire alors même que cette notion a été employée à tous vents à l'occasion du processus de consultation ou lors des travaux parlementaires.

Les "données ouvertes" ont été définies le 3 mai 2014 par la Commission générale de terminologie et de néologie comme les "données qu'un organisme met à la disposition de tous sous forme de fichiers numériques afin de permettre leur réutilisation"[1].

Il s'ensuit que les données ouvertes peuvent aussi bien être des données produites par des entités privées que des données produites par des personnes publiques (e.g. l'Etat, les collectivités locales). Les données ouvertes ne sont donc pas nécessairement des "données publiques".

De même, les données ouvertes ne sont généralement pas des "données à caractère personnel" mais elles peuvent également répondre à cette qualification.

Pour être considérées comme des données ouvertes, il suffit que les données soient accessibles dans un format favorisant leur réutilisation et ce, même si cette réutilisation peut être soumise à conditions.

La Loi Lemaire s'est toutefois principalement intéressée à la question de l'Open Data sous l'angle des données publiques. C'est d'ailleurs la raison pour laquelle les principales dispositions ont été intégrées au sein du Code des relations entre le public et l'administration ("CRPA").

2.     Quel est le nouveau périmètre du droit accès aux documents administratifs ?

Depuis 1978, toute personne dispose d'un droit d'accès aux "documents administratifs", c'est-à-dire aux documents qui sont produits ou reçus dans le cadre de leur mission de service public par l'Etat, les collectivités territoriales ainsi que par les autres personnes de droit public ou les personnes de droit privé chargées d'une mission de service public[2].

La loi Lemaire a notamment élargi le champ d'application du droit d'accès aux documents administratifs en y intégrant :

Ø  d'une part, les "codes sources"[3], suivant ainsi l'avis qui avait été rendu le 8 janvier 2015 par la Commission d'accès aux documents administratifs ("Cada")[4]; et

Ø  les règles définissant le traitement algorithmique ainsi que les principales caractéristiques de sa mise en œuvre au bénéfice de l’usager qui a fait l’objet d’une décision individuelle prise sur le fondement de ce traitement algorithmique[5].

Sur ce dernier point, il semblerait que le législateur ait été inspiré par les dispositions du règlement dit "GDPR" (applicable à partir du 25 mai 2018) qui accorde le droit aux personnes physiques d'être informé de "l'existence d'une décision automatisée (…) et des informations utiles concernant la logique sous-jacente".

Par ailleurs, l'administration aura également l'obligation de communiquer les règles algorithmiques servant de fondement aux décisions individuelles[6], les "données et les bases de données collectées ou produites à l'occasion de l'exploitation d'un service public" par un délégataire, ainsi que les "données de référence", c'est-à-dire les données qui constituent "une référence commune pour nommer ou identifier des produits, des services, des territoires ou des personnes"[7].

Deux décrets d'application publiés le 14 mars 2017 sont venus d'une part, préciser les modalités de communication des règles algorithmiques servant de fondement aux décisions individuelles[8] et d'autre part, les modalités liées à la mise à disposition des données de référence[9].

Cependant, alors que le périmètre du droit d'accès aux documents administratifs a été élargi, le législateur a par ailleurs rallongé la liste des exceptions. En effet, outre les impératifs liés la "sécurité de l'Etat" et la "sécurité publique", l'administration pourra également opposer à l'administré des motifs tenant à la "sécurité des personnes" ou à la "sécurité des systèmes d'information des administrations", compromettant ainsi l'effectivité de l'accès aux codes sources[10].

3.     Quelles sont les nouvelles modalités d'accès aux documents administratifs ?

La Loi Lemaire a consacré de nouvelles modalités d'accès aux documents administratifs.

En effet, l'accès aux documents administratifs peut désormais s'effectuer, dans la limite des possibilités techniques de l'administration, via une publication des informations en ligne[11].

Ne sont toutefois pas concernées les documents administratifs qui ne sont communicables qu'à l'intéressé en application de l'article L.311-6 du CRPA.

La communication en ligne des documents administratifs doit se faire "dans un standard ouvert, aisément réutilisable et exploitable par un système de traitement automatisé"[12].

La notion de standard ouvert est déjà connue de la réglementation française puisque cette notion avait été définie par le législateur en 2004[13].

4.     Quelles sont les nouvelles obligations liées à la diffusion publique ?

La loi Lemaire a particulièrement innové en consacrant l'ouverture sectorielle et "par défaut" de certains documents administratifs.

En effet, conformément aux articles L312-1-1 et suivants du CRPA, les administrations sont notamment tenues de :

Ø  diffuser les principaux documents produits ou détenus par les administrations contenant des informations publiques et figurant dans un répertoire mis à jour chaque année;

Ø  diffuser les bases de données produites ou reçues par chaque administration ;

Ø  diffuser les données, mises à jour de façon régulière, dont la publication présente un intérêt économique, social, sanitaire ou environnemental.

Cette diffusion est toutefois limitée aux seuls documents qui existent sous forme électronique[14], ce qui exclut ainsi l'ensemble des documents non disponibles sous forme électronique. De même, cette diffusion ne s'applique pas (i) aux documents qui font l'objet d'une protection par un droit de propriété littéraire et artistique et (ii) à ceux qui ne sont pas des archives publiques ayant fait l’objet d’une conservation à l’issue des opérations de sélection prévue par le Code du patrimoine[15]. Enfin, cette diffusion est également exclue pour (i) les collectivités territoriales de moins de 3 500 habitants et (ii) les personnes morales chargées d’une mission de service public dont le nombre d’agents ou de salariés est inférieur à un seuil fixé par le pouvoir réglementaire[16].

5.     Quelle réutilisation par les administrés ?

La loi Lemaire a eu pour ambition de favoriser et faciliter la réutilisation gratuite des documents administratifs notamment en uniformisant leur régime de communication et de réutilisation.

Ainsi, les documents qui ont été communiqués doivent par la suite pouvoir être réutilisables "à d'autres fins que celles de la mission de service public pour les besoins de laquelle les documents ont été produits ou reçus[17]"

Les administrés pourront ainsi accéder et réutiliser données produites par des personnes privées exerçant une mission de service public à caractère industriel ou commercial (e.g. la RATP, la SNCF, etc.) et pourront, par exemple, compiler/analyser des statistiques, développer des applications mobiles, etc. Les administrés ne devront toutefois pas altérer ou dénaturer le sens des données publiques[18].

La réutilisation d'informations publiques donnera obligatoirement lieu à l'établissement d'une licence lorsque cette réutilisation est soumise au paiement d'une redevance[19]. Si une administration met à disposition ses données gratuitement et qu'elle décide de conditionner leur réutilisation au respect d’une licence, celle-ci devra être « choisie parmi celles figurant sur une liste fixée par décret » ou à défaut, cette licence devra être préalablement homologuée par l'Etat dans des conditions fixées par décret, ce qui devrait permettre d'assurer une certaine harmonisation.

Les dispositions de la Loi Lemaire liées à la publication en ligne des données publiques n'entreront en vigueur qu'au mois d'octobre 2018[20] et l'Etat s'est engagé à assister les collectivités locales dans l'ouverture de leurs données.

Quoi qu'il en soit, il nous semble dès à présent nécessaire pour les personnes publiques et parapubliques de mettre en œuvre l'ensemble des mesures nécessaires afin de définir une véritable politique de gouvernance des données et ce, en parallèle avec le chantier lié à la mise en conformité avec le règlement "GDPR".

[1] JORF n°0103 du 3 mai 2014

[2] CRPA, art. L.300-2

[3] CRPA, art. L300-2, alinéa 1er  : "Constituent de tels documents notamment les dossiers, rapports, études, comptes rendus, procès-verbaux, statistiques, instructions, circulaires, notes et réponses ministérielles, correspondances, avis, prévisions, codes sources et décisions."

[4]  Cada, avis n°20144578  du 8 janvier 2015

[5] CRPA, art. L.311-3-1

[6] CRPA, art. L.311-3-1

[7] CRPA, art. L. 321-4

[8] Décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l'objet de décisions individuelles prises sur le fondement d'un traitement algorithmique

[9] Décret n° 2017-331 du 14 mars 2017 relatif au service public de mise à disposition des données de référence

[10] CRPA, art. L.311-5, 2°

[11] CRPA, art. L311-1 et L.311-9

[12] CRPA, art. L300-4

[13] Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), art 4: " On entend par standard ouvert tout protocole de communication, d'interconnexion ou d'échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en œuvre."

 

[14] CRPA, art. L312-1-1

[15] CRPA, art. L311-4

[16] CRPA, art. L312-1-1

[17] CRPA, art. L.321-1

[18] CRPA, art. L.322-1

[19] CRPA, art. L323-1

[20] Loi n°2016-1321 du 7 octobre 2016, art. 8

 

 
Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
11 avril 2017 2 11 /04 /avril /2017 16:22

Laurent Richardeau
Directeur Général Délégué Numen Solutions

Le 5 décembre dernier en France, le décret n°2016-1673 est venu remplir le vide entourant les conditions qui permettent d’affirmer qu’une copie numérique est fiable. Ce texte fait écho à la loi PSDC en vigueur depuis 2015 au Luxembourg, et au Digital Act en Belgique déployé en octobre 2016.

Les cadres légaux se multiplient en Europe autour de la dématérialisation et des procédés électroniques. Après le règlement eiDAS en juillet 2016 autour de l’horodatage, des cachets et de la signature électroniques, un cadre légal entoure désormais la copie numérique en France. Jusqu’à présent, seules des normes fixaient les règles du jeu. Aujourd’hui, législation et normes se complètent pour accélérer les projets de dématérialisation dans tous les secteurs d’activité et développer le marché de l’archivage électronique.

Le Luxembourg réforme son régime juridique
La France n’a finalement fait que suivre l’exemple du Luxembourg où depuis plus de dix ans le gouvernement souhaite développer des activités autour de la digitalisation et des datacenter et n’a pas hésité à réformer le régime juridique de l’archivage. Ainsi, en juillet 2015, le Grand-Duché a promulgué une loi sur l’archivage électronique à valeur probante. L’objectif étant de couper le cordon ombilical liant les organisations aux documents papier et d’alléger leurs devoirs en matière d’archivage.

Quand le document électronique a la même valeur que le document physique
La loi PSDC (Prestataire de Services de Dématérialisation ou de Conservation) permet, en effet, à une copie électronique de conserver la même valeur probante que son original papier, à condition que cette copie soit établie et conservée par un prestataire certifié PSDC. Elle permet surtout de détruire le papier original et définit ce qu’est un tiers de confiance. Ainsi, si une organisation a fait appel à un prestataire PSDC pour archiver ses documents électroniques, le juge ne peut pas les rejeter en cas de contentieux.

La pièce manquante pour supprimer le papier
Cette loi PSDC, qui s’appuie sur le référentiel ISO/IEC 27001 dédié au management de la sécurité de l’information, constitue la pièce manque du puzzle de la complète dématérialisation d’un processus. Les organisations n’ont donc maintenant plus besoin de conserver le papier. Pas tellement parce que l’archivage électronique leur offre un ROI colossal, mais plutôt pour tout ce qu’il apporte autour de la dématérialisation, en termes de productivité, d’efficacité et de sécurité.

Un cadre de confiance pour se développer à l’étranger
La loi PSDC renforce également la confiance des organisations luxembourgeoises dont beaucoup effectuent une partie de leur business à l’étranger. Ainsi, en cas un litige avec une contrepartie située dans un autre pays, elles pourront produire un document électronique archivé avec le tampon PSDC. Tout simplement parce qu’un juge étranger ne peut ignorer le cadre luxembourgeois et parce qu’avec le règlement eIDAS tous les pays de l’Union Européenne tendent vers cette homogénéisation juridique. La Belgique aussi a développé un cadre d’archivage électronique basé sur le règlement eiDAS.

Qu’elle est verte ma vallée
En France, contrairement à la certification PSDC, aucune obligation légale n’impose directement le recours aux normes NF Z 42-013 ou ISO 14-641. Reste que les normes apportent toujours des garanties susceptibles de renforcer la confiance et de faciliter le déploiement de la dématérialisation. Dans ce contexte, les organisations qui échangent dans un cadre transfrontalier vont là où l’herbe est la plus verte et choisissent la “domiciliation” juridictionnelle locale la plus favorable (Luxembourgeoise et donc désormais Belge ou Française), tout en profitant de la primauté européenne eIDAS sur tout texte local.

Que la France Digitale est belle  
De longue date, la destruction d’originaux papier après numérisation existe soit dans le secteur privé après analyse de risque (ex : chèques, …), soit dans le secteur public, après quelques autorisations ponctuelles par les archives de France (ex : numérisation et destruction des dossiers MDPH dans certains Conseils Départementaux). L’arsenal législatif récemment mis en œuvre va magnifier et démultiplier cette approche. Ainsi, la modification récente de l’article 1379 du Code Civil le 10 février 2016 « La copie fiable a la même force probante que l'original », la loi du 29 décembre 2016, concernant la dématérialisation des factures et autres pièces justificatives, l’ordonnance n°2017-29 du 12 janvier 2017 permettant la destruction des dossiers médicaux papier ne sont que des exemples de l’incitation majeure donnée par le législateur.

Yes, we can !
Les conditions de production d’une copie fiable étant établies, les entreprises et organisations vont donc intégrer dans leur réflexion et politique d’archivage la gestion de l’ensemble du cycle de vie du document et de l’information depuis sa version originale (papier) jusqu’à sa copie fidèle archivée électroniquement en intégrant notamment le changement de support, la gestion du « double » sort final (papier et électronique) au travers de solutions d’acquisition et d’archivage hybride adaptées.

Cette révolution se fait pour le plus grand bonheur des utilisateurs qui sont désormais dans une expérience 100% digitale. L’objectif étant d’arriver au “zéro archive papier”.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
20 juillet 2016 3 20 /07 /juillet /2016 12:06
Arnaud Revert, président directeur général d’Iron Mountain France

Arnaud Revert, président directeur général d’Iron Mountain France

2018 est l’échéance à partir de laquelle les entreprises vont devoir se conformer aux nouvelles réglementations sur le traitement des informations personnelles qui, au regard des énormes volumes de données annoncés, pourraient avoir de lourdes implications pour n’importe quelle entreprise qui manipule des données personnelles.

Pour bien comprendre l’impact du nouveau règlement général de l’UE sur la protection des données (GDPR) sur les processus de gestion de l’information des entreprises et comment l’appréhender dans un contexte réglementaire plus général, voici six étapes préalables pour les aider à se mettre en conformité.

La première question à se poser est de savoir ce que sont les données personnelles et si l’entreprise en a en sa possession.

Vient ensuite la question de savoir comment le règlement GDPR s’applique au cas particulier de l’entreprise. Il est vital à ce stade, de bien comprendre la terminologie employée : données personnelles, champ d’application territorial, demande d’accès des personnes concernées par les données, évaluation de l'impact sur la protection des données (DPIA), droit à l’effacement et à la portabilité des données, et consentement.

L’étape trois consiste à se demander où les données résident dans l’entreprise. Il peut s’agir de données enregistrées sur des systèmes en interne, sur les terminaux personnels des salariés, dans des archives sur d’autres sites et dans des classeurs, ainsi que les informations stockées par des fournisseurs, des sous-traitants et des partenaires commerciaux.

Les entreprises devraient établir une carte de leurs données pour toujours savoir où se trouve l’information et s’assurer de pouvoir gérer les risques et les surveiller en continu.

Parallèlement, l’entreprise devrait faire le point des règles de rétention en vigueur et les actualiser, pour savoir que faire de l’information et combien de temps les conserver. L’objectif est de ne conserver les données personnelles et autres archives que le temps nécessaire avant de les détruire, en application des obligations légales, réglementaires ou contractuelles, et de pouvoir aussi s’en justifier.

Enfin, il est crucial de sensibiliser les personnes concernées et de rester réactif. Pour s’adapter aux réglementations changeantes, les règles de rétention doivent rester dynamiques et évoluer avec le contexte.

Même si le nouveau règlement général sur la protection des données de l’UE a pour objet de protéger le droit constitutionnel des résidents européens au respect de leur vie privée, sans établir des conditions de rétention spécifiques, tout défaut de conformité pourra avoir de lourdes implications, à la fois financières et sur leur réputation. Si bien qu’il est très important de s’accorder sur les règles de rétention des archives. Les entreprises doivent impérativement observer ces étapes dès maintenant, pour s’assurer de pouvoir identifier facilement la localisation des données personnelles au sein de leur organisation et comprendre quelles sont leurs obligations de gestion.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
18 juillet 2016 1 18 /07 /juillet /2016 20:34

Louis Fanchini, VP Sales EMEA South, Alfresco

L'information est un élément vital dans l'industrie du savoir. Toutefois, l'obtention d'informations ne représente qu'une part infime du processus. Le succès ou l'échec d'une entreprise réside également dans la manière dont elle stocke les données, y accède et les exploite.

Compte tenu du volume croissant d'informations dont nous disposons, nous risquons un ralentissement et non une accélération de nos processus métier. On pourrait comparer notre situation aux embouteillages de nos grandes villes ; le trafic est tel sur nos routes saturées que les voitures roulent aujourd'hui plus lentement que les chariots d'antan.

Selon l'association AIIM, qui représente la communauté des professionnels de l'information, la productivité à l'ère du numérique a tendance à baisser face à la prolifération des données. Elle estime que les documents « égarés » représentent pour l'économie britannique un coût de près de 15 milliards de livres chaque année. D'autre part, plus les outils dont nous disposons sont nombreux (tablettes, smartphones, ordinateurs portables ou de bureau), moins le partage et l'utilisation des données créées sur ces appareils sont efficaces.

Les solutions de gestion de contenu d'entreprise (ECM) modernes doivent prendre en charge de nouveaux modes de travail. Les services informatiques sont soumis à rude épreuve pour satisfaire les attentes d'une nouvelle classe d'utilisateurs connectés. À l'aise avec les nouvelles technologies, ils fondent leurs exigences en matière de convivialité des applications sur leur expérience des sites de vente en ligne. Aujourd'hui, chacun souhaite pouvoir rechercher et partager des documents aussi facilement que lorsqu'il partage des photos avec ses amis ou qu'il commande un livre sur Internet.

Ce nouveau paradigme du travail est accentué par l'afflux des actifs de la génération du millénaire. Ces natifs numériques, nés en 1983 ou après, ont grandi avec des applications modernes intuitives telles qu'Instagram, Snapchat ou Uber. Extrêmement mobile et connectée, la génération du millénaire exige des solutions permettant de travailler n'importe où, via n'importe quel réseau ou appareil. Ses attentes élevées en matière d'accès simplifié au contenu poussent les services informatiques à moderniser au plus vite leur stratégie ECM.

Si la division informatique n'offre pas aux utilisateurs des solutions à la hauteur de leurs attentes, pour le partage avec les partenaires externes et l'accès au contenu sur les appareils mobiles, elle risque de les voir recourir à leurs propres solutions. Or, l'utilisation d'outils non approuvés par l'entreprise multiplie les silos d'informations déconnectés et les risques liés à la protection des données confidentielles.

Si les systèmes ECM sont essentiels, des fonctionnalités de gestion des processus métier (BPM) qui aident à structurer les données et à débloquer les silos potentiels sont également disponibles. Si le concept de BPM n'est pas nouveau, il se perfectionne et devient plus adaptable. L'ajout de fonctionnalités BPM aux outils de gestion de contenu facilite l'attribution des tâches à leurs destinataires et l'accès aux informations pertinentes et accélère la circulation des données au sein de l'espace de travail. On assiste à une véritable démocratisation de l'environnement de travail.

Le choix du cloud

Les vagues technologiques successives ont totalement transformé la direction informatique de l'entreprise. Si tout a changé avec l'apparition du cloud, c'est désormais les appareils mobiles qui redéfinissent les règles de l'informatique d'entreprise. La réalité de l'architecture d'entreprise actuelle exige une nouvelle approche de l'ECM et du BPM, en accord avec la manière dont l'informatique accompagne l'entreprise moderne.

Afin de mieux prendre en charge les utilisateurs mobiles et les partenaires externes, un grand nombre d'entreprises transfèrent une partie de leurs contenus dans le cloud. Les analystes les plus éminents, tels IDC et Forrester, prévoient un basculement massif vers l'ECM hybride. L'approche nouvelle génération implique le stockage du contenu à la fois en local et dans le cloud, ainsi qu'une synchronisation transparente entre les deux. L'ECM et le BPM hybrides répondent aux exigences de sécurité et de conformité des DSI et permettent aux équipes internes et collaborateurs externes d'être plus productifs.

Par le passé, les systèmes BPM, ECM et de gestion des cas (ou Dynamic Case Management, DCM) étaient traditionnellement séparés en dépit de composants architecturaux communs. Si les plateformes DCM et ECM offrent des outils pour la gestion de contenu, l'archivage et le suivi de la collaboration dynamique non structurée de groupes fonctionnels multiples, les suites BPM incluent des outils plus puissants permettant de codifier des processus, tâches et workflows structurés et répétables. Elles disposent des fonctionnalités nécessaires pour analyser et contrôler l'exécution et les performances.

Le cabinet d'étude 451 Research prévoit une intégration croissante entre les plateformes BPM, DCM et ECM, soutenue par des fonctionnalités de partage de contenu dans le cloud. La convergence de ces systèmes et marchés formera un cadre commun pour le développement et l'intégration d'applications de tous types pour répondre à la demande croissante des entreprises qui souhaitent une consolidation des technologies et fournisseurs.

Un simple coup d'œil à n'importe quel data center moderne suffit pour comprendre qu'un modèle unique ne convient pas au plus grand nombre. Les systèmes ECM modernes doivent prendre en charge à la fois les déploiements classiques en local, les environnements virtualisés, les déploiements dans le cloud privé, les déploiements SaaS dans le cloud public et tout ce qui se situe dans l'intervalle.

IDC estime que, d'ici 2020, 13 % des données seront stockés dans le cloud, 61 % en local et que le reste sera « géré » (c'est-à-dire traité ou transféré) via le cloud. Des options de déploiement flexibles permettent au service informatique de s'adapter à l'évolution des besoins au fil du temps.

Les entreprises qui utilisent des solutions ECM / BPM hybrides basées dans le cloud parviennent mieux à contrôler leurs données, de manière flexible et modulable. La gestion des processus dans le cloud doit être possible n'importe où, à tout moment ; et les fonctions d'optimisation des processus doivent être aussi variées qu'elles le sont dans l'entreprise.

Moins de paperasse

Les travailleurs de la connaissance eux-mêmes préfèrent la collaboration électronique. Selon une étude du leader des logiciels de création et de marketing digital, Adobe[1], nous détestons tellement la paperasse que nous serions prêts à quitter notre emploi pour un autre offrant une rémunération équivalente, « si seulement nous n'avions pas autant de documents administratifs à remplir ». Près des deux tiers d'entre nous (69 %), au Royaume-Uni comme aux États-Unis, sont tellement las des démarches administratives qu'ils seraient prêts à rejoindre un employeur qui exigerait moins de paperasse.

Dans des cas comme celui-là, les processus BPM prouvent toute leur utilité. Ils offrent les moyens de rationaliser les processus et de donner à chacun davantage de temps pour se consacrer à des aspects plus gratifiants du travail. La nouvelle génération de solutions iBPM (intelligent Business Process Management) va encore plus loin en utilisant les réseaux sociaux, appareils mobiles, outils collaboratifs, d'analyse et services cloud pour créer des espaces de travail entièrement connectés.

Une étude de Gartner, fondée sur plusieurs centaines d'interviews d'entreprises de toutes tailles, implantées dans le monde entier, a montré que la majorité des solutions BPM génèrent un ROI à deux chiffres. Plus de trois quarts de ces projets génèrent un ROI d'au moins 15 %, et une part équivalente favorise une hausse de l'avantage compétitif. Parmi les avantages non tangibles, on constate une hausse en termes de fidélisation de la clientèle, de satisfaction des collaborateurs et de transparence, associée à des répercussions commerciales positives.

À mesure que l'espace de travail se diversifie et devient plus sophistiqué et interconnecté, il apparaît évident que des processus métiers optimisés constituent la prochaine étape dans la création d'une véritable économie de l'ère du savoir.

[1] Paperjam – Why Documents are Dragging us Down (Bourrage papier - Les documents causent notre perte), Adobe, mars 2015

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
15 mars 2016 2 15 /03 /mars /2016 18:14
Archivage électronique des emails - Quels types d'emails faut-il conserver et archiver ?

Tribune libre de William Menant, Ingénieur Archivage Électronique chez Arkheos.

Archivage électronique des emails : Parce qu’aujourd’hui les services de messagerie connaissent une croissance fulgurante et que les volumes de contenus échangés par voie électronique dépassent largement ceux des flux papier, l’archivage des emails est devenu un problème complexe. Quels emails doit-on archiver ? Pour combien de temps ? Que faire des pièces jointes ? Et les emails d’ordre privé ? Autant de questions auxquelles il est primordial de répondre afin de mettre en place une politique d’archivage efficace.

La mise en place d’une politique d’archivage des emails au sein de l’entreprise permet d’abord de respecter l’obligation légale de traçabilité des échanges électroniques (loi de juin 2004 pour la Confiance dans l’Economie Numérique - LCEN), mais aussi de faciliter l’accès à l’information et de retrouver facilement certaines données utiles, comme par exemple l’auteur d’un message envoyé depuis un poste interne ou un contrat signé reçu en pièce jointe à une date précise. Reste que parmi le flot d’emails envoyés ou reçus chaque jour dans l’entreprise, tous n’ont pas la même valeur. Il faudra donc, comme pour le papier, être capable de faire le distinguo entre les emails ayant une réelle valeur « business », archivistique et ou historique, et ceux non pertinents dont la valeur est purement informelle ou personnelle. Chaque type d’email aura donc droit à un traitement différent.

Les emails externes
On peut dire que tout email envoyé à l’extérieur par un employé utilisant la messagerie d’entreprise est, en fonction de ses termes, « engageant » pour l’entreprise vis-à-vis du destinataire, sauf convention synallagmatique (contrat bilatéral) contraire avec la personne physique ou morale destinataire. L’entreprise n’est d’ailleurs pas forcément au courant de cet engagement.
Inversement, les mails reçus (même à titre personnel) peuvent comporter certains termes engageants à l’égard de l’entreprise et parfois même l’engageant plus ou moins elle-même. Un archivage de tous les emails susceptibles de comporter des engagements est donc nécessaire, si l’on veut pouvoir les connaître et, si besoin, les analyser. A plus forte raison, si ces emails intègrent une signature électronique (pour un contrat, un avenant, un devis, etc.). Rappelons que ce procédé permet d'authentifier l'auteur de l’email et de garantir son intégrité, par analogie avec la signature manuscrite d'un document papier.

Les emails internes
La messagerie étant devenue un outil de travail collaboratif, elle facilite désormais certains processus administratifs internes (demande de congés, plaintes, réunions de service, etc.). Les emails internes sont donc souvent porteurs de droits ou de devoirs et, à ce titre, sont également « engageants ». D’autres constituent des dossiers de travail internes dont il peut être utile de conserver la trace. Parfois même, ils sont constitutifs du patrimoine de l’entreprise. Leur conservation apparaît donc légitime. Un bon système d’archivage permettra de les retrouver en fonction de différents critères (l’auteur, le destinataire, la date, l’objet, etc.) ou par mots-clés. Sans oublier, les emails échangés dans le cadre de groupes de travail collaboratifs et classés au sein de dossiers. Eux aussi doivent également être pris en compte par le système d’archivage électronique.

Les emails avec pièces jointes
Certains documents issus des processus métier (ERP) tels que les commandes, les factures, les demandes de congés, etc., sont aussi très souvent transmis par email. Conservés en interne pour d’évidentes raisons documentaires, ils se doivent d’être archivés avec l’email de transmission (car leur transmission par voie électronique est, une fois de plus, « engageante »).
Il en est de même, d’une manière plus générale, pour tous les fichiers joints aux emails, le lien entre les deux devant toujours être maintenu. Une attention toute particulière doit être portée sur les contrats. Si certains s’affichent dans le corps de l’email et peuvent signés électroniquement, nombre d’entre eux sont encore insérés en pièces jointes. Ils doivent donc être édités, imprimés, signés à la main, puis scannés avant d’être réexpédiés par email. L’important étant d’être certain d’archiver la bonne version du document.

Les emails privés, un cas particulier
En France, un service de messagerie d’entreprise doit autoriser les utilisateurs à envoyer des emails privés. Mais la CNIL demande à ces mêmes entreprises de ne pas conserver de données privées. Si un bon système d’archivage électronique doit évidemment être capable de filtrer les emails à archiver, seul l’employé peut déterminer ce qui est vraiment d’ordre privé. Trois solutions s’offrent donc à l’entreprise pour gérer correctement ce droit, en conformité avec la directive CNIL :
- demander aux employés de classer l’email comme personnel avec la balise permise par la messagerie
- demander aux employés de rajouter dans l’objet de l’email l’étiquette « PERSO » ou « PRIVE » ;
- demander aux employés d’avoir un dossier dans leur boîte aux lettres (BAL) nommé « PERSO ».
Avec l’une de ces trois options, le système d’archivage électronique saura faire le tri et éviter l’archivage inopportun de tous les emails « privés ». La rédaction d’une charte de messagerie liée au règlement intérieur de l’entreprise reste toutefois fortement conseillée afin d’éviter toute polémique sur ce sujet.

Les documents produits par l’informatique de gestion (comptabilité, facturation, finances, RH, gestion des stocks, logistique, etc.).
Si ces documents peuvent en général être réédités en duplicata par l’informatique de gestion, ils ne sont pas forcément archivés automatiquement sous leur forme exacte, au moment de leur émission originale. D’où l’intérêt de les inclure dans le champ d’action du SAE (système d’archivage électronique). Ces documents ayant pu évoluer entre le moment où ils ont été créés et la demande de duplicata.

Un alignement nécessaire de tous les niveaux de décision de l’organisation
In fine, un email doit être conservé et, le cas échéant, archivé, quand il reflète les activités de l’institution, de l’organisme, de l’entreprise ou du service. Il peut s’agir de correspondances liées à des réunions, des actes, des ordres du jour, des comptes rendus de réunions, des contrats, des devis, des relances, des factures, etc. D’une manière générale, les principes de sélection des emails à conserver, puis à archiver, s’appliquent suivant les mêmes règles de conservation en vigueur pour la correspondance classique, au format papier. Reste que pour que cet archivage soit optimal, tous les niveaux de décision (de l’utilisateur jusqu’à la direction) doivent être « alignés » et capables d’appliquer les mêmes procédures et les mêmes règles, aussi bien à l’envoi qu’à la réception. Sans omettre d’être attentifs aux lois exigeant, pour certaines données, un délai minimal de conservation.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
24 novembre 2015 2 24 /11 /novembre /2015 18:38
Nigel Moulton, Directeur technique, EMEA – VCE

Nigel Moulton, Directeur technique, EMEA – VCE

Votre service informatique est-elle organisée en bureaux cloisonnés ou en open space ?

Essayez, de prendre quelques minutes pour observer votre service informatique. Que voyez-vous ? Ou plutôt, que ne voyez-vous pas ? Les équipes respectivement en charge du stockage, du réseau et de la virtualisation des serveurs travaillent-ils ensemble? Sont-ils en mesure d’interchanger les tâches, de passer d’une équipe à l’autre, de fonctionner différemment en somme ?
En bref, diriez-vous que votre service informatique ressemble plus aux bureaux cloisonnés dans lesquels on travaillait il y des années ou de l’open space où on échange et communique aisément ? La réponse est importante. Les compétences et la culture de votre équipe d’infrastructure informatique ont un fort impact sur les chances de votre entreprise de devenir/demeurer une entreprise numérique gagnante.

Une activité flexible dans une infrastructure et une équipe déconnectées ?

Vous ne pouvez tout simplement pas développer une activité flexible, centrée sur le client dans une infrastructure déconnectée, gérée par une équipe déconnectée. Pour atteindre l’intégration, la rapidité, l’évolutivité et la résilience, une activité numérique doit converger votre infrastructure informatique et faire de même avec vos équipes.

Pourtant, il ne faut pas sous-estimer combien ce changement peut être radical et troublant pour les professionnels de l'informatique. Tout d'abord, la convergence IT consiste à briser les barrières entre les silos opérationnels, la standardisation et l'automatisation des processus et change la façon dont ceux-ci sont gérés. L’infrastructure convergée c’est en fait, bien plus rassembler les équipes que les systèmes hardware. Pour la plupart des professionnels qui travaillent dans les infrastructures, il s’agit de faire un bond, professionnellement et émotionnellement. La plupart des professionnels de l'informatique vont instinctivement traduire ces changements dans, au mieux, une perte de connaissance, d'influence ou d'autorité et, au pire, le chômage. Rares sont ceux qui vont voir ce qu'ils doivent représenter: une chance d’accroître leurs compétences, d’assurer le futur de leur carrière professionnelle et de casser la monotonie de la maintenance, pour apporter une vraie valeur créative là où elle est nécessaire.

La convergence fait émerger d’autres rôles informatiques

Les professionnels de l’informatique d’aujourd’hui sont ultra formés, ils ont généralement suivi un bon cursus et une forte évolution professionnelle, accédant souvent à un statut reconnu. Mais ces qualifications peuvent évoluer à un rythme lent. Beaucoup reflètent encore les exigences d’un environnement informatique passé, très traditionnel[i], où l’informatique, le réseau et le stockage de données fonctionnent dans des modules isolés. De nouvelles formations sont nécessaires pour prendre en compte cette réorientation des rôles informatiques.

Un environnement convergé, par exemple, nécessite un ensemble complet et mixte de compétences, une bonne compréhension de la gestion, de la conception, des logiciels et de la prestation de services, ainsi que des besoins plus large de l’activité de l’entreprise.

En outre, l’introduction de la convergence fait émerger d’autres rôles informatiques, qui nécessitent d’autres compétences, comme celles des architectes de l’information avec des compétences d’administration système combinées à une bonne compréhension de la manière dont ces systèmes s’intègrent avec les opérations techniques et les processus commerciaux existants. Ce sont aussi, des professionnels DevOps qui fusionnent le développement et les opérations pour augmenter la vitesse à laquelle les applications sont créées et déployées.

Les directeurs informatiques s’intéresseraient trop au court terme ?

Mais le changement d’un seul élément implique souvent le changement d’un suivant. Un par un, le rôle de services, du développement et des opérations informatiques établis se transforment. Par exemple, les directeurs informatiques et leurs responsables IT doivent collaborer avec les RH afin de comprendre et gérer les implications de ces répercussions.

Les commentateurs du secteur sont divisés quant à savoir si les directeurs informatiques comprennent bien cela. Selon Gartner[ii], 81 % des directeurs informatiques s’intéressent trop au court terme, avec un horizon maximum à trois ans.

En même temps, l’association informatique, CompTIA, s’est déclarée surprise en apprenant dans son étude 2015 sur l’évolution des ressources humaines à l’échelle internationale[iii], qu’à l’âge des technologies numériques, ce sont les lacunes de compétences en matière de réseau, de stockage et d’informatique qui se voient accorder la plus haute priorité. Il y a donc clairement un écart entre les compétences d’infrastructure que les entreprises possèdent et celles dont elles ont encore besoin.

Les formations sur les nouvelles solutions d’infrastructure telles que les technologies convergées et hyper convergées deviennent indispensables. Il ne s’agit pas simplement de formations informelles, sur le terrain, pour répondre aux besoins immédiats, mais de formations solides et certifiées. L’avantage pratique, ainsi que le sentiment de réconfort associé, ne doivent pas être sous-estimés.

Notre propre programme de professionnels certifiés VCE, par exemple, lancé en avril 2014, aide les professionnels de l’informatique à développer les compétences nécessaires pour concevoir, déployer et gérer une infrastructure convergée en tant qu’environnement unique et homogène. Chaque mois, ce sont près de 500 professionnels de l’infrastructure convergée qui sont certifiés VCE.

Nul n’embrasse une carrière technologique avec l’espoir que chaque jour sera semblable au précédent. Les professionnels de l’informatique doivent retrouver leur soif d’apprendre, leur passion et leur souhait de progresser, et les directeurs informatiques doivent leur montrer l’exemple. Les cloisons ont sauté, l’espace de travail comme le service informatique sont maintenant propices à la communication et à l’échange.


 


 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
3 novembre 2015 2 03 /11 /novembre /2015 17:14

Jean-Paul Crenn, fondateur du cabinet conseil en e-commerce et transformation digitale Webcolibri

 

En tout cas c’est ce qu’affirme Julien Zakoian, ancien Directeur Marketing & Communication du site vente-privee.com : « Les Big Data, c’est comme le bug de l’an 2000, ça n’existe pas ! Ou plutôt, c’est une appellation marketing plaquée sur un phénomène dont l’existence remonte aux premiers pas de l’informatique... et pour lequel un certain nombre d’acteurs, SS2I, ou boîtes de Business Intelligence en tête, ont inventé un sobriquet, à des fins commerciales.»1

Directions Générales et Marketing, Informaticiens et tous ceux qui travaillent autour des technologies ont l’habitude des modes et des mythes qui s’évanouissent après quelques années de promesses démesurées. Rappelons-nous par exemple les promesses de Second Life il y a 10 ans. Le Big Data est-il juste un habillage marketing, comme nous l’affirme Julien Zakoian ?

Tout d'abord ce Big Data mériterait bien une définition..."Collecte, exploration et analyse de grandes masses de données" semble être celle qui est le plus généralement admise. Et l’on voit bien que cette description est loin d’être suffisamment précise.

Prenons tout d’abord le terme "grande masse de données". Pour les géants du Web tels que Google ou Facebook nous imaginons bien que cela représente des millions de To mais beaucoup de petits malins maquillent en « big » ce qui est en réalité du « small ». Du coup ils vendent doublement du rêve : d'une part celui du fantasme lié à l'espionnage du type NSA et d'autre part celui d’une exploitation enfin aisée, complète et peu onéreuse de leurs données.

Le « Big Data » est donc bien « Big ». Mais ce « big » débute à partir de quel seuil ? La « norme » la plus commune est celle de 100 To de données. En-deçà vous restez dans le « small ». Quoiqu’en dise votre SS2I ou votre consultant favori - votre ego dû-t-il en souffrir.

Mais le Big Data n’est pas qu’une question de taille. Car quand on creuse notre première définition, il s’avère que le Big Data consiste en fait à traiter un ensemble de données plus ou moins structurées qui deviennent tellement volumineuses qu'elles sont difficiles à travailler avec des outils classiques de gestion de base de données. «Big Data » est alors une appellation attrape-tout pour désigner les données qui ne vont pas dans les cases habituelles des systèmes d’information. Il se réfère aux données qui sont trop volumineuses pour tenir sur un seul serveur, trop peu structurées pour tenir dans une base de données traditionnelle, générées en un flot continu tellement massif qu’elles ne peuvent tenir dans un entrepôt de données classique. Typiquement des données provenant de réseaux sociaux, de capteurs liés à des objets connectés, de site Web...

1 Citation issue du Livre Blanc de l’EBG consacré aux Big Data, 2014.

Avis d’expert

Toulouse, le 2 novembre 2015Du coup cela se complexifie. D’autant plus que d’avoir beaucoup de données c’est bien mais en faire quelque chose c’est mieux.

Et c’est là que nous arrivons à la promesse la plus révolutionnaire du Big Data : l'abduction. Les données vont "parler" d'elles-mêmes, sans qu'il y est besoin d'avoir de modèles préconçus pour les analyser. Adieu les notions d'induction et de déduction ! Le Big Data promet donc un nouveau paradigme : celui de la fin du cartésianisme et de la pensée scientifique - et donc de la pensée marketing - telle que nous la connaissons. Rien que cela !

Mais, bien sûr, rien n'est moins certain et les débats font rage. Notamment parce que les outils utilisés intègrent, de par leur construction, leurs propres biais.

Alors, « Big Data » est-elle une simple appellation marketing, conçue pour optimiser la valorisation financière des GAFA sur laquelle se sont précipités SS2I, éditeurs de Business Intelligence et autres auteurs d’ouvrages en manque de droits d’auteur ?

Pour la plus grande partie du discours sur les « Big Data » cela est clairement le cas. Il est en effet tellement aisé pour l’offreur de service de maquiller en « big » ce qui est « small », tellement valorisant pour le client de se sentir faisant partie des « grands » de ce monde. Il ne faudrait cependant pas s’arrêter là car nous risquerions de jeter le bébé avec l’eau du bain. La masse des informations liées au numérique, leur flot continu, leur hétérogénéité, nécessitent clairement de nouvelles approches pour pouvoir être traitées et surtout analysées afin d’aider à l’action et à la prise de décision - ces dernières étant tellement nombreuses qu’elles doivent être en bonne partie automatisées, grâce à des agents intelligents.

Selon le «Hype Cycle » de Gartner, nous pouvons prendre rendez-vous en 2020 ou en 2025 pour voir si « Big Data » aura tenu toutes ses promesses. A la lecture d’un article de Joël Rosney de 1995, consacré à l’imminence de l’arrivée d’agents intelligents dans les cyberespaces, nous pouvons penser que 2035 sera sans doute la bonne date.

ATELIER DEBAT : ENJEUX ET REALITES DU BIG DATA

RDV le 17 novembre 2015 de 8h45 à 10h30 Lieu : HAAS Société d’Avocats, 87 Bd de Courcelles, 75008 Paris

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article