Présentation

  • : Le blog de Décideur Public - Univers Numérique
  • Le blog de Décideur Public - Univers Numérique
  • : Blog d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

11 avril 2017 2 11 /04 /avril /2017 16:22

Laurent Richardeau
Directeur Général Délégué Numen Solutions

Le 5 décembre dernier en France, le décret n°2016-1673 est venu remplir le vide entourant les conditions qui permettent d’affirmer qu’une copie numérique est fiable. Ce texte fait écho à la loi PSDC en vigueur depuis 2015 au Luxembourg, et au Digital Act en Belgique déployé en octobre 2016.

Les cadres légaux se multiplient en Europe autour de la dématérialisation et des procédés électroniques. Après le règlement eiDAS en juillet 2016 autour de l’horodatage, des cachets et de la signature électroniques, un cadre légal entoure désormais la copie numérique en France. Jusqu’à présent, seules des normes fixaient les règles du jeu. Aujourd’hui, législation et normes se complètent pour accélérer les projets de dématérialisation dans tous les secteurs d’activité et développer le marché de l’archivage électronique.

Le Luxembourg réforme son régime juridique
La France n’a finalement fait que suivre l’exemple du Luxembourg où depuis plus de dix ans le gouvernement souhaite développer des activités autour de la digitalisation et des datacenter et n’a pas hésité à réformer le régime juridique de l’archivage. Ainsi, en juillet 2015, le Grand-Duché a promulgué une loi sur l’archivage électronique à valeur probante. L’objectif étant de couper le cordon ombilical liant les organisations aux documents papier et d’alléger leurs devoirs en matière d’archivage.

Quand le document électronique a la même valeur que le document physique
La loi PSDC (Prestataire de Services de Dématérialisation ou de Conservation) permet, en effet, à une copie électronique de conserver la même valeur probante que son original papier, à condition que cette copie soit établie et conservée par un prestataire certifié PSDC. Elle permet surtout de détruire le papier original et définit ce qu’est un tiers de confiance. Ainsi, si une organisation a fait appel à un prestataire PSDC pour archiver ses documents électroniques, le juge ne peut pas les rejeter en cas de contentieux.

La pièce manquante pour supprimer le papier
Cette loi PSDC, qui s’appuie sur le référentiel ISO/IEC 27001 dédié au management de la sécurité de l’information, constitue la pièce manque du puzzle de la complète dématérialisation d’un processus. Les organisations n’ont donc maintenant plus besoin de conserver le papier. Pas tellement parce que l’archivage électronique leur offre un ROI colossal, mais plutôt pour tout ce qu’il apporte autour de la dématérialisation, en termes de productivité, d’efficacité et de sécurité.

Un cadre de confiance pour se développer à l’étranger
La loi PSDC renforce également la confiance des organisations luxembourgeoises dont beaucoup effectuent une partie de leur business à l’étranger. Ainsi, en cas un litige avec une contrepartie située dans un autre pays, elles pourront produire un document électronique archivé avec le tampon PSDC. Tout simplement parce qu’un juge étranger ne peut ignorer le cadre luxembourgeois et parce qu’avec le règlement eIDAS tous les pays de l’Union Européenne tendent vers cette homogénéisation juridique. La Belgique aussi a développé un cadre d’archivage électronique basé sur le règlement eiDAS.

Qu’elle est verte ma vallée
En France, contrairement à la certification PSDC, aucune obligation légale n’impose directement le recours aux normes NF Z 42-013 ou ISO 14-641. Reste que les normes apportent toujours des garanties susceptibles de renforcer la confiance et de faciliter le déploiement de la dématérialisation. Dans ce contexte, les organisations qui échangent dans un cadre transfrontalier vont là où l’herbe est la plus verte et choisissent la “domiciliation” juridictionnelle locale la plus favorable (Luxembourgeoise et donc désormais Belge ou Française), tout en profitant de la primauté européenne eIDAS sur tout texte local.

Que la France Digitale est belle  
De longue date, la destruction d’originaux papier après numérisation existe soit dans le secteur privé après analyse de risque (ex : chèques, …), soit dans le secteur public, après quelques autorisations ponctuelles par les archives de France (ex : numérisation et destruction des dossiers MDPH dans certains Conseils Départementaux). L’arsenal législatif récemment mis en œuvre va magnifier et démultiplier cette approche. Ainsi, la modification récente de l’article 1379 du Code Civil le 10 février 2016 « La copie fiable a la même force probante que l'original », la loi du 29 décembre 2016, concernant la dématérialisation des factures et autres pièces justificatives, l’ordonnance n°2017-29 du 12 janvier 2017 permettant la destruction des dossiers médicaux papier ne sont que des exemples de l’incitation majeure donnée par le législateur.

Yes, we can !
Les conditions de production d’une copie fiable étant établies, les entreprises et organisations vont donc intégrer dans leur réflexion et politique d’archivage la gestion de l’ensemble du cycle de vie du document et de l’information depuis sa version originale (papier) jusqu’à sa copie fidèle archivée électroniquement en intégrant notamment le changement de support, la gestion du « double » sort final (papier et électronique) au travers de solutions d’acquisition et d’archivage hybride adaptées.

Cette révolution se fait pour le plus grand bonheur des utilisateurs qui sont désormais dans une expérience 100% digitale. L’objectif étant d’arriver au “zéro archive papier”.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
20 juillet 2016 3 20 /07 /juillet /2016 12:06
Arnaud Revert, président directeur général d’Iron Mountain France

Arnaud Revert, président directeur général d’Iron Mountain France

2018 est l’échéance à partir de laquelle les entreprises vont devoir se conformer aux nouvelles réglementations sur le traitement des informations personnelles qui, au regard des énormes volumes de données annoncés, pourraient avoir de lourdes implications pour n’importe quelle entreprise qui manipule des données personnelles.

Pour bien comprendre l’impact du nouveau règlement général de l’UE sur la protection des données (GDPR) sur les processus de gestion de l’information des entreprises et comment l’appréhender dans un contexte réglementaire plus général, voici six étapes préalables pour les aider à se mettre en conformité.

La première question à se poser est de savoir ce que sont les données personnelles et si l’entreprise en a en sa possession.

Vient ensuite la question de savoir comment le règlement GDPR s’applique au cas particulier de l’entreprise. Il est vital à ce stade, de bien comprendre la terminologie employée : données personnelles, champ d’application territorial, demande d’accès des personnes concernées par les données, évaluation de l'impact sur la protection des données (DPIA), droit à l’effacement et à la portabilité des données, et consentement.

L’étape trois consiste à se demander où les données résident dans l’entreprise. Il peut s’agir de données enregistrées sur des systèmes en interne, sur les terminaux personnels des salariés, dans des archives sur d’autres sites et dans des classeurs, ainsi que les informations stockées par des fournisseurs, des sous-traitants et des partenaires commerciaux.

Les entreprises devraient établir une carte de leurs données pour toujours savoir où se trouve l’information et s’assurer de pouvoir gérer les risques et les surveiller en continu.

Parallèlement, l’entreprise devrait faire le point des règles de rétention en vigueur et les actualiser, pour savoir que faire de l’information et combien de temps les conserver. L’objectif est de ne conserver les données personnelles et autres archives que le temps nécessaire avant de les détruire, en application des obligations légales, réglementaires ou contractuelles, et de pouvoir aussi s’en justifier.

Enfin, il est crucial de sensibiliser les personnes concernées et de rester réactif. Pour s’adapter aux réglementations changeantes, les règles de rétention doivent rester dynamiques et évoluer avec le contexte.

Même si le nouveau règlement général sur la protection des données de l’UE a pour objet de protéger le droit constitutionnel des résidents européens au respect de leur vie privée, sans établir des conditions de rétention spécifiques, tout défaut de conformité pourra avoir de lourdes implications, à la fois financières et sur leur réputation. Si bien qu’il est très important de s’accorder sur les règles de rétention des archives. Les entreprises doivent impérativement observer ces étapes dès maintenant, pour s’assurer de pouvoir identifier facilement la localisation des données personnelles au sein de leur organisation et comprendre quelles sont leurs obligations de gestion.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
18 juillet 2016 1 18 /07 /juillet /2016 20:34

Louis Fanchini, VP Sales EMEA South, Alfresco

L'information est un élément vital dans l'industrie du savoir. Toutefois, l'obtention d'informations ne représente qu'une part infime du processus. Le succès ou l'échec d'une entreprise réside également dans la manière dont elle stocke les données, y accède et les exploite.

Compte tenu du volume croissant d'informations dont nous disposons, nous risquons un ralentissement et non une accélération de nos processus métier. On pourrait comparer notre situation aux embouteillages de nos grandes villes ; le trafic est tel sur nos routes saturées que les voitures roulent aujourd'hui plus lentement que les chariots d'antan.

Selon l'association AIIM, qui représente la communauté des professionnels de l'information, la productivité à l'ère du numérique a tendance à baisser face à la prolifération des données. Elle estime que les documents « égarés » représentent pour l'économie britannique un coût de près de 15 milliards de livres chaque année. D'autre part, plus les outils dont nous disposons sont nombreux (tablettes, smartphones, ordinateurs portables ou de bureau), moins le partage et l'utilisation des données créées sur ces appareils sont efficaces.

Les solutions de gestion de contenu d'entreprise (ECM) modernes doivent prendre en charge de nouveaux modes de travail. Les services informatiques sont soumis à rude épreuve pour satisfaire les attentes d'une nouvelle classe d'utilisateurs connectés. À l'aise avec les nouvelles technologies, ils fondent leurs exigences en matière de convivialité des applications sur leur expérience des sites de vente en ligne. Aujourd'hui, chacun souhaite pouvoir rechercher et partager des documents aussi facilement que lorsqu'il partage des photos avec ses amis ou qu'il commande un livre sur Internet.

Ce nouveau paradigme du travail est accentué par l'afflux des actifs de la génération du millénaire. Ces natifs numériques, nés en 1983 ou après, ont grandi avec des applications modernes intuitives telles qu'Instagram, Snapchat ou Uber. Extrêmement mobile et connectée, la génération du millénaire exige des solutions permettant de travailler n'importe où, via n'importe quel réseau ou appareil. Ses attentes élevées en matière d'accès simplifié au contenu poussent les services informatiques à moderniser au plus vite leur stratégie ECM.

Si la division informatique n'offre pas aux utilisateurs des solutions à la hauteur de leurs attentes, pour le partage avec les partenaires externes et l'accès au contenu sur les appareils mobiles, elle risque de les voir recourir à leurs propres solutions. Or, l'utilisation d'outils non approuvés par l'entreprise multiplie les silos d'informations déconnectés et les risques liés à la protection des données confidentielles.

Si les systèmes ECM sont essentiels, des fonctionnalités de gestion des processus métier (BPM) qui aident à structurer les données et à débloquer les silos potentiels sont également disponibles. Si le concept de BPM n'est pas nouveau, il se perfectionne et devient plus adaptable. L'ajout de fonctionnalités BPM aux outils de gestion de contenu facilite l'attribution des tâches à leurs destinataires et l'accès aux informations pertinentes et accélère la circulation des données au sein de l'espace de travail. On assiste à une véritable démocratisation de l'environnement de travail.

Le choix du cloud

Les vagues technologiques successives ont totalement transformé la direction informatique de l'entreprise. Si tout a changé avec l'apparition du cloud, c'est désormais les appareils mobiles qui redéfinissent les règles de l'informatique d'entreprise. La réalité de l'architecture d'entreprise actuelle exige une nouvelle approche de l'ECM et du BPM, en accord avec la manière dont l'informatique accompagne l'entreprise moderne.

Afin de mieux prendre en charge les utilisateurs mobiles et les partenaires externes, un grand nombre d'entreprises transfèrent une partie de leurs contenus dans le cloud. Les analystes les plus éminents, tels IDC et Forrester, prévoient un basculement massif vers l'ECM hybride. L'approche nouvelle génération implique le stockage du contenu à la fois en local et dans le cloud, ainsi qu'une synchronisation transparente entre les deux. L'ECM et le BPM hybrides répondent aux exigences de sécurité et de conformité des DSI et permettent aux équipes internes et collaborateurs externes d'être plus productifs.

Par le passé, les systèmes BPM, ECM et de gestion des cas (ou Dynamic Case Management, DCM) étaient traditionnellement séparés en dépit de composants architecturaux communs. Si les plateformes DCM et ECM offrent des outils pour la gestion de contenu, l'archivage et le suivi de la collaboration dynamique non structurée de groupes fonctionnels multiples, les suites BPM incluent des outils plus puissants permettant de codifier des processus, tâches et workflows structurés et répétables. Elles disposent des fonctionnalités nécessaires pour analyser et contrôler l'exécution et les performances.

Le cabinet d'étude 451 Research prévoit une intégration croissante entre les plateformes BPM, DCM et ECM, soutenue par des fonctionnalités de partage de contenu dans le cloud. La convergence de ces systèmes et marchés formera un cadre commun pour le développement et l'intégration d'applications de tous types pour répondre à la demande croissante des entreprises qui souhaitent une consolidation des technologies et fournisseurs.

Un simple coup d'œil à n'importe quel data center moderne suffit pour comprendre qu'un modèle unique ne convient pas au plus grand nombre. Les systèmes ECM modernes doivent prendre en charge à la fois les déploiements classiques en local, les environnements virtualisés, les déploiements dans le cloud privé, les déploiements SaaS dans le cloud public et tout ce qui se situe dans l'intervalle.

IDC estime que, d'ici 2020, 13 % des données seront stockés dans le cloud, 61 % en local et que le reste sera « géré » (c'est-à-dire traité ou transféré) via le cloud. Des options de déploiement flexibles permettent au service informatique de s'adapter à l'évolution des besoins au fil du temps.

Les entreprises qui utilisent des solutions ECM / BPM hybrides basées dans le cloud parviennent mieux à contrôler leurs données, de manière flexible et modulable. La gestion des processus dans le cloud doit être possible n'importe où, à tout moment ; et les fonctions d'optimisation des processus doivent être aussi variées qu'elles le sont dans l'entreprise.

Moins de paperasse

Les travailleurs de la connaissance eux-mêmes préfèrent la collaboration électronique. Selon une étude du leader des logiciels de création et de marketing digital, Adobe[1], nous détestons tellement la paperasse que nous serions prêts à quitter notre emploi pour un autre offrant une rémunération équivalente, « si seulement nous n'avions pas autant de documents administratifs à remplir ». Près des deux tiers d'entre nous (69 %), au Royaume-Uni comme aux États-Unis, sont tellement las des démarches administratives qu'ils seraient prêts à rejoindre un employeur qui exigerait moins de paperasse.

Dans des cas comme celui-là, les processus BPM prouvent toute leur utilité. Ils offrent les moyens de rationaliser les processus et de donner à chacun davantage de temps pour se consacrer à des aspects plus gratifiants du travail. La nouvelle génération de solutions iBPM (intelligent Business Process Management) va encore plus loin en utilisant les réseaux sociaux, appareils mobiles, outils collaboratifs, d'analyse et services cloud pour créer des espaces de travail entièrement connectés.

Une étude de Gartner, fondée sur plusieurs centaines d'interviews d'entreprises de toutes tailles, implantées dans le monde entier, a montré que la majorité des solutions BPM génèrent un ROI à deux chiffres. Plus de trois quarts de ces projets génèrent un ROI d'au moins 15 %, et une part équivalente favorise une hausse de l'avantage compétitif. Parmi les avantages non tangibles, on constate une hausse en termes de fidélisation de la clientèle, de satisfaction des collaborateurs et de transparence, associée à des répercussions commerciales positives.

À mesure que l'espace de travail se diversifie et devient plus sophistiqué et interconnecté, il apparaît évident que des processus métiers optimisés constituent la prochaine étape dans la création d'une véritable économie de l'ère du savoir.

[1] Paperjam – Why Documents are Dragging us Down (Bourrage papier - Les documents causent notre perte), Adobe, mars 2015

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
15 mars 2016 2 15 /03 /mars /2016 18:14
Archivage électronique des emails - Quels types d'emails faut-il conserver et archiver ?

Tribune libre de William Menant, Ingénieur Archivage Électronique chez Arkheos.

Archivage électronique des emails : Parce qu’aujourd’hui les services de messagerie connaissent une croissance fulgurante et que les volumes de contenus échangés par voie électronique dépassent largement ceux des flux papier, l’archivage des emails est devenu un problème complexe. Quels emails doit-on archiver ? Pour combien de temps ? Que faire des pièces jointes ? Et les emails d’ordre privé ? Autant de questions auxquelles il est primordial de répondre afin de mettre en place une politique d’archivage efficace.

La mise en place d’une politique d’archivage des emails au sein de l’entreprise permet d’abord de respecter l’obligation légale de traçabilité des échanges électroniques (loi de juin 2004 pour la Confiance dans l’Economie Numérique - LCEN), mais aussi de faciliter l’accès à l’information et de retrouver facilement certaines données utiles, comme par exemple l’auteur d’un message envoyé depuis un poste interne ou un contrat signé reçu en pièce jointe à une date précise. Reste que parmi le flot d’emails envoyés ou reçus chaque jour dans l’entreprise, tous n’ont pas la même valeur. Il faudra donc, comme pour le papier, être capable de faire le distinguo entre les emails ayant une réelle valeur « business », archivistique et ou historique, et ceux non pertinents dont la valeur est purement informelle ou personnelle. Chaque type d’email aura donc droit à un traitement différent.

Les emails externes
On peut dire que tout email envoyé à l’extérieur par un employé utilisant la messagerie d’entreprise est, en fonction de ses termes, « engageant » pour l’entreprise vis-à-vis du destinataire, sauf convention synallagmatique (contrat bilatéral) contraire avec la personne physique ou morale destinataire. L’entreprise n’est d’ailleurs pas forcément au courant de cet engagement.
Inversement, les mails reçus (même à titre personnel) peuvent comporter certains termes engageants à l’égard de l’entreprise et parfois même l’engageant plus ou moins elle-même. Un archivage de tous les emails susceptibles de comporter des engagements est donc nécessaire, si l’on veut pouvoir les connaître et, si besoin, les analyser. A plus forte raison, si ces emails intègrent une signature électronique (pour un contrat, un avenant, un devis, etc.). Rappelons que ce procédé permet d'authentifier l'auteur de l’email et de garantir son intégrité, par analogie avec la signature manuscrite d'un document papier.

Les emails internes
La messagerie étant devenue un outil de travail collaboratif, elle facilite désormais certains processus administratifs internes (demande de congés, plaintes, réunions de service, etc.). Les emails internes sont donc souvent porteurs de droits ou de devoirs et, à ce titre, sont également « engageants ». D’autres constituent des dossiers de travail internes dont il peut être utile de conserver la trace. Parfois même, ils sont constitutifs du patrimoine de l’entreprise. Leur conservation apparaît donc légitime. Un bon système d’archivage permettra de les retrouver en fonction de différents critères (l’auteur, le destinataire, la date, l’objet, etc.) ou par mots-clés. Sans oublier, les emails échangés dans le cadre de groupes de travail collaboratifs et classés au sein de dossiers. Eux aussi doivent également être pris en compte par le système d’archivage électronique.

Les emails avec pièces jointes
Certains documents issus des processus métier (ERP) tels que les commandes, les factures, les demandes de congés, etc., sont aussi très souvent transmis par email. Conservés en interne pour d’évidentes raisons documentaires, ils se doivent d’être archivés avec l’email de transmission (car leur transmission par voie électronique est, une fois de plus, « engageante »).
Il en est de même, d’une manière plus générale, pour tous les fichiers joints aux emails, le lien entre les deux devant toujours être maintenu. Une attention toute particulière doit être portée sur les contrats. Si certains s’affichent dans le corps de l’email et peuvent signés électroniquement, nombre d’entre eux sont encore insérés en pièces jointes. Ils doivent donc être édités, imprimés, signés à la main, puis scannés avant d’être réexpédiés par email. L’important étant d’être certain d’archiver la bonne version du document.

Les emails privés, un cas particulier
En France, un service de messagerie d’entreprise doit autoriser les utilisateurs à envoyer des emails privés. Mais la CNIL demande à ces mêmes entreprises de ne pas conserver de données privées. Si un bon système d’archivage électronique doit évidemment être capable de filtrer les emails à archiver, seul l’employé peut déterminer ce qui est vraiment d’ordre privé. Trois solutions s’offrent donc à l’entreprise pour gérer correctement ce droit, en conformité avec la directive CNIL :
- demander aux employés de classer l’email comme personnel avec la balise permise par la messagerie
- demander aux employés de rajouter dans l’objet de l’email l’étiquette « PERSO » ou « PRIVE » ;
- demander aux employés d’avoir un dossier dans leur boîte aux lettres (BAL) nommé « PERSO ».
Avec l’une de ces trois options, le système d’archivage électronique saura faire le tri et éviter l’archivage inopportun de tous les emails « privés ». La rédaction d’une charte de messagerie liée au règlement intérieur de l’entreprise reste toutefois fortement conseillée afin d’éviter toute polémique sur ce sujet.

Les documents produits par l’informatique de gestion (comptabilité, facturation, finances, RH, gestion des stocks, logistique, etc.).
Si ces documents peuvent en général être réédités en duplicata par l’informatique de gestion, ils ne sont pas forcément archivés automatiquement sous leur forme exacte, au moment de leur émission originale. D’où l’intérêt de les inclure dans le champ d’action du SAE (système d’archivage électronique). Ces documents ayant pu évoluer entre le moment où ils ont été créés et la demande de duplicata.

Un alignement nécessaire de tous les niveaux de décision de l’organisation
In fine, un email doit être conservé et, le cas échéant, archivé, quand il reflète les activités de l’institution, de l’organisme, de l’entreprise ou du service. Il peut s’agir de correspondances liées à des réunions, des actes, des ordres du jour, des comptes rendus de réunions, des contrats, des devis, des relances, des factures, etc. D’une manière générale, les principes de sélection des emails à conserver, puis à archiver, s’appliquent suivant les mêmes règles de conservation en vigueur pour la correspondance classique, au format papier. Reste que pour que cet archivage soit optimal, tous les niveaux de décision (de l’utilisateur jusqu’à la direction) doivent être « alignés » et capables d’appliquer les mêmes procédures et les mêmes règles, aussi bien à l’envoi qu’à la réception. Sans omettre d’être attentifs aux lois exigeant, pour certaines données, un délai minimal de conservation.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
24 novembre 2015 2 24 /11 /novembre /2015 18:38
Nigel Moulton, Directeur technique, EMEA – VCE

Nigel Moulton, Directeur technique, EMEA – VCE

Votre service informatique est-elle organisée en bureaux cloisonnés ou en open space ?

Essayez, de prendre quelques minutes pour observer votre service informatique. Que voyez-vous ? Ou plutôt, que ne voyez-vous pas ? Les équipes respectivement en charge du stockage, du réseau et de la virtualisation des serveurs travaillent-ils ensemble? Sont-ils en mesure d’interchanger les tâches, de passer d’une équipe à l’autre, de fonctionner différemment en somme ?
En bref, diriez-vous que votre service informatique ressemble plus aux bureaux cloisonnés dans lesquels on travaillait il y des années ou de l’open space où on échange et communique aisément ? La réponse est importante. Les compétences et la culture de votre équipe d’infrastructure informatique ont un fort impact sur les chances de votre entreprise de devenir/demeurer une entreprise numérique gagnante.

Une activité flexible dans une infrastructure et une équipe déconnectées ?

Vous ne pouvez tout simplement pas développer une activité flexible, centrée sur le client dans une infrastructure déconnectée, gérée par une équipe déconnectée. Pour atteindre l’intégration, la rapidité, l’évolutivité et la résilience, une activité numérique doit converger votre infrastructure informatique et faire de même avec vos équipes.

Pourtant, il ne faut pas sous-estimer combien ce changement peut être radical et troublant pour les professionnels de l'informatique. Tout d'abord, la convergence IT consiste à briser les barrières entre les silos opérationnels, la standardisation et l'automatisation des processus et change la façon dont ceux-ci sont gérés. L’infrastructure convergée c’est en fait, bien plus rassembler les équipes que les systèmes hardware. Pour la plupart des professionnels qui travaillent dans les infrastructures, il s’agit de faire un bond, professionnellement et émotionnellement. La plupart des professionnels de l'informatique vont instinctivement traduire ces changements dans, au mieux, une perte de connaissance, d'influence ou d'autorité et, au pire, le chômage. Rares sont ceux qui vont voir ce qu'ils doivent représenter: une chance d’accroître leurs compétences, d’assurer le futur de leur carrière professionnelle et de casser la monotonie de la maintenance, pour apporter une vraie valeur créative là où elle est nécessaire.

La convergence fait émerger d’autres rôles informatiques

Les professionnels de l’informatique d’aujourd’hui sont ultra formés, ils ont généralement suivi un bon cursus et une forte évolution professionnelle, accédant souvent à un statut reconnu. Mais ces qualifications peuvent évoluer à un rythme lent. Beaucoup reflètent encore les exigences d’un environnement informatique passé, très traditionnel[i], où l’informatique, le réseau et le stockage de données fonctionnent dans des modules isolés. De nouvelles formations sont nécessaires pour prendre en compte cette réorientation des rôles informatiques.

Un environnement convergé, par exemple, nécessite un ensemble complet et mixte de compétences, une bonne compréhension de la gestion, de la conception, des logiciels et de la prestation de services, ainsi que des besoins plus large de l’activité de l’entreprise.

En outre, l’introduction de la convergence fait émerger d’autres rôles informatiques, qui nécessitent d’autres compétences, comme celles des architectes de l’information avec des compétences d’administration système combinées à une bonne compréhension de la manière dont ces systèmes s’intègrent avec les opérations techniques et les processus commerciaux existants. Ce sont aussi, des professionnels DevOps qui fusionnent le développement et les opérations pour augmenter la vitesse à laquelle les applications sont créées et déployées.

Les directeurs informatiques s’intéresseraient trop au court terme ?

Mais le changement d’un seul élément implique souvent le changement d’un suivant. Un par un, le rôle de services, du développement et des opérations informatiques établis se transforment. Par exemple, les directeurs informatiques et leurs responsables IT doivent collaborer avec les RH afin de comprendre et gérer les implications de ces répercussions.

Les commentateurs du secteur sont divisés quant à savoir si les directeurs informatiques comprennent bien cela. Selon Gartner[ii], 81 % des directeurs informatiques s’intéressent trop au court terme, avec un horizon maximum à trois ans.

En même temps, l’association informatique, CompTIA, s’est déclarée surprise en apprenant dans son étude 2015 sur l’évolution des ressources humaines à l’échelle internationale[iii], qu’à l’âge des technologies numériques, ce sont les lacunes de compétences en matière de réseau, de stockage et d’informatique qui se voient accorder la plus haute priorité. Il y a donc clairement un écart entre les compétences d’infrastructure que les entreprises possèdent et celles dont elles ont encore besoin.

Les formations sur les nouvelles solutions d’infrastructure telles que les technologies convergées et hyper convergées deviennent indispensables. Il ne s’agit pas simplement de formations informelles, sur le terrain, pour répondre aux besoins immédiats, mais de formations solides et certifiées. L’avantage pratique, ainsi que le sentiment de réconfort associé, ne doivent pas être sous-estimés.

Notre propre programme de professionnels certifiés VCE, par exemple, lancé en avril 2014, aide les professionnels de l’informatique à développer les compétences nécessaires pour concevoir, déployer et gérer une infrastructure convergée en tant qu’environnement unique et homogène. Chaque mois, ce sont près de 500 professionnels de l’infrastructure convergée qui sont certifiés VCE.

Nul n’embrasse une carrière technologique avec l’espoir que chaque jour sera semblable au précédent. Les professionnels de l’informatique doivent retrouver leur soif d’apprendre, leur passion et leur souhait de progresser, et les directeurs informatiques doivent leur montrer l’exemple. Les cloisons ont sauté, l’espace de travail comme le service informatique sont maintenant propices à la communication et à l’échange.


 


 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
3 novembre 2015 2 03 /11 /novembre /2015 17:14

Jean-Paul Crenn, fondateur du cabinet conseil en e-commerce et transformation digitale Webcolibri

 

En tout cas c’est ce qu’affirme Julien Zakoian, ancien Directeur Marketing & Communication du site vente-privee.com : « Les Big Data, c’est comme le bug de l’an 2000, ça n’existe pas ! Ou plutôt, c’est une appellation marketing plaquée sur un phénomène dont l’existence remonte aux premiers pas de l’informatique... et pour lequel un certain nombre d’acteurs, SS2I, ou boîtes de Business Intelligence en tête, ont inventé un sobriquet, à des fins commerciales.»1

Directions Générales et Marketing, Informaticiens et tous ceux qui travaillent autour des technologies ont l’habitude des modes et des mythes qui s’évanouissent après quelques années de promesses démesurées. Rappelons-nous par exemple les promesses de Second Life il y a 10 ans. Le Big Data est-il juste un habillage marketing, comme nous l’affirme Julien Zakoian ?

Tout d'abord ce Big Data mériterait bien une définition..."Collecte, exploration et analyse de grandes masses de données" semble être celle qui est le plus généralement admise. Et l’on voit bien que cette description est loin d’être suffisamment précise.

Prenons tout d’abord le terme "grande masse de données". Pour les géants du Web tels que Google ou Facebook nous imaginons bien que cela représente des millions de To mais beaucoup de petits malins maquillent en « big » ce qui est en réalité du « small ». Du coup ils vendent doublement du rêve : d'une part celui du fantasme lié à l'espionnage du type NSA et d'autre part celui d’une exploitation enfin aisée, complète et peu onéreuse de leurs données.

Le « Big Data » est donc bien « Big ». Mais ce « big » débute à partir de quel seuil ? La « norme » la plus commune est celle de 100 To de données. En-deçà vous restez dans le « small ». Quoiqu’en dise votre SS2I ou votre consultant favori - votre ego dû-t-il en souffrir.

Mais le Big Data n’est pas qu’une question de taille. Car quand on creuse notre première définition, il s’avère que le Big Data consiste en fait à traiter un ensemble de données plus ou moins structurées qui deviennent tellement volumineuses qu'elles sont difficiles à travailler avec des outils classiques de gestion de base de données. «Big Data » est alors une appellation attrape-tout pour désigner les données qui ne vont pas dans les cases habituelles des systèmes d’information. Il se réfère aux données qui sont trop volumineuses pour tenir sur un seul serveur, trop peu structurées pour tenir dans une base de données traditionnelle, générées en un flot continu tellement massif qu’elles ne peuvent tenir dans un entrepôt de données classique. Typiquement des données provenant de réseaux sociaux, de capteurs liés à des objets connectés, de site Web...

1 Citation issue du Livre Blanc de l’EBG consacré aux Big Data, 2014.

Avis d’expert

Toulouse, le 2 novembre 2015Du coup cela se complexifie. D’autant plus que d’avoir beaucoup de données c’est bien mais en faire quelque chose c’est mieux.

Et c’est là que nous arrivons à la promesse la plus révolutionnaire du Big Data : l'abduction. Les données vont "parler" d'elles-mêmes, sans qu'il y est besoin d'avoir de modèles préconçus pour les analyser. Adieu les notions d'induction et de déduction ! Le Big Data promet donc un nouveau paradigme : celui de la fin du cartésianisme et de la pensée scientifique - et donc de la pensée marketing - telle que nous la connaissons. Rien que cela !

Mais, bien sûr, rien n'est moins certain et les débats font rage. Notamment parce que les outils utilisés intègrent, de par leur construction, leurs propres biais.

Alors, « Big Data » est-elle une simple appellation marketing, conçue pour optimiser la valorisation financière des GAFA sur laquelle se sont précipités SS2I, éditeurs de Business Intelligence et autres auteurs d’ouvrages en manque de droits d’auteur ?

Pour la plus grande partie du discours sur les « Big Data » cela est clairement le cas. Il est en effet tellement aisé pour l’offreur de service de maquiller en « big » ce qui est « small », tellement valorisant pour le client de se sentir faisant partie des « grands » de ce monde. Il ne faudrait cependant pas s’arrêter là car nous risquerions de jeter le bébé avec l’eau du bain. La masse des informations liées au numérique, leur flot continu, leur hétérogénéité, nécessitent clairement de nouvelles approches pour pouvoir être traitées et surtout analysées afin d’aider à l’action et à la prise de décision - ces dernières étant tellement nombreuses qu’elles doivent être en bonne partie automatisées, grâce à des agents intelligents.

Selon le «Hype Cycle » de Gartner, nous pouvons prendre rendez-vous en 2020 ou en 2025 pour voir si « Big Data » aura tenu toutes ses promesses. A la lecture d’un article de Joël Rosney de 1995, consacré à l’imminence de l’arrivée d’agents intelligents dans les cyberespaces, nous pouvons penser que 2035 sera sans doute la bonne date.

ATELIER DEBAT : ENJEUX ET REALITES DU BIG DATA

RDV le 17 novembre 2015 de 8h45 à 10h30 Lieu : HAAS Société d’Avocats, 87 Bd de Courcelles, 75008 Paris

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
6 octobre 2015 2 06 /10 /octobre /2015 14:13

Grégoire de Préneuf & Franck Gotte Co-fondateurs de Deuzzi

Nous l’avons maintes fois testé lors de conférences : à la question de définir ce qu’est un Système d’Information (SI), les réponses d’ordre descriptif et technique fusent. Il nous est très rarement évoqué qu’il est également composé d’hommes. Car le SI se définit comme un « système socio-technique composé de 2 sous-systèmes, l’un technique et l’autre social », incluant « la structure organisationnelle et les personnes »... Nous oublions presque toujours de nous rappeler que le SI inclut également ses utilisateurs !

Mais pourquoi ce « bug » ? Notre interprétation est que nous sommes sur un marché technophile, qui voudrait encore rêver « l’outil » comme « solution » de tous les maux. Un marché encore peu mature, qui fuit la complexité de la composante humaine, préférant acheter des produits sur étagère. Un marché dans lequel règne l’achat compulsif, au regard d’enjeux pourtant essentiels : le SI représenterait 50 % de la valeur ajoutée des organisations. Combien de fois avons-nous entendu un dirigeant nous dire, au lendemain d’une rencontre hors entreprise : « je trouve cette solution géniale, il me la faut absolument ». Ou encore récemment : « j’ai acheté un ERP pour 300 000 € parce que l’on me pousse depuis des années à me moderniser, mais je ne le sens pas, je n’ai pas envie de le mettre en place ». Combien de projets dorment ainsi dans les placards ? Les exemples sont très nombreux.

Ne soyons donc pas étonnés ensuite d’entendre parler « d’homme esclave des technologies »... C’est parce qu’il le veut bien... Et vos besoins ? N’avez-vous jamais pensé à vos vrais besoins ?

Le SI est mon ennemi...

Il résulte de nos observations une fonction SI dangereusement cloisonnée au sein des organisations, perçue dans le meilleur des cas comme un mal nécessaire, et dans le pire comme un service « bouc émissaire ». A l’intérieur des équipes SI, nous constatons des lacunes importantes dans la chaîne de compétences, qui, tout en augmentant les risques, rendent fluctuante, sinon inopérante, la capacité à mettre en œuvre avec efficience des projets d’amélioration. A l’extérieur, nous observons un marché atomisé, éparpillé et illisible, avec un recours dangereux et quasi exclusif à des prestataires ponctuels, à la vision partielle et souvent partiale. En se privant de gouvernance en interne, les clients s’évitent l’objectivité indispensable et demeurent sur un marché sur lequel le dernier ayant parlé aura toujours raison...

Il en résulte un SI ennemi des organisations, très peu intégré à leurs besoins et à leur stratégie, isolé et fortement cloisonné sous couvert de technicité. Telle cette nouvelle remarque entendue de la part d’un directeur commercial : « le CRM ? Ce n’est pas mon problème ! Je veux seulement que ça marche ! ». Paradoxes, paradoxes, et une réelle difficulté à faire émerger des projets fonctionnels à forte valeur ajoutée pour les métiers.

... et s’il devenait mon ami ?

Un SI ami, ce serait un système vivant et stimulant, vecteur de décision et de compétitivité, permettant d’impulser la transformation et le changement nécessaires à toute organisation en bonne santé.

Premier principe : nous ne transformons bien que ce que nous maîtrisons bien. D’abord s’occuper de la fiabilité des fondations, pour une bonne continuité de service. Une remise à niveau, suivi d’un entretien régulier des systèmes est un préalable indispensable à toute nouvelle avancée.

Deuxième principe : rechercher la cohérence d’ensemble. Il est donc nécessaire d’organiser une méthode permettant la mise en place d’une gouvernance SI centralisée.Troisième idée : décloisonner le SI. Sortir impérativement du volet des solutions et associer les utilisateurs à la conception de leur propre Système d’Information.

Lorsque chacun aura compris que nous sommes tous acteurs du SI, parce que sa vocation est transverse par définition, affaire de généraliste et non de spécialiste, nos entreprises gagneront durablement en performance. Alors, offrez-vous enfin le SI qui vous ressemble !

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
5 octobre 2015 1 05 /10 /octobre /2015 16:00

Bertrand CASSE, Directeur des Relations Publiques région Espagne chez DEVERYWARE et Vice-Président du comité des opérations de l'EENA, European Emergency Number Associations

 

Le déploiement des outils de communication modifie considérablement nos usages. A l'heure du "digital world", les citoyens pensent de plus en plus "applications smartphones" pour gérer leurs demandes. Par ailleurs, ils sont baignés dans un environnement médiatique où on leur sérine les oreilles des mots "sécurité" et du coup ils s'intéressent de plus en plus aux applications mobiles s'appuyant sur la géolocalisation. Pouvoir trouver la pharmacie la plus proche, savoir où sont ses enfants, trouver un lieu de rendez-vous, pouvoir être informé des zones d'embouteillages, pourvoir être alerté d'un accident pour décider d'un autre chemin…

On estime aujourd'hui que les utilisateurs de smartphone téléchargent une vingtaine d'applications. Et ce n'est que le début…

Dans la continuité de ces nouveaux besoins, le citoyen européen s'attend aujourd'hui à disposer d'une application fonctionnant partout en Europe pour appeler les secours.

La réalité : le 112 n'est pas encore connu de tous les citoyens européens

Le Conseil Européen, dès 2000, émet le souhait d'un numéro d'appel d'urgence unique dans toute l'Europe, le 112.

Historiquement, chaque pays avait développé, sur une technologie propriétaire, un ou plusieurs numéros d'urgences. C'est le cas de la France qui dispose du 15 pour appeler le SAMU et du 18 pour les sapeurs-pompiers. Cette situation complexe pour les touristes et même pour les nationaux crée la confusion au point que 70 à 90% des appels doivent être redirigés vers un autre centre d'appels plus pertinent.

A la différence de la France, des pays ont déjà fait le choix d’abandonner leurs numéros nationaux au profit du 112. C'est le cas de l'Espagne, du Portugal, du Luxembourg, de la Suède, de la Finlande, des Pays Baltes et du Danemark.

A ce jour le 112 est disponible dans l'ensemble des 27 pays européens.

 

La localisation des appelants est vitale et pourtant…

Comme le souligne la commission européenne dans son rapport publié le 11 Février 2015[1], aucune amélioration n’est constatée sur la mise en œuvre d´une localisation de l'appelant plus performante en Europe.

Ceci malgré les dispositions contenues dans l'article 26.5 de la directive 2009/136/CE concernant le service universel obligeant les fournisseurs de services de communication de préciser les critères de performances de la localisation. Depuis 2003, Il est important de noter que tous les opérateurs mobiles fournissent pour le 112 une précision « Cell-ID » en Europe. Dans ce cas la précision dépend de la taille de la cellule. Cela peut varier de quelques centaines de mètres en centre urbain à 30 km en zone rurale ! Trop imprécis pour porter rapidement secours.

A titre d’exemples, aujourd’hui d´après les données recueillies par le Comité des Communications (COCOM), plusieurs minutes sont nécessaires pour un centre d’appel 112 en France pour recevoir la localisation de l'appelant, par exemple 34 min pour la Grèce …

Or la localisation est indispensable pour pouvoir identifier la zone d'intervention - lieu public/espace privé ? - et lancer plus rapidement les alertes aux organismes concernés (Préfectures, Polices…), à la population si nécessaire (situation de feux, d'orages violents, d'accidents, d'agressions…) et avertir les équipes d'intervention adéquates (pompiers, ambulanciers, police…).

Dire son adresse quand on a une crise cardiaque n'est pas nécessairement possible. Expliquer où on est sur une route de montagne quand un arbre vient de vous couper la route et risquer de vous tuer n'est pas une évidence… Pouvoir expliquer clairement l'étendue d'un feu de forêt dans lequel on est surpris non plus… Sans évoquer les situations de panique générale où des dizaines de personnes vont appeler avec des informations contradictoires, fantaisistes ou imprécises (attentats, feux dans un lieu public…).

Dans les situations de crise et d'urgence, la géolocalisation sauve des vies. Il est donc vital de connaitre la position de l´appelant pour pourvoir affecter et organiser les secours de manière efficace et dans les meilleurs délais possible.

L´information de localisation sert d´une part à router l´appel vers le centre d´urgence le plus proche et d´autre part sert aux secouristes pour se rendre sur le lieu de l´incident.

 

La Commission Européenne donne l'impulsion pour faire entrer les services d'urgence dans le XXIème siècle !

Au vue de ces dysfonctionnements, la Commission Européenne a pris un certain nombre d´initiatives, notamment en introduisant dans ses programmes de recherche et d´innovation des projets visant à harmoniser les différentes avancées en matière de services d'urgences.

Quatre axes sont privilégiés : la disponibilité du numéro 112 en priorité sur les réseaux partout en Europe, les avancées en termes de localisation des appelants, l'adaptation du système aux personnes handicapées, la gestion des appels transfrontaliers. Pour que ses choix se concrétisent, la Commission Européenne travaille en partenariat avec nombre d’institutions européennes dont EENA, organisme dédié aux services d'urgence pan-européens, et finance des projets comme NEXES qui réunissent des scientifiques et industriels de nombreux pays Européens.

L'étude des applications mobiles d'urgence qui fonctionnent très bien dans certaines pays/régions comme Alpify, my112 ou WhereAREU, les progrès des nouvelles technologies mobiles et de l'Internet devrait pouvoir, grâce à ces partages entre institutionnels et industriels privés de plusieurs pays européens concrétiser ces directives de la Commission Européenne.

En s'impliquant dans ces programmes de R&D, la Commission Européenne donne une impulsion politique forte pour suivre une tendance sociétale qui conduit le citoyen à "tout rechercher et trouver sur son smartphone" !

 

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
9 juillet 2015 4 09 /07 /juillet /2015 13:12

Sabrine Guiheneuf, expert en cybersécurité chez Lexsi

Le Cloud Computing est de plus en plus présent dans les entreprises, comme un synonyme d’agilité et de réduction de coût pour les métiers, qui souvent imposent ce nouvel usage et modèle économique aux directions informatiques (rapidité de déploiement, paiement à l’usage, etc.). Au-delà de ces aspects économiques et organisationnels, cette nouvelle tendance est un véritable casse-tête pour les équipes SI.

Ainsi, les métiers contractualisent directement avec des fournisseurs Cloud, sans en informer la direction informatique ni les équipes SSI. Ce phénomène a même un surnom, le « Shadow IT », et cela implique des risques de sécurité évidents pour l’organisation : des données sont hébergées quelque part dans les nuages, sans aucun cadre. En cas de fuite de données, par exemple, les équipes SSI seront probablement mises en cause alors qu’elles n’ont pas été impliquées dans la démarche…

Par ailleurs, de plus en plus de métiers (notamment dans certains secteurs d’activité) commencent à être sensibilisés à l’importance des données qu’ils manipulent. Cependant, un certain nombre de fonctions supports (marketing, communication, commerce…) peut être amené à manipuler des données confidentielles au travers de solutions Cloud (Google Drive, Prezi, Dropbox…) sans forcément se soucier de leur sensibilité (soit par ignorance, soit par un Time-To-Market très court).

Il est donc indispensable d’établir les règles du jeu au sein de l’organisation pour tout usage du Cloud, qui doivent prendre en compte à la fois les besoins métiers et les exigences de sécurité de l’organisation.


Petit rappel des fondamentaux du Cloud Computing
Le schéma ci-dessous détaille ce qui est inclus dans les offres classiques des fournisseurs Cloud


Infrastructure as a Service (IaaS) ;
Platform as a Service (PaaS) ;
Software as a Service (SaaS).

L’organisation reste responsable du service auquel elle souscrit, et ce peu importe le nombre de couches techniques proposées par le fournisseur Cloud, et dont le client perd la maîtrise technique.
Ces types d’offres de services peuvent appartenir à 5 types de Cloud différents (définitions du NIST) :

Et la sécurité dans tout ça ?
Un peu de provocation… L’usage du Cloud Public n’est théoriquement pas synonyme de dégradation du niveau de sécurité : cela dépend de la manière dont cela est fait, et de l’appétence aux risques de l’organisation.

La maturité des solutions Cloud en termes de sécurité a beaucoup évolué ces dernières années, permettant de réaliser un environnement Cloud « sécurisé » que l’organisation peut maîtriser facilement. Quelques exemples de fonctionnalités proposées par le leader du marché IaaS/PaaS public :
Dédier une instance logique du Cloud à l’organisation ;
Dédier un ou plusieurs hyperviseurs pour les usages de l’organisation ;
Isoler l’instance logique dédiée d’Internet, et la connecter uniquement par un lien dédié (VPN ou lien d’opérateur spécialisé) ;
Déployer des outils de sécurité dans cette instance logique, gérés par l’organisation.
Concernant les solutions SaaS, de nombreux moyens techniques permettent d’augmenter le niveau de sécurité, comme par exemple :
L’utilisation d’un lien sécurisé entre la solution SaaS et le réseau de l’organisation (lien dédié ou tunnel VPN site-à-site chiffré) ;
L’authentification des utilisateurs grâce à l’annuaire de l’organisation en utilisant les mécanismes de fédération d’identité (avec le protocole SAMLv2 par exemple).


Les principaux risques du Cloud
Ceci étant dit, le risque 0 n’existe pas et le Cloud introduit inévitablement de nouveaux risques pour l’organisation, comme par exemple :
Ingérence d’Etat : possibilité d’un Etat à s’introduire dans les systèmes et espionner leurs clients (espionnage économique, Patriot Act, PRISM etc.) ;
Dépendance au fournisseur :
Solidité du fournisseur : que se passe-t-il d’un point de vue sécurité si le fournisseur est racheté ou ferme boutique ?
Réversibilité : est-on sûr de pouvoir récupérer les données sous un format exploitable ? Comment sont supprimées les données chez le fournisseur ?
Choix techniques du fournisseur pouvant impacter la sécurité de l’organisation
Localisation des données et problématiques juridiques/réglementaires associées (CNIL) ;
Risques liés à la virtualisation et mutualisation de ressources avec des tiers ;
Perte de maîtrise des identités et des accès par la création d’une double base de comptes utilisateurs (notamment concernant les comptes utilisateurs non désactivés/supprimés au départ du collaborateur) ;
Et les risques classiques : compromission, fuite de données, etc.
Par ailleurs, la sécurité du portail d’administration du service est souvent un point noir car la plupart du temps, il est exposé sur Internet avec une simple authentification…
De manière similaire à un projet d’infogérance [1], une approche par les risques doit être adoptée. Tout d’abord, une analyse de risque liée à l’introduction de services Cloud, de manière générale, dans l’organisation. Les conclusions de cette analyse peuvent permettre de fixer un cadre à l’usage du Cloud par un ensemble de règles compréhensibles et acceptées par les métiers, comme par exemple :
La mise en place d’un référentiel des actifs dans le cloud ;
L’utilisation du Cloud Public doit être limitée aux données non stratégiques ;
L’utilisation d’un questionnaire permettant d’évaluer l’éligibilité d’un projet dans le Cloud (classification des données, contraintes réglementaires…) ;
La réalisation d’une analyse de risques spécifique par projet Cloud ;
Si le métier souhaite tout de même court-circuiter les règles définies par l’organisation, elle doit comprendre les risques et les impacts associés, les accepter et désengager totalement la DSI et l’équipe SSI. Cela ne permet pas néanmoins de s’affranchir de l’ajout de la solution dans l’inventaire des actifs informatiques de l’organisation.


En conclusion, que faire ?
Être proactif !


Tout commence par la compréhension du besoin métier :
Pourquoi souhaitent-ils aller dans le Cloud ? Quelles sont leurs attentes ?
Est-il déjà possible de fournir un service similaire avec l’infrastructure existante ? Quelles sont les étapes à franchir avant de pouvoir le faire ?
Puis, proposer un cadre (règles, processus, outils…) ainsi que des solutions permettant d’être prêt lorsque ces usages arriveront (par exemple la mise en place d’une solution de fédération d’identité ou le VPN).

Pour aller plus loin dans la démarche, il peut être intéressant de proposer des solutions Cloud maîtrisées avec l’aide des autres équipes IT. Certes, ce n’est pas aux équipes SSI de mener ce type de projet, mais ne pas le faire entraînera des problématiques sécurité tôt ou tard.

Pour finir, la sensibilisation à la SSI intégrant ce nouveau type d’usage (et en profiter pour faire de la pub des services que propose la DSI s’ils existent) est également indispensable pour faire comprendre la nécessité d’intégrer la sécurité dans des projets de type Cloud.

[1] https://www.lexsi.com/securityhub/laide-jinfogere/

 



 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article
23 juin 2015 2 23 /06 /juin /2015 15:40
Big Data, la 3ème phase !

Christophe Vaissade, Directeur Europe du Sud, SanDisk

Avant Internet, c’est-à-dire pendant les années 70 et 80, les passionnés d’informatique et les chercheurs qui devaient déplacer des fichiers utilisaient le sneaker-net ou « réseau-basket »[1].

Avec l’avènement du Big Data, ce réseau fait son grand retour !

« Demandez à n’importe quelle entreprise du secteur des sciences de la vie, et vous verrez que le problème est bien réel », explique Talli Somekh, PDG de AppSoma, une startup dont la plate-forme d’analyse des données est dédiée à la bio-informatique. « C’est une question de physique. Certains jeux de données sont si volumineux qu’il est tout simplement impossible de les transférer sur le cloud. »

En fait, un nombre croissant d’entreprises parmi les plus importantes et les plus avancées technologiquement déplacent aujourd’hui des systèmes de stockage entiers d’un endroit à l’autre, simplement pour pouvoir partager des données.

Au cours de la première phase, nous avions assisté à l’avènement de technologies logicielles comme Hadoop et NoSQL, qui permettaient de traiter de très grandes quantités de données — une phase qui, bien sûr, est loin d’être terminée.

La deuxième phase a débuté avec la prolifération de capteurs peu onéreux et d’une grande fiabilité, ainsi que d’autres composants chargés de collecter des données produites dans le monde réel. Les applications logicielles conçues pour exploiter les flux vidéo, les formulaires manuscrits et autres « données sombres » (dark data[2]) entrent également dans cette catégorie : sans elles, les données, d’un point de vue pratique, n’existeraient pas.

Mais la demande en systèmes plus performants et dotés de capacités accrues nous pousse dorénavant vers la troisième phase de la révolution du Big Data qui se focalisera sur les infrastructures. En d’autres termes, nous avons besoin de nouveaux équipements matériels, de logiciels, de réseaux et de datacenters pour gérer les quantités de données astronomiques générées et analysées par les deux premières innovations. Les datacenters HyperScale, les réseaux définis par logiciel (SDN — Software Defined Networking) et les nouvelles technologies de stockage représentent les étapes initiales vers ce qui s’annonce comme un formidable cycle d’innovation.

Historiquement, les idées nouvelles doivent s’appuyer sur des infrastructures nouvelles. Si les automobiles ont radicalement changé notre vie, elles ont nécessité la construction de routes, d’autoroutes et de stations-service. Inventés quelques décennies plus tôt, les trottoirs ont soudain connu un nouveau développement. Les ampoules électriques ont transformé les nuits en jours, et la demande croissante en solutions d’éclairage est à l’origine d’investissements et d’innovations grâce auxquels les réseaux électriques ont fini par couvrir l’ensemble de nos pays.

Les avantages potentiels du Big Data côtoient la nécessité d’accomplir des progrès significatifs sur le plan des infrastructures de stockage et réseau nécessaires pour accompagner son essor. C’est le cas des caméras de sécurité. Dans les aéroports, les responsables de la sécurité commencent à envisager la possibilité de passer au format UltraHD ou 4K. Une telle résolution permet de rechercher facilement des informations précises et détaillées dans les flux vidéos, remplaçant les images noir et blanc granuleuses tout en réduisant les risques de sécurité.

Tout en respectant les données de confidentialité et l’anonymat des personnes, il est également possible d’utiliser des caméras 4K pour analyser le comportement des consommateurs ou la circulation des piétons. Car ce format n’est pas réservé aux téléviseurs XXXL présentés au salon au salon CES de Las Vegas !

Or, la résolution 4K exige un socle particulièrement solide. Une seule minute au format 4K représente environ 5,3 Go ! À Londres par exemple, 7 000 caméras de vidéosurveillance en 4K généreraient chaque jour quelque 52 pétaoctets, soit plusieurs fois le volume de données stockées dans la bibliothèque du Congrès de Washington.

Big Data au service des sciences

À Genève, des équipes de physiciens du CERN ont mis au point un système de distribution qui associe étroitement stockage flash et mise en réseau pour permettre à des centres de recherche du monde entier d’accéder aux quelque 170 pétaoctets de données générés par le grand collisionneur de hadrons (LHC). Ces systèmes informatiques ont la possibilité de transférer des données de disque en disque à l’intérieur d’un réseau étendu à un débit pouvant atteindre 100 Gbits/s (100G), ce qui permet aux physiciens des particules d’analyser les données à 73 Go/s. Ces informations ouvrent la voie à la découverte de nouvelles forces et particules qui nous aident à mieux comprendre la formation de l’univers.

Les sciences de la vie pourraient représenter le plus important de tous les défis. Un seul génome humain représente environ 200 Go de stockage brut. Le séquençage d’un million de génomes humains nécessiterait par conséquent environ 200 pétaoctets. En 2014, Facebook téléchargeait 600 téraoctets par jour. À ce rythme, il faudrait une année à Facebook — propriétaire de l’une des plus puissantes infrastructures de données au monde — pour charger un million de génomes humains !

« Et il ne s’agit là que des données brutes générées par le séquenceur de génomes ! », explique Talli Somekh. Une analyse approfondie multiplie les exigences de calcul, obligeant les chercheurs à atteindre un certain équilibre entre traitement local et sur le cloud.

Big Data et agriculture : La structure génétique du blé est plus variée que celles des humains

Les solutions de stockage traditionnelles assurent de solides performances, qui sont souvent doublées de coûts d’infrastructure plus élevés et d’une complexité que certaines entreprises résolvent en optant pour les environnements virtuels. La virtualisation a considérablement augmenté le retour sur investissement et l’utilisation d’infrastructures à base de serveur, mais même dans les activités cloud les plus efficaces comme Google, de 20 à 50 % des cycles de calcul passent en pertes et profits pour la simple raison que le processeur ne peut accéder aux données assez rapidement. C’est ce qu’on appelle le « temps de latence du système ». Et dans la plupart des datacenters actuels, ce temps de latence peut être encore plus élevé, ce qui peut coûter aux entreprises des millions, voire des milliards de dollars par an à cause du ralentissement des transactions.

Les disques durs, derniers éléments mécaniques présents dans les salles de serveurs avec les systèmes de climatisation, ont vu le jour en 1956, quelques mois seulement après l’apparition du premier ordinateur sans tube à vide. Les technologies et les architectures de datacenter traditionnelles ne sont tout simplement pas conçues pour le volume et la vélocité qui caractérisent les nouveaux défis soulevés par le Big Data.

Tenter de relever le défi avec des technologies de disque dur peut également se solder par un désastre financier et environnemental. Selon les calculs du Conseil de défense des ressources naturelles (NRDC — Natural Resources Defense Council), les centres de données en service aux États-Unis ont consommé 91 milliards de kilowatts-heure en 2013, soit deux fois plus que les foyers new-yorkais ! Faute de mesures appropriées, la barre des 140 milliards de kilowattheures sera bientôt atteinte.

La technologie « flash » utilisée dans les SSD réduit de plus de 90 % la superficie occupée par le matériel, tout en multipliant par 20 le débit en entrée-sortie.

Le Big Data est à n’en pas douter l’un des concepts magiques de notre époque. Sa capacité à nous fournir des données plus pertinentes et permettre de mieux comprendre le monde qui nous entoure augmente notre aptitude à créer une société meilleure. Mais d’énormes efforts vont également être indispensables en coulisses pour créer des solutions permettant de manier ces mines de Big Data sous une forme à la fois compacte, rentable, fiable et respectueuse de l’environnement.

[1] Méthode de transfert de fichier sans réseau informatique, qui fonctionne par exemple par l'intermédiaire de clés USB ou de disques durs externes

2 Définies par Gartner comme « les ressources en informations que les entreprises collectent, traitent et stockent au cours de leurs activités courantes, mais qu'elles n'utilisent généralement pas à d'autres fins » Ontrack

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Tribune libre
commenter cet article