Présentation

  • : Le blog de Décideur Public - Univers Numérique
  • Le blog de Décideur Public - Univers Numérique
  • : Blog d’informations gratuit et indépendant dédié à l'univers numérique et au secteur public. Rédacteur en chef : Rita Audi rita.audi@decideur-public.info
  • Contact

16 septembre 2014 2 16 /09 /septembre /2014 11:12

Le Cloud Computing offre de beaux horizons  

Pensez Cloud. Pensez Chaîne de Valeur Globale. Pensez Performance et Capacité !

par Alexandra Sommer, Directeur Marketing, ORSYP Labs


Bien plus qu’une simple tendance, le Cloud Computing révolutionne aujourd’hui l’IT. Il permet de repenser le partenariat établi entre l’IT et les métiers et ce, en matière de « Time-to-Market », d’économies d’échelle ou bien encore d’infrastructure à la demande. De plus en plus assimilé à la productivité et à l’agilité, le Cloud est devenu une véritable alternative à l’approche traditionnelle d’un Système d’Information construit et géré en interne.

 

Si le modèle classique de management des infrastructures IT porte essentiellement sur la gestion des serveurs (achat, supervision et maintenance), la gestion du Cloud s’avère bien plus complexe. Elle implique de savoir faire cohabiter trois technologies dans un environnement hautement structuré, partagé et globalisé :

Des systèmes et des applications nécessitant un volume important de données

Des serveurs physiques et virtuels hébergeant les services et les applications

Une infrastructure sous-jacente incluant les équipements réseaux et les systèmes de connectivité 

En réunissant ces trois dimensions, les organisations bénéficient d’une infrastructure d’ensemble, où les services informatiques peuvent être exploités comme des chaînes de valeur. Dans cette perspective, maîtriser la chaîne de valeur globale présuppose de disposer de la bonne capacité de ressources au bon moment.

Finalement, la vision classique du système, du réseau et des applications a cloisonné chaque métier dans son expertise, chacun attendant de l’autre un travail bien fait sans appréhender sa contribution à la chaîne de valeur. Or, aujourd’hui, une solution basée sur le Cloud force l’IT à une réflexion globale et orientée vers les métiers.

Gérer la capacité du Cloud en trois dimensions Comment anticiper une augmentation des besoins en capacité ? A contrario, comment adapter les infrastructures lorsque certaines ressources ne sont plus nécessaires ? De quelle manière gérer les trois dimensions technologiques évoquées précédemment comme une chaîne de valeur globale ? Comment atteindre une maturité du processus de gestion de la capacité conforme aux enjeux du Cloud ?

Etape 1 : Etablir « en l’état » une évaluation de la capacité d’infrastructure 

Etape 2 : Mettre en place un système de suivi de Performance et de contrôle de la Capacité

Etape 3 : Appliquer des modèles de prédiction

 

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
9 septembre 2014 2 09 /09 /septembre /2014 09:19

Marc Delhaie, PDG d’Iron Mountain France et Suisse

La sauvegarde et le stockage des données est l’équivalent informatique du ménage de fin de journée.  Chacun range bien proprement ses données avec la certitude qu’elles seront en sécurité et faciles à retrouver. Difficile d’imaginer qu’un tel sujet puisse porter à controverse. Et pourtant si, et à juste titre.

 

La solution adoptée par bien des organisations consiste en un plan de sauvegarde et de stockage des données centralisé, décliné en différentes options. C’est là que le débat devient houleux. Les plus véhéments sont les adeptes convaincus du Cloud, qui n’hésitent jamais à souligner qu’à un moment ou à un autre, toutes les sauvegardes sur disque dur se perdent, et que rien n’offre autant de capacité de stockage, de flexibilité et de facilité d’utilisation. À l’autre extrême, vous trouvez les prudents, plus méfiants vis-à-vis du Cloud. Ceux-là vous renverront aux faits sans cesse plus nombreux. La récente étude Symantec indique que 68 % d’entreprises se sont trouvées dans l’incapacité de récupérer les données stockées dans le Cloud, et Forrester recommande sans réserve aux entreprises d’effectuer des sauvegardes de toutes leurs données stockées sur le Cloud

 

Le monde de l’entreprise couvre une réalité complexe. Les départements IT doivent composer avec des budgets restreints et un empilement d’infrastructures informatiques et se laissent de plus en plus tenter par la sécurité et les avantages offerts par un fournisseur Cloud bien établi. Dans bien des cas, cela mène à un système hybride de stockage et de sauvegarde des données : serveurs sur site pour les informations les plus importantes et les plus confidentielles, et bandes et disques placés en lieu sûr, ainsi que le Cloud, pour les données moins importantes et moins utilisées. Résultat, les données sont bien rangées, bien protégées à peu de coût, et l’équipe IT peut se consacrer à des tâches plus stratégiques. C’est le cas, du moins, jusqu’à ce que les employés se mettent à réclamer les données auxquelles ils ne trouvent plus l’accès. Bien des équipes IT, prises par surprise, ne sont pas armées pour répondre à toutes ces demandes.

 

En début d’année, nous avons mené une série d’entretiens approfondis auprès de professionnels de l’informatique chevronnés en France, en Allemagne, en Hollande, en Espagne et au Royaume-Uni Il ressort de ces conversations que,dans certaines entreprises, les demandes de récupération des données peuvent augmenter de 60 % chaque année, de la part d’employés qui souhaitent retrouver des documents qu’ils ont accidentellement supprimés ou égarés, ou accéder à des données d’entreprise centralisées dont l’accès est contrôlé. La récupération des données peut être une expérience frustrante (surtout lorsque leur auteur se souvient à peine du sujet ou du contenu de celles-ci), longue et compliquée, jusqu’à exiger parfois l’intervention d’un expert extérieur. 

Par exemple, dans les entreprises dont la compétitivité repose en grande partie sur des données, celles du secteur pharmaceutique par exemple, les employés ne sont pas autorisés à conserver la moindre donnée de l’entreprise sur leur PC : ils doivent formuler une demande officielle pour consulter ces données, auxquelles on ne leur accorde l’accès que pour une durée limitée et en lecture seule. Il peut en résulter un raz-de-marée quotidien de demandes d’accès.

Et toutes les demandes d’accès ne sont pas internes. Un nombre croissant de demandes sont formulées dans le cadre de l’eDiscovery à des fins légales, de conformité et d’application de la loi. Il est alors tout à fait impossible de ne pas retrouver et présenter les données requises dans les plus brefs délais.

 

Les entreprises doivent prendre en compte la facilité de récupération des données dans leur choix d’un plan de sauvegarde et de stockage. La meilleure solution est une approche hiérarchisée, depuis les informations contenues dans des dossiers fréquemment consultés, données clients ou dossiers médicaux, par exemple, jusqu’à celles qui ne seront probablement jamais utilisées ou presque, comme les polices d’assurance. Les premières peuvent être stockées sur des serveurs à portée de main, tandis que les dernières peuvent être clairement indexées et stockées à distance, éventuellement via un fournisseur extérieur, pour pouvoir être rapidement récupérées au besoin. Cette approche mixte optimisera les profits de l’entreprise tout en minimisant la charge pesant sur les ressources IT et les risques menaçant les données. 

 

Le rangement des données et leur récupération peuvent sembler accessoires, comparés à toutes les choses palpitantes auxquelles vous servent ces informations quand vous les détenez; mais si vous négligez ces deux étapes, celle du milieu risque fort d’en pâtir.  Sauvegarde, stockage et récupération revêtent une importance aussi cruciale que les données elles-mêmes.

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
8 juin 2012 5 08 /06 /juin /2012 08:20

Deuxième plus forte croissance du marché mondial des logiciels d’entreprise, la Business Intelligence (BI) ou informatique décisionnelle ne connaît pas la crise. Grâce au phénomène des big data, consécutif aux volumes exponentiels de données à traiter (texte, image et son), ce segment de marché connaît un renouveau et sort de son espace traditionnel de tableaux de bords pour dirigeants. Aujourd’hui, la BI sert avant tout à améliorer l’efficacité globale de l’entreprise, notamment dans ses processus métiers et dans la relation client.

Tableau 1 : Les dix priorités des DSI en 2012, par Gartner Group

Top 10 Priorités Business
Rang
Top 10 Priorités Technologiques
Rang
Développer la croissance de l’entreprise
1
Business intelligence & analytique
1
Attirer et fidéliser de nouveaux clients
2
Mobilité
2
Réduire les coûts
3
Cloud computing (SaaS, IaaS, PaaS)
3
Créer de nouveaux produits & services (innovation)
4
Technologies collaborative (workflow)
4
Fournir des résultats opérationnels
5
Virtualisation
5
Améliorer l’efficacité
6
Modernisation de l’héritage applicatif
6
Améliorer la profitabilité (marges)
7
Management IT
7
Attirer et fidéliser de nouveaux collaborateurs
8
CRM
8
Améliorer l’efficacité du marketing & des ventes
9
Applications ERP
9
Développer de nouveaux marchés et pays
10
Sécurité
10

Source: Gartner Executive Programs (janvier 2012)

Les solutions analytiques et décisionnelles prennent cette année la priorité première des directeurs des systèmes d’information, selon l’étude du Gartner Group. Le cabinet d’analyse estime que les projets relatifs à l’informatique décisionnelle sont relativement protégés des coupes budgétaires. De plus, les directions des systèmes d’information ne sont pas les seules à investir dans la BI, le regain d’intérêt des directeurs financiers pour ces solutions en serait la preuve.

Tableau 2  : Marché mondial de la Business Intelligence par acteur en 2011 (en millions de dollars)

Editeur
CA 2011
PDM (%)
CA 2010
PDM (%)
Evolution
2010/2011 (%)
SAP
2 883,5
23,6
2 413,1
23
19,5
Oracle
1 913,5
15,6
1 645,8
15,7
16,3
SAS Institute
1 542,8
12,6
1 386,5
13,2
11,3
IBM
1 477,6
12,1
1 222
11,6
20,9
Microsoft
1 059,9
8,7
913,7
8,7
16
Autres éditeurs
3 363,8
27,5
2 931,1
27,9
14,8
Total
12 241
100
10 512,2
100
16,4

Source: Gartner (mars 2012)


SAP a conservé en 2011 sa première place du marché mondial des logiciels de BI, d’analytiques et de gestion de la performance, avec une part de marché de 23,6%, soit près de 3 milliards de dollars de chiffre d’affaires. L’éditeur allemand est suivi par quatre sociétés américaines : Oracle, SAS Institute, IBM et Microsoft. L’ensemble des autres éditeurs de logiciels décisionnels a généré une part de marché de 27,5% (3,36 milliards de dollars de CA en 2011). Gartner pointe également que l’an dernier, le marché était encore dominé par des solutions traditionnelles installées sur site. Néanmoins, des moteurs comme le cloud, le mobile et le big data devraient jouer un rôle clé dans la plus grande adoption de ces logiciels dans les dix prochaines années.

Tableau 3 : Marché mondial de la BI par type d’application (en millions de dollars), Gartner Group

Segments
CA 2011
PDM (%)
CA 2010
PDM (%)
Evolution 2010-2011  (%)
Applications analytiques et gestion de la performance
1 938,6
15,8
1 652,6
15,7
17,3
Plateforme BI
7 793,4
63,6
6 703,3
63,7
16,3
Suites Corporate Performance Management
2 509
20,5
2 156,3
20,5
16,4
Total
12 241
100
10 512,2
100
16,4

Source: Gartner (mars 2012)

Les éditeurs de solutions décisionnelles, analytiques et de gestion de la performance ont généré 12,2 milliards de dollars de chiffre d’affaires en 2011, soit une progression de 16,4 % par rapport à l’année précédente, selon une étude du Gartner Group. Ce secteur a enregistré la deuxième plus forte croissance du marché global des logiciels d’entreprise. Cette progression s’explique notamment du fait que les professionnels des technologies de l’information continuent à investir dans la BI, et ce en dépit de contraintes budgétaires liées à la situation économique mondiale.


Tableau 4 : Motivations pour conduire un projet de big data, Informatica, mai 2012

 Business drivers for data projects

A en croire l’étude de l’éditeur Informatica, les big data devraient participer à l’amélioration de l’efficacité opérationnelle de l’entreprise. En effet, 74% des 589 responsables IT et métiers interrogés dans le cadre de cette étude placent ce bénéfice en tête de la mise en place d’un projet de big data. Les autres effets escomptés concernent un gain d’agilité, attirer et fidéliser de nouveaux clients et la création de nouveaux produits et services. Sans oublier la réduction des coûts pour 38% des répondants. L’atout des big data est de tenir compte des données non structurées notamment issues des réseaux sociaux (Facebook, LinkedIn, Twitter et autres) qui permettent de connaître l’avis des clients, de mieux les connaître et d’interagir plus facilement avec eux. Cela permet ainsi d’affiner la relation client tout en connaissant les éventuelles failles en termes de défauts de construction ou de distribution des produits voire de mauvaise prestation.


Tableau 5 : Bénéfices des outils d’analyse prédictive, IDC, mars 2011

 Application and benefit

L’étude d’IDC montre que les outils d’analyse prédictive a percé dans un grand nombre de secteurs d’activité. Ainsi, ce segment de marché de la BI connaît 7% de croissance pour atteindre 1,6 milliard de dollars. Des 200 entreprises interrogées par IDC, l’impact du prédictif est le plus marqué dans le secteur commercial. Dans 75% des cas, les processus métiers se voient fortement impactés, de même que la gestion de risque et les opérations. En revanche, l’intérêt du prédictif décroit dans les autres fonctions (RH et centre d’appels). Globalement l’étude entend prouver que les entreprises ayant globalement adopté le prédictif sont les plus compétitives. Toutefois, il ressort que ces déploiements nécessitent une forte implication du management et que l’entreprise soit équipée d’une large palette d’applicatifs décisionnels pour y parvenir.

Tableau 6 : Croissance du marché français de la BI, Pierre Audoin Conseil, juillet 2011

 Marché logiciels et services IT

Les logiciels et services liés à la mise en place d'outils d'intégration, de gestion, de manipulation, de restitution et de diffusion de l'information dépasseront le seuil des deux milliards d'euros en 2011 en France. La dynamique de ce secteur devrait se maintenir jusqu'en 2014, avec une croissance moyenne annuelle supérieure à 5%. Plusieurs phénomènes expliquent cette croissance comme la nécessité d'organiser l'abondance de données, et de la transformer en une information de qualité. En outre, l'émergence d'outils de visualisation immédiatement utilisables par des non-experts a également changé la donne. Alors que la BI classique, qui a marqué la vingtaine d'années écoulées, demandait de définir au préalable un certain nombre de requêtes et un format de restitution offrant très peu d'interactivité, les technologies de visualisation ouvrent la voie à une nouvelle forme de consultation et d'analyse des données, prisée des chefs d'entreprise. Par ailleurs, les entreprises doivent dorénavant prendre en compte le potentiel des volumes de données à leur disposition : commentaires du public, informations sur les concurrents, données de marché...

 

Pascal Caillerez (avec Institut Sage)


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
9 mars 2012 5 09 /03 /mars /2012 10:34

mairie-de-parisDeloitte publie sa première enquête sur la gestion immobilière de quinze grandes villes européennes afin de contribuer à la professionnalisation de celle-ci dans le secteur public et les municipalités. Sont concernées par l’enquête : Anvers, Bruxelles, Esberj, Bordeaux, Paris, Essen, Münster, Nuremberg, Milan, Luxembourg ville, Amsterdam, Rotterdam, Utrecht, Barcelone et Madrid. 

De manière générale, le portefeuille immobilier moyen de ces villes est constitué de 2 000 à 3 000 actifs en propriété par million d’habitants (avec une surface brute estimée à 2 à 3 millions de mètres carrés). Dans le contexte de crise financière, les municipalités sont attentives à leurs dépenses ainsi qu’à leurs actifs. Ainsi, 60% des villes étudiées envisagent la vente de leurs actifs pour uniquement améliorer leur situation financière mais 20% seulement ont engagé des démarches en ce sens. La gestion immobilière n’est pas encore un enjeu primordial pour toutes les municipalités. L’étude montre que le degré de professionnalisme et d’efficacité varie beaucoup entre les pays. Seule une ville sur quatre a fourni des données fiables sur la taille et la valeur de son portefeuille immobilier. 

Le besoin de professionnalisation est reconnu mais il reste encore à mener des défis majeurs pour organiser le métier. En effet, les différentes directions en charge des services publics (ex : les services scolaires, culturels ou sportifs de la ville) gèrent leur immobilier propre ce qui génère : un manque de vision sur le portefeuille global de la ville ; l’absence d’harmonisation de la gestion immobilière entre les directions ; une gestion dissociée des contrats de maintenance dans chaque direction, avec parfois des défauts de maintenance et enfin, l’absence de contrats de location avec des tiers. 

De plus, la mise à disposition des données dans une organisation éclatée n’est pas facile à obtenir, elle ne permet pas d’avoir le maintien d’une vue d’ensemble efficace et mise à jour. Ceci aboutit à plusieurs faiblesses dans le pilotage, la planification stratégique, le contrôle, c’est à dire des éléments nécessaires à une gestion immobilière professionnelle et efficace. A noter également que le développement durable ne représente pas une priorité stratégique. 

En France, selon l’INSEE, le portefeuille immobilier appartenant à l'Etat français a une valeur estimée à 198 milliards d’euros en 2009, foncier compris. Cela représente 15% du patrimoine immobilier public, sachant que les administrations publiques locales détiennent quant à elles 80% de ce patrimoine (les 5% restants appartenant aux administrations de sécurité sociale). En France, l’étude montre que les villes de Paris et Bordeaux ont fourni des efforts importants pour professionnaliser leur gestion immobilière. 

La ville de Paris a par exemple créé une Direction Immobilier Logistique et Transports (DILT) en 2010, qui mène de nombreux projets pour optimiser la gestion immobilière de la capitale : parmi les plus importants, on relève la conception d’une stratégie immobilière portant sur les implantations administratives, la valorisation des immeubles situés en plein cœur de Paris, la responsabilisation des différentes directions avec la mise en place de contrats d’intéressement sur les opérations d’investissement, la création d’une base de données permettant d’estimer les coûts de maintenance des actifs de la Ville de Paris et le regroupement des 60 implantations sur lesquelles sont aujourd’hui éparpillés les services centraux des vingt directions sur quatre sites correspondant aux quatre pôles métier. 

Du côté de Bordeaux, l’immobilier est décentralisé car géré par plusieurs directions de façonLogo Bordeaux autonome. Par ailleurs un plan est en cours de définition afin d’établir des directives pour la gestion d’actifs immobiliers. L’une des difficultés majeure que la ville connaît est le manque d’informations quantitatives et de système d’informations adaptés à la gestion immobilière pour faciliter la prise de décision. 

Comment évoluer vers une gestion professionnelle de l’immobilier ? Par où les municipalités doivent-elles commencer ? Les expériences réussies de certaines grandes villes comme Rotterdam et Paris, et l’analyse des résultats de l’étude permettent de tirer des enseignements sur l’organisation de la fonction immobilière. Deloitte pointe cinq objectifs fondamentaux des municipalités :

  • Se fixer une ambition forte pour une restructuration de la fonction immobilière qui est un projet complexe et à long terme. Un sponsor, désigné en interne, sera responsable du projet du changement et devra avoir une position reconnue dans l’organisation.
  • Rendre visibles les résultats dès les premières étapes, en mettant l’accent sur les victoires acquises rapidement « quick-wins » pour fédérer les parties sur l’avancement du projet.
  • Concilier l’atteinte d’objectifs immobiliers et d’objectifs de politique publique. Par exemple réduire le taux de vacance en attirant des entreprises stratégiques pour la ville.
  • S’appuyer sur des données fiables pour identifier des opportunités de réduction des coûts. Les données doivent être rassemblées en amont pour consolider la vision du portefeuille immobilier et identifier le potentiel de réduction des coûts. Cette collecte de données est primordiale pour la réduction des coûts et le pilotage.
  • Définir les indicateurs de mesure de la performance. La mise en œuvre d’un outil de gestion immobilière permet de répondre à plusieurs difficultés (connaissance et centralisation des données, identification des coûts, pilotage,…) en particulier la mise en place et le suivi d’indicateurs de performance.

 

Philippe Guichardaz

 

Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
2 mars 2012 5 02 /03 /mars /2012 13:30

Les spécialistes du stockage viennent de Mars et ceux du réseau de Vénus ! En dépit des interactions entre ces deux fonctions, chacun parle son propre langage, dispose de ses propres fournisseurs et utilise ses propres indicateurs, ce qui rend la communication quelque peu complexe entre ces deux univers…

Mais l’optimisation WAN est l’élément fonctionnel qui connecte ces deux mondes, puisque la réussite des stratégies de continuité d’activité dépend de l’infrastructure réseau. Le WAN est notamment l’autoroute empruntée par les données pour être dupliquées et stockées à distance, et il s’agit du principal vecteur par lequel des fichiers centralisés sont envoyés ou récupérés par les utilisateurs.

L’optimisation WAN s’assure que cette autoroute reste toujours performante en optimisant les capacités disponibles, palliant ainsi les contraintes de distances et garantissant un acheminement fiable et rapide des paquets. En clair, en améliorant la bande passante grâce à une maîtrise de la latence et de la perte de paquets, l’optimisation WAN devient la clé de voûte de nombre de projets de stockage.

Il existe trois contraintes WAN qui pèsent sur l’efficacité des processus de réplication et de stockage distant, et qui impactent ainsi le RPO (Recovery Point Objective, à savoir la durée maximum d'enregistrement des données qu'il est acceptable de perdre lors d'une défaillance) : la bande passante, les distances (latence) et la qualité du WAN (paquets perdus ou restitués dans le mauvais ordre). La relation qui lie ces trois contraintes est complexe, vu que leur niveau de criticité varie selon l’environnement réseau. À titre d’exemple, Augmenter la bande passante devient inopérant en cas de forte latence due à des distances trop importantes entre les équipements sources et cibles.  De même, la bande passante importe peu si les paquets sont perdus ou fournis de manière non-séquencée compte tenu des phénomènes de congestion, comme c’est souvent le cas au sein des environnements Cloud et MPLS plus économiques, mais de moindre qualité.

L’ensemble de ces trois contraintes doit donc être pris en compte pour optimiser l’efficacité de la réplication de données via un WAN, et donc le RPO. « Network Acceleration » permet de garder la main sur la latence grâce à de multiples techniques d’accélération de protocoles. « Network Integrity » répond également aux problématiques de perte de paquets et permet aux entreprises de prioriser les flux de trafic selon leur criticité. Enfin, « Network Memory » optimise l’utilisation de la bande passante grâce à la compression et la déduplication WAN. Résultat : les données sont plus nombreuses à être envoyées entre les lieux sources et cibles, en moins de temps et sur des distances toujours plus importantes.

 

  • Des opérations transparentes entre data centers. Il est devenu courant de voir des data centers configurés en mode redondant actif/actif. En cas de défaillance d’un data center, l’objectif est de basculer les utilisateurs sur le second data center aussi rapidement que possible. Pour autant, lorsque les data centers sont disséminés géographiquement (ce qui est souvent le cas pour minimiser l’impact d’un sinistre majeur), des performances atones remettent en cause l’utilité d’une telle infrastructure. Il existe de nombreux outils pour migrer en toute transparence les serveurs, espaces de stockage et données entre différents lieux (VMware Vmotion et EMC VPLEX par exemple). Pour autant, si le réseau n’est pas à la hauteur, ces outils n’opéreront pas de manière efficace sur le WAN. De plus, en cas de défaillance de l’un des data centers, certains utilisateurs accéderont au data center secondaire via le WAN, mais l’utilisation de leurs applications et espaces de stockage devient aléatoire si les performances réseau ne sont au rendez-vous. 
  • Une sauvegarde vers tous les lieux, quel que soit le lien WAN. Autrefois, les entreprises se contentaient de sauvegarder leurs données vers des lieux définis, compte tenu des contraintes réseau. Certains acteurs du stockage recommandaient d’ailleurs que les processus de réplication utilisent des réseaux déployés sur de courtes distances, car présentant une latence moindre (inférieure à 80 ms). De plus, la réplication n’était conseillée que via des lignes dédiées, capable d’assurer une fourniture pertinente des paquets. Mais cette contrainte creusait davantage les budgets et exigeait souvent de déployer et de gérer des data centers onéreux et des réseaux dédiés au stockage.
  • Un accès pervasif aux fichiers distants (NAS centralisé). De nombreuses entreprises connaissent des freins dans leur projet de stockage NAS centralisé, puisque l’accès distant à des fichiers centralisés peut se révéler lent et coûteux via le WAN. Les technologies traditionnelles comme le WAFS (Wide Area File Services) sont apparues pour répondre à cette problématique grâce avec la mise en cache des fichiers et à leur gestion à distance. Cependant, ces solutions étaient souvent difficiles à déployer, sujettes à des problématiques de cohérence de données, et considérées comme plus coûteuses que les solutions d’optimisation WAN car ne ciblant que certaines applications seulement (partage de fichiers).
  •  Avec la déduplication de fichiers, l’optimisation WAN a rapidement supplanté le WAFS au cours des années récentes en tant que principal moyen d’activer un accès rapide et fiable vers des fichiers centralisés. La compression des données a également été associée à la QoS, au lissage du trafic, ainsi qu’à des techniques de correction de la latence et de la perte de paquets, pour ainsi répondre à l’ensemble des défis réseau qui ralentissent l’accès à une infrastructure NAS centralisée. Il devient alors possible de déployer des équipements NAS sur des lieux différents, quelle que soit l’envergure du WAN, les distances, ou la qualité du réseau. L’optimisation WAN prend en charge toute perte de trafic et offre un retour sur investissement bien plus important que dans le cas du WAFS, et sans risque de divulgation ou de compromission de données. Ainsi, de nombreux fournisseurs qui mettaient auparavant en avant leurs solutions WAFS, se sont par la suite rétractés et ont retiré leurs produits (Blue Coat, Expand, Riverbed, ou encore Cisco).
  • Maitrise des coûts de télécommunications. Dans de nombreux cas, la bande passante est coûteuse, et augmenter cette bande passante est un mauvais choix. De nombreux fournisseurs d’équipements de stockage ont intégré la compression et la déduplication au sein de leurs solutions de réplication pour répondre à cette problématique. Lorsqu’un réseau n’est dédié qu’aux opérations de stockage, tout fonctionne parfaitement. Mais lorsque le trafic lié au stockage partage le WAN avec d’autres types de trafic (fichier, email, Web, vidéo, etc. ), la déduplication qu’offre l’équipement de stockage est insuffisante et cette fonctionnalité doit également être réalisée au sein du réseau.
  • En intégrant la déduplication au sein du WAN, le trafic non lié au stockage est optimisé, ce qui génère des économies en matière de bande passante, tandis que le processus de sauvegarde des données utilise un réseau convergent, ce qui est moins coûteux. D’où l’intérêt de dédupliquer le trafic au niveau de la couche IP, ce qui consiste à dédupliquer tout ce qui transite par le réseau sur IP, pour ainsi optimiser la bande passante et générer des économies substantielles.

Pascal Caillerez


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
13 janvier 2012 5 13 /01 /janvier /2012 14:31

Data Syscom Esker STS Group Tessi Accelya Mapping des fournisseurs de solutions de dématérialisation de documents sortants

 

Le marché de la dématérialisation, qui devrait connaître une croissance soutenue malgré la crise (+14% de croissance moyenne annuelle sur la période 2011-2013), se structure au rythme d’acquisitions et de rapprochements, notamment afin de proposer des solutions plus globales incluant une forte dimension services. La variété de prestataires présents sur le marché de la dématérialisation de documents sortants apporte ainsi des réponses au travers d’offres, tant en solutions applicatives qu’en services, en adéquation avec les besoins des entreprises. Deux dimensions peuvent être retenues pour distinguer les différents profils d'acteurs intervenant sur ce marché : d’un côté, la spécialisation sur un segment précis de la dématérialisation à l’opposé d’une approche plus globale ; et de l’autre, le modèle économique originel et sur lequel reposent principalement les activités des fournisseurs de solutions (services vs. applications).

 

Cegid Infor Prisme Mapping des solutions en réponse aux besoins des solutions de gestion intégrée

Les besoins d’évolution exprimés par les décideurs interrogés par MARKESS International vis-à-vis de leurs solutions de gestion intégrée (ou ERP/PGI) entraînent une interdépendance grandissante de ces ERP avec les autres solutions du marché requises par les décideurs, et ainsi des besoins croissants d’intégration de ces diverses solutions entre elles. Afin de s’adapter aux évolutions de la demande des entreprises, les éditeurs d'ERP doivent également revoir leurs offres en tant que telles, notamment en proposant une prestation packagée en mode « cloud computing », qui inclut la solution, le paramétrage et l’installation, soit en mode direct, soit en mode indirect, via des partenaires qui offrent l’infrastructure nécessaire pour proposer en mode SaaS les solutions de gestion intégrée.

 

Mapping des prestataires sur le marché des solutions RN en mode SaaS

 

En 2011, MARKESS International estime ainsi qu’en France, environ 10% des entreprises et administrations ont recours à au moins une solution en mode SaaS pour gérer un périmètre plus ou moins étendu de  la fonction  RH, de  la  paie  à  la  gestion  des  talents  en  passant  par  le  recrutement.

En réponse à cette demande croissante, le marché des solutions RH en mode SaaS voit intervenir une variété d’acteurs. Les « pure players », offrant des solutions RH nativement développées pour le mode SaaS et généralement spécialisées sur certains processus, voire micro-processus RH, y côtoient des offreurs présents de plus longue date sur le marché des logiciels et services RH : des éditeurs de logiciels dédiés aux SIRH, d’ERP/PGI, mais aussi des acteurs familiarisés avec d’anciens modèles d’externalisation qui se doivent d’évoluer vers le SaaS. A ces acteurs offrant des solutions applicatives, il est important d’associer les prestataires de services tels que les intégrateurs délivrant des prestations primordiales en regard des contraintes générées par la multiplication des solutions RH, ainsi que ceux accompagnant le changement.

Avec un taux de croissance annuel moyen de l’ordre de 26%, ce marché est l’objet de nombreuses prises de positions. Des mouvements s’opèrent, tant de la part des offreurs de solutions RH plus traditionnelles en quête de compétences SaaS, que des « pure players » soucieux de proposer une offre en mode SaaS plus globale, comme c’est notamment le cas avec la gestion intégrée des talents. Aussi, la face du marché devrait sensiblement évoluer dans les années à venir.

 

Cloud computing

 

 

La chaîne de valeur du cloud computing implique des acteurs aux origines multiples et aux valeurs ajoutées variées et leur foisonnement complexifie la lecture des apports de chacun et la comparaison des offres. Aussi MARKESS International a développé ce Mapping afin de clarifier les acteurs en présence sur le segment du marché du cloud computing dédié aux infrastructures (IaaS) qui est particulièrement dynamique.

Si les "pure players" confirment leur leadership historique en termes de reconnaissance sur le marché, un ensemble d’acteurs venant d’horizons différents proposent désormais également leurs services pour accompagner les décideurs dans leurs projets d'Infrastructure as a Service (IaaS).

 

Il faut aussi compter sur :

  • Les opérateurs de centre de données dont le cœur de métier est dévolu aux infrastructures physiques sous-tendant de nombreux projets IaaS / PaaS ;
  • Les hébergeurs à valeur ajoutée qui bénéficient d’une légitimité historique sur la gestion externalisée des infrastructures serveurs notamment et des plates-formes applicatives ;
  • Les opérateurs de télécommunications qui sont un maillon clé de la chaîne de valeur du cloud computing d’infrastructures en faisant valoir notamment leur forte compétence dans la gestion des réseaux et la facturation de flux. La plupart proposent aussi des services d’hébergement à valeur ajoutée ;
  • Les infogéreurs qui sont aussi des prestataires à suivre.

La plupart de ces acteurs ont établi des partenariats ou alliances fortes avec des "enablers" technologiques qui jouent aussi un rôle clé dans la chaîne de valeur du IaaS. Il s’agit notamment d’éditeurs spécialisés dans la virtualisation, d’acteurs spécialistes du stockage, de la sécurité, des équipements réseaux, etc., sans oublier les grands acteurs des processeurs.

 

Dematerialisation de factures fournisseurs

 

 

Contraintes à toujours plus de performance, les directions métiers se doivent d’optimiser leurs processus. Les directions des achats, administratives et financières n’échappent pas à la règle. Depuis quelques années, elles ont initialisé des projets de dématérialisation dans ce sens sans pour autant les coordonner entre eux, ces projets étant le plus souvent conduits au niveau départemental avec notamment :

  • Des projets d’e-procurement (ou de gestion électronique des approvisionnements, du passage au suivi des commandes), auxquels se rattachent des catalogues électroniques (ou fiches produits dématérialisées)
  • Des projets d’e-sourcing (en amont du processus achats, les technologies internet étant utilisées pour la sélection des fournisseurs, depuis la définition du besoin jusqu’à la signature du contrat d’achat) 

Aujourd’hui, elles font face à de nouveaux enjeux liés à la fluidification de la chaîne de dématérialisation afin d’éviter toute rupture dans les traitements et actions associés (chaîne couvrant la demande d’achat jusqu’au paiement en passant par la facture).

Face à ces besoins en expertises se positionnent divers profils de prestataires proposant services et/ou solutions logicielles.

 

Solutions logicielles

 

 

Les décideurs, interrogés dans le cadre de la dernière étude de MARKESS International sur l'Amélioration & Automatisation des Processus d’Entreprise, sont confrontés à des problématiques liées à la transformation rapide des processus dans leur organisation et à leur permanente évolution (voir précédent billet). Pour répondre à cette situation complexe, ils émettent des besoins en solutions logicielles variées, le plus souvent complémentaires. 

Aussi, le marché de l’amélioration et de l’automatisation de processus voit intervenir des acteurs spécialisés des processus qui côtoient des offreurs généralistes ou spécialistes métiers (RH,CRM), aux côtés d’autres prestataires dont les solutions sont dédiées à des domaines plus transverses comme la gestion d’information (ECM, EIM, document management), la dématérialisation, ou encore le pilotage (analytique, reporting…) et le décisionnel.

Du côté des offreurs de solutions, des mouvements se dessinent afin de mieux répondre aux attentes évoquées. Ils sont marqués du sceau du développement de modèles métiers, de la consolidation entre solutions (contenus, dossiers, processus, interactions humaines, middleware…) et de l’essor de suites ou de plates-formes unifiées dédiées à la gestion de processus et de dossiers (cf. la notion anglo-saxonne de "case management"). Il faut également prendre en compte le développement du cloud computing et d’applications proposées en mode SaaS (Software as a Service) avec les nouveaux enjeux d’intégration et d’interopérabilité qu’elles engendrent.

 

 Pascal Caillerez


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
31 mai 2011 2 31 /05 /mai /2011 08:58

Dans le secteur public comme dans le secteur privé, la motivation d’un dirigeant est un facteur clé pour atteindre les objectifs de l’entreprise. Le secteur public est en pleine mutation et son rôle est à redéfinir. Afin d’accompagner ces changements, le cabinet de conseils Hudson a réalisé une étude  auprès d’un échantillon qualitatif de 500 personnes pour déterminer les leviers clés des dirigeants, les facteurs qui stimuleront l’activité du décideur et de son équipe.

  

 

HudsonNicole Prud’Homme, directrice Talent Management chez Hudson, analyse ces résultats : « indifféremment du secteur public ou du secteur privé, la stimulation intellectuelle est très importante pour le décideur ». Un secteur d’activité où les défis stratégiques sont nombreux aura tendance à apporter une forte motivation, de même que le rôle d’influence du dirigeant. Cependant, on aurait tort de penser qu’il existe un calque de management du secteur privé appliqué au secteur public. Dans les entreprises privées, on observe un leadership de court terme alors qu’il doit être réalisé en fonction des attentes de très long terme dans le secteur public. « Analyser, prévoir une stratégie de long terme et convaincre sont les principaux leviers », déclare-t-elle.

 

La prise de décisions dans le secteur public doit être réalisée au regard d’un élément majeur : la volonté de contribuer au développement de la société et pas seulement d’une entreprise quelconque. De ce fait, la réalisation de défis stratégiques a une incidence plus forte sur la motivation des dirigeants. Ces derniers tirent une plus forte satisfaction de leurs réussites. Toutefois, la dimension humaniste y est également très présente, la notion de « service aux autres » est omnisciente. De ce fait, la volonté des décideurs s’axera essentiellement sur la reconnaissance qui se traduit, selon Guillemette Renard (à gauche), responsable de l’étude, « par une ambiance de travail conviviale, une bonne entente entre les collègues et une appréciation à sa juste valeur du travail de chacun ». Une façon efficace de valoriser le travail de chacun pourrait par exemple être de pratiquer un roulement des tâches distribuées. « Il faut que chacun puisse avoir l’occasion de montrer ses capacités », affirme Marc Timmerman, expert Talent Management (le plus à droite sur la photo).

 

 

Par ailleurs, certains leviers de motivations se distinguent de par leur faible importance, à commencer par la motivation des autres. Le directeur général adjoint de Hudson, Pierre-Yves de Beco explique cette différence en raison du contrat employeur/employé de meilleure qualité dans le secteur privé. « Les évolutions salariales motivent peu car elles sont déjà relativement élevées. L’employé du secteur public a réalisé un arbitrage entre le salaire (qui reste confortable) et des conditions de travail optimales. » En effet, la sécurité de l’emploi et le partage entre la vie professionnelle et la vie publique l’emporte sur la masse salariale dans le secteur public, ce qui justifie l’influence faible de ce facteur. Par conséquent, un management par objectifs à atteindre sera bien plus efficace qu’une « carotte » financière.

 

Enfin, voir son impact sur les autres s’intensifier intéresse peu le décideur du secteur public. Les dirigeants ayant déjà bien souvent atteint un haut niveau de carrière, ils se déclarent la plupart du temps satisfaits de la situation. Néanmoins, il faut prendre en compte un effet générationnel : l’âge moyen s’avère généralement élevé et le besoin d’évoluer encore est plus présent chez les générations les plus jeunes. Il serait intéressant de mesure ce même facteur d’ici quelques années avec les modifications conjoncturelles attendues.

 

Pour accompagner la forte mutation du secteur public, les dirigeants doivent adopter un nouveau mode de management. Jouer « carte sur table » en précisant à ses collaborateurs ce qui est attendu d’eux permettra au décideur d’atteindre de manière optimale ses objectifs. Un management par la sincérité, en indiquant les différents options qui s’offrent au dirigeant impliquera davantage l’intégralité de l’équipe qui modifiera sa façon de penser et de traiter un dossier en fonction du contexte ou de l’évolution d’une situation. « Le mot d’ordre doit être coopération », conclut Marc Timmerman.

 

Julie Guesdon


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
17 mai 2011 2 17 /05 /mai /2011 12:25

Education, Mécénat

 

IBM ordinateur KidSmartDans le cadre du mécénat d’IBM, 850 ordinateurs ludo-pédagogiques « Kidsmart » ont été installés sur le territoire français pour lutter contre la fracture numérique. Jean-François Pierron, directeur régional d’IBM a présenté les installations de l’école Pasteur à Floriac (Bordeaux) en compagnie de Daniel Gillard, inspecteur académique adjoint et inspecteur dédié aux TICE et de l’équipe pédagogique.

 

L’école maternelle Pasteur est composée de cinq classes et est située en zone urbaine d’éducation prioritaire. Elle a été équipée à l’automne de trois unités Kidsmart – une par section. « Les enfants considèrent réellement l’outil comme un ordinateur et comprennent que c’est aussi un outil d’apprentissage », constate  Nathalie Camp, directrice de l’école. Nathalie CAMP directrice école maternelle Pasteur à BordeL’appareil a été intégré au quotidien de la classe. « Il est allumé du matin au soir et fait partie des activités disponibles hors ateliers, comme aller à la bibliothèque, mais il est bien plus populaire », confirme-t-elle. L’appareil est conçu pour une utilisation en binôme avec deux casques, un clavier et une souris, mais l’institutrice a l’habitude de laisser jusqu’à cinq élèves le manipuler ensemble : « les deux enfants qui ont les instructions audio les communiquent aux autres puis réfléchissent tous ensembles. Leur capacité d’écoute, de réflexion et de partage s’améliorent remarquablement ».

 

Constitué d’un panel de programmes de tous niveaux, il est possible aux enseignants d’apporter du contenu pour renforcer le travail en classe. Dans le cadre d’un partenariat enAlice Korn Actions éducatives - Relations enseignants Cap France avec Cap Sciences, les contenus sont axés sur les sciences dans l’ensemble de la Gironde. « Le partenariat a motivé davantage la région qui a mis à disposition 68 Kidsmarts dans les écoles », indique Alice Korn, Actions éducatives - Relations enseignants de Cap Sciences.

 

Pour Daniel Gillard, ce nouveau mode de fonctionnement est une véritable révolution. Par le passé, les salles informatiques étaient distinctes des classes et utilisables de façon ponctuelle, selon le planning de chacun. « Les enseignants prennent ici le réflexe d’intégrer leur Kidsmart au pédagogique, on peut espérer à terme voir cette habitude tout au long de la scolarité », souligne-t-il. Initier à la manipulation de l’outil informatique a plusieurs objectifs. Du point de vue citoyen, il s’agit de responsabiliser davantage les mineurs face aux dangers d’internet. « Au collège, les bonnes et les mauvaises pratiques des réseaux sociaux, et Facebook notamment où les adolescents sont très présents est inscrit au programme d’éducation civique. » De plus, le corps enseignant, tous niveaux confondus, souhaite réapprendre aux élèves à « réfléchir par eux même et non à coup de copier/coller », citant le cas des nombreuses thèses qui se sont révélées être du plagiat. Par ailleurs, en équipant en priorité les zones rurales et les zones d’éducation prioritaire, on contribue à réduire les inégalités en luttant contre la fracture numérique.

 

Elèves de l'école maternelle Pasteur à BordeauxLe programme est réservé aux 3 - 6 ans, ce qui étonne parfois. Pourtant, « les TIC s’utilisent pour tout, y compris en maternelle », affirme Daniel Gillard. En effet, si le langage est encore peu maîtrisé, les élèves ont déjà fortement développé leurs capacités de motricité. « Aujourd’hui, les enfants en bas âge sont parfois capable de mieux utiliser un Ipad qu’un adulte », revèle Daniel Gillard. Enfin, la manipulation précoce des nouvelles technologies participe à l’apprentissage de la lecture et à la lutte contre l’illettrisme.

 

Depuis dix ans, la Fondation IBM a développé Kidsmart dans de nombreux pays. Au total, pas moins de 107 millions de dollars sont dédiés à l’installation des appareils dans les établissements scolaires et à la formation du corps enseignant. Cette opération n’est pas isolée. Dans le cadre de son centenaire, IBM souhaite s’investir pour aider au développement. De nombreuses initiatives et associations auxquelles prennent part bénévolement des membres d’IBM se sont vues doubler leurs dons en provenance de l’entreprise. En France, Kidsmart est actuellement développé dans une dizaine de régions. Et Jean-François PierronJean François PIERRON IBM ne compte pas s’arrêter là : « Nous n’avons toutefois pas d’objectif chiffré, les installations dépendent des politiques menées par chaque région et de la bonne volonté des équipes pédagogiques. Pour l’instant, les zones d’éducation prioritaire et les zones rurales sont la priorité. »

 

Julie Guesdon, envoyée spéciale


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
5 mai 2011 4 05 /05 /mai /2011 10:00

Dans son dernier  rapport d’analyse stratégique, le gouvernement affirme que la société française est entrée dans l’ère du numérique mais la réalité tempère le propos. En effet, un tiers de la population n’utilise pas les moyens technologiques mis à sa disposition. Ce déséquilibre souligne la subsistance de nombreuses fractures à la fois sociales et culturelles et met le doigt sur une préoccupation majeure : comment réduire le fossé numérique.

 

Les seniors et les plus jeunes restent à l’écart

 

Quatre axes se démarquent du rapport sur le fossé numérique en France. En premier lieu, il existe une différence générationnelle marquante. A l’inverse des seniors dans d’autres pays, les plus de 65 ans utilisent faiblement les technologies numériques. Par comparaison, 65% des personnes âgées ont accès à Internet au Danemark. De plus, on remarque que les foyers avec enfants (connectés pour plus de 90% d’entre eux) sont nettement plus équipés que les autres, grâce à l’utilisation des outils informatiques à l’école qui poussent les parents à posséder un ordinateur à domicile.

 

Ensuite, le niveau de revenus reste un obstacle majeur à l’accès au numérique, ainsi que le niveau d’éducation du fait du coût des équipements associée parfois à une utilisation compliquée. De plus, un écart inquiétant est constaté chez les plus jeunes. Si le numérique a permis un accès à la culture plus facile, on remarque que les enfants en difficulté scolaire utilisent peu les outils informatiques et que cette situation a tendance à se creuser. Toutefois, une lueur d’espoir se fait jour : il semble que l’intégration du numérique à l’école permet de réduire les inégalités de niveau.

 

Enfin, contrairement aux apparences, l’aspect géographique compte peu : le réseau est relativement bien déployé sur le territoire et dans de nombreux secteurs ruraux, comme par exemple l’agriculture, l’utilisation d’internet est quotidienne et facilite les tâches administratives.

 

Fracture numérique et fracture sociale

 

Réduire les inégalités quant à l’accès au numérique aurait plusieurs avantages. Chez les 15-24 ans, l’outil internet permet un meilleur accès à la culture et à l’enseignement. En proposant diverses formations hors cursus, il serait possible à chacun d’améliorer ses connaissances et donc de réduire le fossé culturel. En Corée du Sud par exemple, un système de cyber home learning permet aux élèves de réviser grâce à de nombreux exercices adaptés au niveau de chacun. En outre, les manuels interactifs y sont employés grâce aux nombreux hyperliens et contenus supplémentaires qu’ils contiennent reliés aux tableaux numériques. Le ministère de l’Éducation nationale, de la jeunesse et de la vie associative a ainsi présenté le 25 novembre 2010 les plans de développement du numérique en s’inspirant de ces exemples.

 

Or, réduire les coûts d’accès au numérique contribuerait aussi à lutter contre la fracture sociale. Au Canada, en Corée du Sud, au Danemark ou encore en Finlande, les fournisseurs d’accès sont soumis à la concurrence et apportent une plus grande diversité dans les offres proposées. Un tarif social y est également en vigueur (accès mensuel de 9,68 euros au Canada par exemple). Dans cette optique, il s’avère essentiel d’aider les personnes les plus défavorisées à s’équiper ou, du moins, à avoir accès au matériel dans des espaces publics numériques (EPN).

 

S’appuyer sur les exemples internationaux

 

Enfin, inciter les plus de 55 ans à utiliser Internet par des logiciels et des matériels adaptés contribuerait à lutter contre leur isolement en gardant contact avec leurs proches et en conservant leur autonomie. Des sites pratiques sont d’ores et déjà dédiés aux générations les plus âgées pour faciliter leur quotidien. Internet aide déjà à combattre Alzheimer : l’association Al’Fa Répit (Alzheimer Famille Répit) agit dans des maisons de retraite ou des accueils de jour par le biais d’un espace numérique et organise des activités pour valoriser les malades et les aider à rester en contact avec l’extérieur.

 

Lutter contre le fossé numérique peut constituer une forme efficace de progression sociale. Des solutions efficace existent, comme le prouvent les exemples internationaux et pourraient être facilement employées en France. Cependant, leur coût parfois élevé a tendance à freiner les collectivités et nécessite une réflexion sur le budget à allouer au développement numérique.

 

Julie Guesdon


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article
18 mars 2011 5 18 /03 /mars /2011 16:25

Le numérique dans le monde éducatif fait penser au Désert des Tartares de l’écrivain Dino Buzzati, on attend et rien ou peu survient. Pour dépasser cet a priori, Marseille accueillera les 23 et 24 mars prochain les 16e rencontres du numérique éducatif et culturel. Baptisé Orme 2.11, l’événement sera consacré aux moyens de collaboration et de communication permettant de développer l’apprentissage. L’occasion de faire le point sur les actions réalisées en milieu scolaire en la matière.


 PapadopoulosCréé en 1995, l’Observatoire des ressources multimédias en éducation (Orme) concentre ses objectifs sur le développement du numérique dans l’Éducation et de son utilisation pour favoriser l’accès à la connaissance. « En 2010, les rencontres de l’Orme avaient rassemblé pas moins de 2 400 personnes avec 197 exposants dont 71 entreprises et 23 organisations ou collectivités », souligne Jacques Papadopoulos, directeur du Centre régional de documentation pédagogique (CRDP) de l’Académie d’Aix-Marseille. La présence des partenaires locaux est essentielle en facilitant l’équipement numérique des collèges et lycées ».

 

Cette année, l’évènement sera concentré autour de quatre thématiques. Une partie importante portera sur la question du handicap et plus particulièrement des NTIC dédiées à l’autisme. Y seront aussi développés des exemples et des réflexions autour de « l’école communicante » avec la présentation par les enseignants et les élèves d’activités pédagogiques réalisées au cours de l’année scolaire. En outre, une émission de radio et des contenus télévisés seront réalisés à l’occasion de la 22e semaine de la presse. Par ailleurs, orme 2.11 mettra l’accent sur l’utilisation du numérique dans les filières techniques et professionnelles, dont les élèves seront amenés rapidement à utiliser les nouvelles technologies dans la pratique quotidienne de leur profession. De plus, deux tribunes seront réservées au Québec, invité d’honneur de la manifestation, et de nombreux stands seront dédiés aux pratiques collaboratives afin de promouvoir les ressources et logiciels libres.

 

L’accès au numérique : un enjeu politique et financier majeur

 

CapulSelon Jean-Yves Capul, du Ministère de l’Education Nationale, « le développement des nouvelles technologies et l’accès au numérique doivent être réalisés de concert avec les collectivités locales et les régions ». A l’instar du sud de la France, fortement équipé grâce aux collectivités locales, les ressources numériques doivent se diffuser dans l’ensemble des établissements français. Il est par exemple question de la création d’espaces numériques de travail (ENT) dans les lycées de Picardie et d’Aquitaine. En outre, un partenariat avec des maisons d’édition devrait permettre sous quelques temps l’expérimentation de la présence de manuels numériques en classe pour les élèves de 6e et 5e. Enfin, la création d’un cahier de textes numérique obligatoire dès la rentrée 2011 devrait inciter les familles et le corps enseignant à adopter progressivement ce nouveau mode de fonctionnement.

 

Toutefois, ces initiatives supposent un soutien logistique et financier. « L’instauration de chèques ressources par groupes d’établissement dédiés au numérique permettra à chaque élève une meilleure accessibilité aux outils numériques », souligne Jean-Yves Capul. Outre un coût non négligeable, l’accès aux NTIC nécessite la présence renforcée de techniciens de maintenance en informatique pour assurer le bon fonctionnement des équipements, ce qui est loin d’être le cas dans la situation actuelle. Sans oublier la nécessité de formation. Aussi, une ébauche se fait-elle jour avec la plateforme de formation en ligne nommée Pairformance qui est une structure de partage et d’outils pour les enseignants avec la participation de nombreux partenaires éducatifs et techniques.

 

LucianiBoyerCependant, Pascale Luciani-Boyer, maire St-Maur-des-Fossés (94) et membre de l’Association des Maires de France, insiste sur l’intérêt de la pertinence des outils disponibles avec l’utilisation qu’en font les enseignants. : « Dans l’un des établissements scolaires de la commune, un tableau numérique reste inutilisé. Il est installé et en état de marche mais aucun enseignant ne s’en sert ». Une étude sur ce sujet est en cours avec la participation des Universités de la Sorbonne et de Créteil. Il s’agit pour Axel Kahn, directeur de recherche à l'Inserm (Institut national de la santé et de la recherche médicale), d’observer les acteurs (élèves, enseignants, parents d’élève et équipes parascolaires) de douze écoles représentatives du panel français. A son issue, une équipe d’enseignants-chercheurs et de psychologues sera chargés d’établir un rapport de recommandations sur les équipements nécessaires et les améliorations à apporter pour optimiser les investissements des collectivités locales.

 

L’étude permettra aussi d’insister sur les différences importantes entre les établissements du primaire et du secondaire. En effet, les familles sont souvent plus impliquées quant aux dispositifs d’enseignements présents dans les écoles primaires et sur la nécessité d’adapter les équipements numérique à l’âge et à l’utilisation qui en sera faite. A cette enquête se rajoute la question des contenus. « Il est essentiel de fournir une base de contenus pertinents et adaptés aux programmes scolaires sans lesquels les investissements réalisés en matière de numérique resteront sous-employés », relève Pascale Luciani-Boyer.

 

Interactivité, optimisation des contenus et partage : vers un nouveau livre numérique interactif

 

Sebastien LeplaideurLes éditions Belin, figurant parmi les premiers éditeurs à avoir produit des livres numériques, travaillent actuellement sur la création d’un nouveau support interactif : le Livre Interactif Belin (LIB). Selon Sébastien Leplaideur, éditeur et responsable du développement numérique de la maison d’édition, « les tablettes numériques sont précurseurs des utilisations possibles ». Le LIB pourrait offrir aux enseignants la possibilité de « modifier intégralement le contenu initial du support mais également de partager ces modifications et le travail réalisé avec les élèves », estime-t-il.

                                                                                        

Cette notion de partage du contenu s’avère récurrente avec l’émergence des réseaux sociaux : un partenariat avec l’étude réalisée par l’Université de la Sorbonne devrait engendrer la création d’un réseau social écolier à mi-chemin entre Facebook et Twitter. Jean-Yves Capul évoque la nécessité pour les équipes pédagogiques et culturelles de se concerter davantage sur « l’accès à une connexion internet à plus de 95% des familles, l’explosion des réseaux sociaux et le développement de l’internet nomade. Lesquels doivent inciter le ministère de l’Éducation et tout le personnel des milieux éducatifs et culturels à réfléchir aux nouveaux moyen d’enseigner, mais aussi à responsabiliser les élèves face aux dangers du numérique et à la préservation des données personnelles ». Le brevet informatique et internet (B2I) va ainsi être repensé afin d’inclure ces problématiques majeures.

 

Enfin, un partenariat de mutualisation de l’apprentissage des pays francophones est à l’étude avec la collaboration des enseignants. Il s’agit pour Pascale Luciani-Boyer « de constituer un e-partage entre les pays du Nord et les pays du Sud pour créer et harmoniser les contenus pédagogiques ». Une grande conférence sur ce sujet  regroupant les pays francophones africains devrait être prochainement organisée à Dakar. Il y sera question « d’améliorer l’accès à l’éducation de tous les pays mais également de souder politiquement les pays francophones dans une optique de partage et d’égalité des chances ». Il reste maintenant à savoir si ces projets ambitieux pourront être menés à bien compte tenu de l’environnement budgétaire actuel. 

 

Julie Guesdon


Repost 0
Published by Décideur Public - Systèmes d'Information - dans Dossier
commenter cet article