Document sans nom

Newsletter n°56 – janvier 2013

 

Edito

Le chiffre du mois

Dossier du mois : Big Data
Qu’est-ce que le Big data ?
La révolution Big Data et la cybersécurité
Telecom Paristech : le 1er Mastère Spécialisé Big Data en France
Mythes et légendes sur le Big Data

Actualités :
Tenue du Colloque Forum ATENA sur la confiance
Des nouvelles de l’atelier d’écriture de Forum ATENA
Forum ATENA : un acteur qui compte dans le paysage numérique français.
Forum ATENA s’associe à l’initiative : Feuille de route pour une identité numérique nationale
Publication des actes du colloque sur « l’identité numérique au cœur des stratégies économiques »
L’usage des nouvelles technologies de communication est-il une réalité en entreprise ?
Louis Pouzin, co-créateur du Net, ne croit pas Google

Agenda

     

Edito

Nous sommes je crois à un tournant dans le développement d’Internet, et peut être même de notre civilisation. Le big data s’affirme chaque jour un peu plus, il est multidimensionnel, et son développement tous azimuts nécessite réflexions et analyses sur les conséquences possible, en terme économique, politique, et sur notre vie privée.

Un exemple pour illustrer mon propos, avec cette innovation de Technicolor qui ouvre de multiples perspectives : "L’idée, développée par Technicolor, consiste, grâce à des capteurs et des moyens d’analyse adaptés, à pouvoir percevoir, sans que nous en soyons conscients, l’intensité et la nature des émotions que nous éprouvons en visionnant différentes images : films, documentaires ou jeux vidéo, afin, bien sûr, de repérer le type d’image ou de programme qui nous captive le plus. (…) les producteurs de contenus audiovisuels et de films analyseront avec le plus grand soin ce retour d’informations concernant l’impact émotionnel et affectif de leurs programmes."

Ce n’est qu’un exemple, tiré de l’éditorial de la lettre de René Trégouët – Sénateur Honoraire.

Il donne une idée de la profondeur du changement en cours, des capacités techniques à notre disposition, de la gouvernance qu’il va falloir inventer. Les retombées économiques semblent immenses, comme les appétits des acteurs, et le challenge technologique qu’il faudra relever.

Cette responsabilité qu’il nous faut exercer, le fragile équilibre entre blocage et laisser-faire, nous les retrouvions également en débat lors de notre dernière conférence, ou confiance et sécurité ont été interrogés sous de multiples facettes, dans différents contextes, et ou la dimension bigdata amplifiait encore les enjeux. Une transcription est en cours, afin de permettre à un public plus large d’accéder à ces débats, ces réflexions, ces pistes que nous cherchons ensemble. Une courte vidéo sera également visible, comme pour bien d’autres événement ces dernières années.

A -lire également, les actes du colloque du 25 octobre 2012 sur l’identité numérique, ou ce travail de transcription a été remarquablement réalisé par Guy de Felcourt.

Bonne lecture, à bientôt lors d’un de nos prochains événements, et n’oubliez pas que nous ne pouvons exister que grâce à votre soutien, adhérez !

Philippe Recouppé, Président de Forum ATENA


Le chiffre du mois : 1800

C’est le nombre de milliards de gigaoctets que représente le volume de données générées en 2011. Il sera cinquante fois supérieur en 2020.


Qu’est-ce que le Big data ?

Le Big Data est caractérisé par une accumulation de tous les types de données atteignant un volume et un niveau de granularité difficiles à exploiter.
La granularité étant l’état d’un corps granulaire, c’est-à-dire qui se compose de petits grains ou granules.
Le Big Data est composé de données structurées et non structurées.
Le Big Data provient d’une multitude de sources.
Le Big Data contient des données trop volumineuses, trop fines, trop non structurées pour être susceptibles d’être analysées et exploitées.

Pour s’impliquer en tant qu’entreprise en termes de Big Data, il faut appréhender les notions suivantes : solutions, méthodes, outils, qualité des données, et savoir les mettre en perspectives.

Le Big Data lance un défi, en termes de stratégie de l’information.
Pour l’appréhender, il faut savoir construire un nouveau type de raisonnement.
Le raisonnement actuel est axé sur le questionnement et le schéma intellectuel suivant :

  • Quelles données dois-je conserver ? Quelles données puis-je me permettre de négliger ?
  • Quels états des données, quels reportings dois-je lancer ?
  • Echantillonner – entreposer – extrapoler – élaborer des scénarios – imaginer des variables pertinentes.

Le raisonnement avec « l’état d’esprit Big Data » serait plutôt le suivant :

  • Tout entreposer et explorer plus tard
  • Etablir des hypothèses et expérimenter
  • Ne plus échantillonner les données

Quant à l’attitude de l’entreprise vis-à-vis de la qualité ou de la non qualité des données, on remarque un décalage encore important entre l’intention et l’exécution.

Les dirigeants d’entreprises ouverts à ce type de réflexion sentent que la non qualité des données et leur absence de gouvernance constituent des freins au développement stratégique et économique.
– Et pourtant un faible pourcentage d’entreprises a mis en place une stratégie formalisée de gestion de leurs données, qui est en outre approuvée et encouragée par le top management.
– Très peu d’entreprises calculent la valeur financière de leurs données.
– La quasi-totalité des entreprises ne définissent pas une stratégie de gouvernance des données.
– Quand cette stratégie existe, elle est confiée à la DSI, Direction des Systèmes d’Informations.
– En terme de stratégie de gestion des données les entreprises estiment que les exigences réglementaires constituent l’élément le plus important.
– En fait mon impression est que le top management n’accorde pas l’importance qu’il faudrait à la qualité des données.

Cet avis est inspiré par mon expérience professionnelle et mes contacts auprès d’interlocuteurs des groupes du Cac 40.
On peut imaginer le manque d’intérêt pour le sujet, la timidité dans l’action, la faible implication des dirigeants des fédérations professionnelles, des Entreprises de taille intermédiaires, des PME/PMI. Bien qu’il y ait toujours des contre-exemples. 

Et pourtant …

Que permet le Big Data ?

Une réalisation formidable : analyser une quantité et une variété de données en continu
Cette stratégie rendue possible par la performance informatique améliore considérablement la visibilité des relations inter-acteurs dans les circuits de la production et de la distribution.
Par exemple, nous savons que l’internaute laisse des traces sur le web, grâce au Big Data, il devient possible de capter ces données et de les raffiner. Il devient donc plus aisé de mettre en perspectives les données de cet internaute, de les probabiliser puis de lui adresser le bon message au bon moment. 

Il y a tant et tant à dire au sujet du Big Data.
Un sujet aussi passionnant mérite de beaucoup plus amples développements.
J’y reviendrai dans les colonnes de mon atelier.

Christophe Dubois-Damien, Président de l’Atelier Intelligence économique Forum ATENA
Manager de transition – Très ouvert à vos idées : dub-dam1 (a) noos.fr


La révolution Big Data et la cybersécurité

Quand les données occupent un trop grand volume pour pouvoir être contenues sur les serveurs d’une organisation, quand les formats des enregistrements, textes mais aussi sons et vidéos, sont trop divers et trop peu structurés pour être gérés dans une base de donnée relationnelle, quand les informations doivent être mises en perspective et corrélées trop rapidement pour être traitées par les outils disponibles sur étagère, pour produire une Information pertinente, c’est là qu’interviennent les technologies du Big Data.
 
Le Big Data est apparu récemment suite au big bang numérique lié à l’explosion des réseaux sociaux. Il est porté par la vague des smartphones et des tablettes et se poursuit avec l’Open Data et l’Internet des Objets. Aujourd’hui, l’humanité produit plus de données en deux jours qu’elle n’en a produites dans toute son histoire, depuis ses débuts jusqu’en 2003. En 2011, le volume de données générées s’est élevé à 1800 milliards de gigaoctets. Dans huit ans il devrait être cinquante fois supérieur.
 
Ces données brutes et complexes représentent une matière première naturelle de grande valeur pour qui sait l’exploiter. Une donnée doit conserver une vie propre et être indépendante des traitements qu’on peut lui faire subir. Plus on croise une donnée avec d’autres données les plus diverses, plus cette donnée prend de la valeur. Cette valeur et les outils pour la traiter n’apparaissent pas encore clairement aujourd’hui, mais déjà les recueils et l’exploitation des données ont des retombées dans bien des domaines et en particulier dans ceux de la médecine, dans le secteur de l’énergie (Smart Grids), des transports (adaptation des horaires, fluidification du trafic routier) … et dans la cybersécurité.
 
La marché, dans lequel s’introduisent aujourd’hui des sociétés comme Google, Facebook, Amazon, SAP, commence et requiert des compétences rares, en particulier celles d’architectes systèmes, analystes de la sémantique des données, spécialistes du design pour la présentation des résultats. Un nouveau métier, celui du "Data Scientist", pour lequel on trouve trop peu d’experts aujourd’hui, émerge.
 
Le Big Data peut être définit par la règle des quatre "V" : Volumétrie, Vitesse, Variété et Valeur.
 
Nous avons déjà évoqué le déluge des données qui affluent et dont le Volume résultant rend inopérant l’utilisation des outils classiques. Il en est de même pour la Vitesse (ou Vélocité) quand il est nécessaire d’acquérir et de traiter en temps réel ces gigantesques flux de données. La Variété des données vient du fait qu’on ne doit pas écarter de l’ensemble des données, des formats jusqu’ici peu traités par les moteurs de recherche comme le son et la vidéo. Une information adéquate peut provenir de la corrélation non seulement des données venant des informations textes mais aussi d’autres formats, et sans doute de certains non encore exploités. La Valeur des informations dépend bien sûr de leur pertinence mais aussi de la pertinence des autres informations avec lesquelles on les croise.
 
Dans le domaine de la cybersécurité, le Big Data occupe une place qui peut s’avérer incontournable, dans un futur pas très lointain, si on est obligé de traiter, de manière exhaustive, tous les flux d’évènements de sécurité. Si tous les évènements remontés vers un SOC (Security Operations Center) : incidents, non-conformités à la politique de sécurité de l’organisation, vulnérabilités non couvertes, et provenant de sources multiples, atteignent un volume trop important pour être traité en temps réel, et si les traitements de ces évènements stockés doivent se faire très rapidement en allant piocher dans d’énormes quantités d’autres évènements, les technologies du Big Data, comme par exemple dès aujourd’hui celles des logiciels libres Hadoop, prennent tout leur sens. 
 
Pour réussir un projet SIEM (Security Information and Event Management), une démarche "descendante", demandée par la direction et orientée métiers et de plus s’inscrivant dans un périmètre limité, est incontournable. Mais se protéger de certaines menaces, en particulier des APT (Advanced Persistent Threats), en se basant seulement sur des variations anormales de flux sortant ou sur des adresses de destination jugées "anormales" peut ne pas suffire. C’est là que l’approche "ascendante", dans laquelle tout évènement remontant du terrain est pris en considération et peut être traité, en temps réel ou en différé, rejoint l’approche "descendante" pour une plus grande efficacité de traitement et une plus grande sécurité des utilisateurs.
 
Les APT ne peuvent parfois être décelées que par l’analyse de signaux faibles et d’évènements lents, sur une longue période. Ceux-ci peuvent ne pas sembler représenter une valeur quelconque au moment où ils sont remontés, mais corrélés à d’autres évènements lents et à d’autres signaux faibles, ils peuvent se concrétiser en signaux forts et révéler une attaque qui sans cela pourrait passer inaperçue. Il convient donc de conserver toutes les données recueillies. Bien sûr cela représente un volume de stockage colossal, requiert une vitesse de traitement et une puissance de calcul importantes, et les données peuvent se présenter sous de multiples formats. C’est là où le Big Data apporte une solution. 
 
Sans verser dans l’utopie, avec le Big Data, nous sommes devant quelque chose d’énorme. L’humanité connait une époque de rupture aussi fondamentale que la rupture qui s’est produite il y a 25 siècles avec l’invention de la monnaie et aussi importante que fut le passage à l’écriture alphabétique puis l’invention de l’imprimerie. Nous allons passer de l’ère de l’informaticien à celle du statisticien et du designer. Il convient d’anticiper cette révolution pour prendre de l’avance sur une technologie qui s’avère incontournable.

Gérard Peliks, Président de l’Atelier Sécurité Forum ATENA

Pour en savoir plus, allez sur la page consacrée à un évènement Big Data dans le cadre des rencontres de Télécom ParisTech en décembre 2012 : http://www.telecom-paristech.fr/formation-continue/les-entretiens-de-tel…

Telecom Paristech : le 1er Mastère Spécialisé Big Data en France

Telecom Paristech ouvre en octobre 2013 le premier Mastère Spécialisé en France sur le Big Data. Cette formation permet d’accéder au métier de Data scientist.

Ce métier fait partie des métiers émergents à fort potentiel de développement. La demande relative s’amplifie sur le marché du travail, et selon l’étude de MacKinsey, de l’ordre de 150 00 data scientists seront recrutés d’ici 2018 .

Le MS Big Data fournit une double compétence, d’architecte des systèmes destinés à faire circuler les données complexes et de spécialiste de l’extraction et de l’analyse de ces données complexes à forte valeur ajoutée.

L’expertise de Télécom ParisTech est pluridisciplinaire. Ses quatre départements couvrent le large spectre des verrous liés à Big Data depuis les sciences et technologies de l’information et de la communication jusqu’aux sciences humaines économiques et sociales.
Plus spécifiquement, le département Informatique et Réseaux s’attelle aux défis posés par l’évaluation des performances et le passage à l’échelle « scalability » d’algorithmes de gestion, de visualisation (y compris les graphes) et de recherche de données (Web 2.0). Le volume astronomique de données se mesure désormais en zeta-octets (1021), en relation directe avec l’explosion des échanges de vidéos sur les réseaux sociaux.
Le département Traitement du Signal et des Images concentre les compétences dans le domaine du « Machine Learning ». Ce dernier vise à soulager les humains face à un « déluge de données ». Il confère une forme d’autonomie à des machines dans certaines tâches de prédiction et de décision grâce à un apprentissage statistique.
Le département Communications Numériques et Électronique s’investit dans des travaux sur le stockage et le calcul distribués dans les réseaux.
Enfin, les économistes, juristes et sociologues du département Sciences Économiques et Sociales se focalisent sur les questions multiples liées à la « monétarisation de Big Data » comme les nouveaux modèles économiques, la protection de données personnelles, la sociologie des identités numériques et l’analyse des réseaux socio-numériques.

Parmi les 60 start-up incubées par Télécom ParisTech entre 2008 et 2012, une quinzaine exploite les potentialités de Big Data. En outre, 6 des 50 brevets déposés par des chercheurs de Télécom ParisTech entre 2009 et 2012 lèvent des verrous inhérents au déluge données numériques dans tous les pans de la société.

La pluridisciplinarité qui sous-tend les activités de formation, de recherche et d’innovation permet à Télécom ParisTech de contribuer, de façon significative, à tous les maillons de l’écosystème Big Data.

Pour toute information complémentaire concernant le MS Big Data : http://www.telecom-paristech.fr/formation-continue/masteres-specialises/big-data.html
Contact : masteres(a)telecom-paristech.fr


Mythes et légendes sur le Big Data

Traditionnellement dans cette newsletter de l’association Forum ATENA, nous insérons un des mythes traités dans le tome 1 ou le tome 2 de notre livre collectif "Mythes et légendes des TIC", auquel vous pouvez bien sûr, vous aussi, contribuer. Le thème général de cette newsletter étant le "Big Data", voici le premier des 5 Mythes et légendes du Big Data, que Ivan de Lastours, ARCSiste, a traité dans le tome 2, avec aussi la conclusion de son chapitre.
Pour être acteur, et pas seulement lecteur, demandez-moi par e-mail comment procéder : gerard.peliks (at) cassidian.com
 
 
Mythe no 1 : Le Big Data, c’est le Cloud Computing 2.0
 
Impossible que vous n’ayez pas entendu prononcer ce terme depuis moins de deux semaines. Tout le monde en parle, même votre voisine de palier, et c’est de plus en plus la vraie tarte à la crème des recruteurs…fini le Cloud, place au Big Data !
 
Mais qu’est-ce donc ? « Le Big Data est l’ensemble des datas qui dépassent les capacités de traitement des systèmes conventionnels de bases de données. La donnée est trop volumineuse, change trop vite ou ne peut être stockée dans un schéma classique de base de données. Pour exploiter cette data, une nouvelle approche doit être utilisée : le Big Data. » Ed Dumbill de la société O’reilly
 
Quelle est son origine ? Les géants du web (Google, Amazon et Facebook, Linkedin, ebay) ont fortement contribué à l’émergence du Big Data avec le lancement d’algorithmes (MapReduce), de framework (Hadoop) et d’outils spécifiques (outils de requêtage Hive développé par Facebook par exemple) pour utiliser celui-ci.
 
Mais concrètement  qu’est-ce que c’est ? Du hardware ? Du software ? Les deux mon capitaine…
Si certains le définissent comme les 4 « V » Volumétrie, Vitesse, Variété et Valeur des données ; le « Big Data » représente encore plus. 
Il s’agit d’un écosystème beaucoup plus complet qui met en jeu les éléments suivants:
  • De la data…
    • Structurée/non structurée
    • Générée par l’humain/générée par la machine
    • Statique/dynamique
  • Une plateforme dédiée (ou louée)
    • Architecture, infrastructure et matériel informatique (stockage, accès, réseau)
    • Frameworks et outils logiciels (Hadoop, Cloudera…)
    • Ressources humaines (ingénieurs, « data scientists »)
  • Des procédures d’analyses des données
    • Algorithme, automatisation
    • Requête SQL (Structured Query Language, langage informatique effectuant des opérations sur des bases de données relationnelles)
    • Business Intelligence
  • Un usage « business » efficace
    • Remontée d’informations pertinentes
    • Suivi des "metrics"
    • Prise de décision
Le Big Data n’est donc pas seulement le stockage et l’analyse d’octets. Il s’agit d’exploiter et de valoriser les données de l’institution/l’entreprise dans le cadre de son exercice.
 
Conclusion :

Le Big Data existe bel bien, ce n’est pas un mythe et il a un énorme potentiel. Inutile de s’emballer, prudence et expertise sont les maîtres-mots. La technique est là et les coûts restent raisonnables, tout repose donc sur le cas d’usage. L’étude précise du cas d’usage est nécessaire et c’est là-dessus qu’une entreprise/institution doit être ambitieuse et prendre des risques. Il ne sert à rien de reprendre des cas d’usage business intelligence sur base de données relationnelles avec plus de données, il faut réinventer l’exploitation des données de l’institution/entreprise, aller en chercher ailleurs …

La donnée est la clé, mais attention sans traitement, elle ne devient pas information et sans interprétation elle ne devient pas savoir ou aide à la décision ! La révolution Big Data n’a pas eu lieu, elle se prépare.

Ivan de Lastours, ARCSI, Direction de l’innovation de l’Institut Mines-Télécom

 

 

Tenue du Colloque Forum ATENA sur la confiance

Christophe Dubois-Damien, Président de l’atelier intelligence économique de Forum ATENA et organisateur nous informe de la tenue du colloque proposé par Forum ATENA le 16 janvier 2013 après-midi à Telecom SudParis sur le thème : « Terre de confiance, Taire la confiance, Tiers de confiance » « Quelles confiances construire dans l’économie numérique ».

« Du fait de la date de sortie imminente de la Newsletter, j’ai rédigé, faute de temps, non pas un compte rendu du colloque, à proprement parler, mais un commentaire très sommaire.
Ma proposition de rédiger une synthèse de l’événement, qui a été actée dans le compte rendu du conseil d’administration de Forum ATENA du 8 janvier 2013, est bien sûr toujours valable.

Il est également prévu un reportage sous forme d’un clip vidéo court, qui figurera sur le site Forum ATENA dans les pages de mon atelier. J’envisage en outre, du fait de l’importance stratégique du sujet et suite à quelques échanges avec des participants, de réaliser un livre blanc sur le sujet, toujours dans le cadre de l’atelier Intelligence économique de Forum ATENA. Pour ce faire, je reprendrai contacts avec les intervenants afin d’avoir leur avis et accord sur le contenu.

Le colloque s’est déroulé dans d’excellentes conditions face à un public très intéressé et très réactif. Le faible nombre d’étudiants de Télécom SudParis inscrit est toutefois à déplorer. 

Du fait d’un empêchement professionnel de toute dernière minute, Bernard Benhamou n’a pu participer au colloque à la première table ronde, où il état prévu. Je le regrette vivement. Toutefois, il pourra faire part de ses idées sur le sujet pour l’élaboration du livre blanc prévu.

Facebook était aux abonnés absents. J’ai essayé de joindre sans succès à plusieurs reprises par mail et sur répondeur téléphonique Anne-Sophie Bordry en cours d’organisation du colloque. Elle m’avait pourtant donné au paravent son accord et même son souhait de participer. »

> Retrouver le programme du Colloque


Des nouvelles de l’atelier d’écriture de Forum ATENA

Dans une précédente newsletter, je vous avais annoncé la création d’une nouvelle collection de livres blancs Professeur ATENA , à vocation de vulgarisation sur divers sujets.

Le professeur ATENA vient de publier ses deux premier livres blancs, l’un sur les réseaux télécom, l’autre sur la radio. Vous pouvez les télécharger depuis la rubrique Briques de base à la page des téléchargements de nos livres blancs.

Et n’oubliez pas que Forum ATENA vous invite à diffuser vos propres livres blancs dans cette mêmùe rubrique ! Envoyez-nous vos texte en cliquant sur l’onglet Livres puis Soumettez votre texte ou tout simplement cliquez ici.

Michèle Germain, Atelier d’écriture de Forum ATENA


Forum ATENA : un acteur qui compte dans le paysage numérique français

« Fleur Pellerin agacée par le nombre excessif d’organisations du numérique » titre Didier Barathon dans un article du 16 janvier publié sur le site reseaux-telecoms.net (http://www.reseaux-telecoms.net/actualites/lire-fleur-pellerin-agacee-par-le-nombre-excessif-d-organisations-du-numerique-25526-page-2.html) et parallèlement sur Distributique (http://www.distributique.com/actualites/lire-fleur-pellerin-tres-agacee-par-le-trop-grand-nombre-d-organisations-du-numerique-19618.html)

Au-delà de l’analyse du journaliste concernant les attentes de la ministre, l’article souligne la place de notre association Forum ATENA et de fait reconnait le travail de son Président Philippe Recouppé et de tout le conseil d’administration, en relevant ainsi notre rôle d’animateur référent du marché « Les télécoms ne sont pas mieux servies entre la FFT, Atena, ou l’Avicca »

Au-delà des nombreuses conférences qui rythme l’année, des publications l’Association Forum ATENA  s’est révélée en particulier au moment de la présidentielle au côtés de 12 autres associations pour une Union Numérique. Acsel (vente en ligne), Afdel (éditeurs de logiciels), Apeca (démat), Crip (responsable infrastructure et production), Eurocloud (éditeurs du cloud), Fevad (e-commerce),FFT (opérateurs de télécoms), Forum ATENA (Monde du numérique), Renaissance Numérique (think tank), Sfib (constructeurs),Snjv (éditeurs de jeux en ligne), Syntec Numérique, Systematic (pôle de compétitivité).

Animer, prendre des initiatives, débattre est au cœur des valeurs du Forum ATENA, venez les partager !

Jean-Denis Garo


Forum Atena s’associe à l’initiative : Feuille de route pour une identité numérique nationale

Forum Atena a rejoint d’autres associations du numériques et des acteurs privés dans la promotion d’une initiative portée par l’ACN (Association pour la Confiance Numérique) en faveur de la création d’un écosystème numérique basé sur des identités numériques nationales. Une synthèse de cette initiative consultable sur le site de Forum Atena a été remise par l’ACN au gouvernement à la fin de l’année 2012.

Guy de Felcourt responsable de l’atelier identité numérique en explique les raisons :
«  Pour que les citoyens puissent bénéficier pleinement des avantages du numérique, comme par exemple résilier un service en ligne (et non plus via une LRAR postale), utiliser de multiples comptes Internet de manière simple,  ou tout simplement exercer se prononcer facilement sur des questions municipales, régionales ou nationale, une identité numérique est nécessaire. 

Cela facilitera aussi la modernisation des entreprises et de l’administration et enfin et surtout cela contribuera à créer de la valeur et à éliminer les tâches inutiles.
C’est donc un apport direct de croissance économique intelligente pour notre pays qui serait le bienvenu. C’est pour cela que nous considérons ce type d’initiative comme positive pour arriver à progressivement fédérer la Société française (consommateurs, acteurs économiques, administrations) autour d’un sujet si important pour notre économie et la modernisation de la vie citoyenne ».

Quelques acteurs et associations qui ont rejoint l’initiative pour une feuille de route de l’identité numérique en France. 

Guy de Felcourt, Président de l’atelier Identité Numérique Forum ATENA


Publication des actes du colloque sur « l’identité numérique au cœur des stratégies économiques »

Attendus par beaucoup d’entre vous, les actes du grand colloque Forum Atena –Medef du 25 Octobre 2012 sont enfin parus.

Vous pouvez les consulter et les télécharger directement sur le site de Forum Atena.

Vous trouverez également sur notre site les photos de l’évènement et les principales diapositives présentées au cours des tables rondes.

Guy de Felcourt, Président de l’atelier Identité Numérique Forum ATENA


L’usage des nouvelles technologies de communication est-il une réalité en entreprise ?

Résultats du sondage « L’utopie technologique à l’épreuve des usages »

Aastra, a réalisé un sondage auprès de 1550 professionnels du secteur IT, lors de son Aastra Open Tour 2012 auquel été associé Forum ATENA entre autres. Aastra a recueilli l’opinion de ses invités sur les grandes questions technologiques.

Parmi les principaux résultats de l’étude :

  • Les téléphones fixes ou mobiles toujours privilégiés Avec la multiplication des outils alternatifs de communication comme le SMS, l’email ou la messagerie instantanée, on aurait pu penser que l’usage du téléphone serait délaissé au profit de ces derniers. Or, 49% des répondants considèrent que leur utilisation du téléphone reste inchangée. Ils sont également 24% à estimer qu’elle s’est même accrue. Les consultants sont les plus ‘accros’, avec 36% affirmant utiliser davantage leurs terminaux. Parallèlement et a contrario des perspectives de « la mort prochaine de l’email » face aux réseaux sociaux d’entreprise, 45% des sondés pensent que l’usage de l’email restera indispensable. è
  • La téléphonie en mode Cloud, facteur d’adaptabilité Le Cloud est sans conteste une des grandes tendances du marché. Avec la généralisation de la téléphonie IP et la virtualisation des applicatifs de communication d’entreprise, la téléphonie est aujourd’hui prête pour des architectures en mode SaaS. 56% des votants estiment que la téléphonie en mode Cloud représentera d’ici 5 ans 10% à 30% du marché voire plus de 30% pour 24% des personnes interrogées.
  • L’usage plébiscité des tablettes intégrant des applications professionnelles Le succès grandissant des tablettes dans la sphère privée suggère aux professionnels de nouvelles façons de travailler. En effet, 69% des répondants envisagent l’utilisation des tablettes dans le cadre de leur fonction. De plus, 48% d’entre eux l’associent à la mise à disposition d’applications professionnelles de type vidéoconférence. Le fait que la vidéo fasse partie des applicatifs cités confirme que celle-ci dépasse aujourd’hui les murs des salles de vidéoconférence dédiées, d’autant que 51% pensent qu’elle doit être utilisée pour les réunions virtuelles et les appels simples entre collaborateurs.
  • Le bureau virtuel « nomade » Une écrasante majorité des votants (82%) définit le bureau virtuel comme la capacité à s’affranchir totalement des contraintes de lieu et d’équipement pour accéder à son environnement de travail. Il doit aujourd’hui être en mesure d’offrir au collaborateur l’accès à ses annuaires professionnels, à ses messages (vocaux ou écrits), ou encore aux fonctions téléphoniques professionnelles (transfert, renvoi, conférence) sur tout type de terminal. A noter que 10% des personnes sondées conservent une conception ‘classique’ du bureau virtuel, dans laquelle le PC portable professionnel et les applicatifs qu’il embarque sont les clés d’accès à l’intelligence de l’entreprise. Dans de telles approches, la question de la sécurisation des contenus et de leur gestion par une plateforme centralisée redonne toute sa place (et sa valeur) aux serveurs de communication de l’entreprise.

Cette étude permet de confirmer des tendances, mais également de déceler certaines résistances des utilisateurs face aux nouveaux usages. Bien que le professionnel soit abreuvé d’informations, inconsciemment ou non, il développe une appétence accrue pour ces nouvelles technologies et l’usage, les fonctionnalités, le confort qu’elles proposent. Au final, cette mutation technologique implique des modifications comportementales, où il faut concilier entre le temps professionnel (productivité, efficacité) et le temps personnel (disponibilité, organisation de son temps). Ces tendances, qui ne peuvent qu’être bénéfiques aux deux parties, seront-elles confirmées dans les prochaines années ?

Téléchargez ce nouvel handbook sur : http://support.aastra.fr/utopie/

Méthodologie : Ce sondage a été réalisé en mars et avril 2012 auprès d’utilisateurs, de décideurs IT et Télécoms présents sur les 8 étapes de l’Aastra Open Tour. Il a totalisé 1550 réponses sur un échantillon d’entreprises françaises du secteur privé et public de toutes tailles (TPE, PME, GE, et TGE), de consultants et d’intégrateurs – distributeurs.


Louis Pouzin, co-créateur du Net, ne croit pas Google

En fait. Le 5 décembre, le Français Louis Pouzin – dont les travaux sur le datagramme ont inspiré en mars 1973 l’Américain Vinton Cerf Français pour co-inventer Internet – ne croit pas au bien-fondé du lobbying de Google dans sa campagne pour un Internet libre et ouvert. Il explique pourquoi à EM@.

En clair. « Depuis mai-juin 2012, les Etats-Unis ont fomenté une campagne anti-UIT qui atteint son maximum au cours de cette réunion [des 3 au 14 décembre à Dubai, ndlr]. Ensuite la baudruche va se dégonfler, et ils diront partout qu’ils ont sauvé Internet. Google est le plus bruyant agitateur, et a d’évidentes raisons pour cela. Ils ont besoin de dorer leur blason en prenant le rôle de défenseur d’un Internet libre soi-disant menacé de censure par la révision des RTI [Règlement des télécommunications internationales] », nous éclaire Louis Pouzin. Il dénonce même « le contenu fallacieux du tocsin Google », dont Vinton Cerf est l’un des représentants. Les deux hommes se connaissent depuis 1973 et pour cause (1).

Mais cela n’empêche pas Louis Pouzin de garder sa liberté de penser : « Google est le champion de l’arrogance et de la dés- information. (…) Actuellement, il n’y a pas tant de différence entre l’attitude de Google et celle des Etats-Unis. La position dominante de Google sur le marché de la publicité en ligne n’est en aucun cas une garantie de qualité et de neutralité. [Le géant du Net] confond ses intérêts particuliers avec les grands idéaux comme la libre information pour tous », met-il en garde dans son commentaire déposé le 2 décembre sur le blog de l’UIT (2). Et dans un forum sur la gouvernance d’Internet, il rap- pelle le 4 décembre que, pendant ce temps-là, Google est «empêtré dans des procédures judiciaires: évasion fiscale, refus de payer des amendes, piratage d’information ou collec- te illégale de données personnelles »…

De plus, Vinton Cerf était membre de l’Icann (3), dont il a été président de novembre 2000 à novembre 2007. L’organisation américaine est aux yeux de Louis Pouzin et de nombreux pays le bras armé des Etats-Unis qui ne signeront pas le nouveau RTI pour garder le contrôle de l’Internet. « A l’UIT, il n’y a pas de vote gagnant/perdant, il n’y a que du consensus à base de compromis et de ‘’pour étude ultérieure’’. Ceci élimine les pro- positions excessives (4), mais n’a guère d’effet sur les obstinés du statu quo, comme la gouvernance unilatérale de l’Internet par les USA », nous rappelle-t-il. Pire : « Les plus dangereuses menaces sur la liberté d’information viennent des Etats-Unis, avec des projets de lois comme SOPA, PIPA, CISPA négociées secrètement par des lobbies internationaux (5) et ceux qui ont échoué avec l’ACTA », prévient Louis Pouzin. @

Notes : (1) – Lire l’interview de Louis Pouzin dans EM@, n°59 p.1à2. (2) – http://lc.cx/LP (3) – Internet Corporation For Assigned Names and Numbers(Icann). (4) – Comme les positions excessives de la Chine ou de la Russie. (5) – TPP, CETA, CleanIT, … 

Charles de Laubier, Edition Multimédi@ (économie numérique et nouveaux médias) – http://www.editionmultimedia.com

 

 

Agenda

Lundi 18 février
Medef Ile-de-France
L’acculturation sur les risques numériques


 

 

Retrouvez nos publications sur la boutique Lulu :   

  

 brancheolivier Pour soutenir Forum ATENA brancheolivier