Newsletter n°53 – octobre 2012

 

Edito

Le chiffre du mois

Dossier du mois : Big Data
A la découverte du Big Data
Quelques mots sommaires sur la Big Data et l’open Data
Big Data…
La vérité sur le big data aujourd’hui et demain

Ateliers :
Atelier d'Ecriture
Atelier Economie Numérique : Digital Trust

Actualités :
22 novembre – La chaîne de l'innovation : qui serez-vous ?
L’Autorité de la concurrence tranche le différent Cogent / Orange, UFC Que choisir met les pieds dans le plat dans le conflit Free / YouTube, et saisi l’ARCEP et la DGCCRF : Un pas vers une meilleure régulation de la NetNeutralité ?
UIT : le débat sur la neutralité du Net se mondialise
Vendre aux opérateurs télécoms d'Europe du Sud-Est
Découvrez les métiers du numérique
Des sites ministériels perdus dans les nuages ?
Lettre ouverte à Numergy et Cloudwatt

 

Agenda

     

Comment construire l'économie numérique de demain ?

Je voudrais aujourd'hui mettre en avant deux points forts : 
– la construction d'un réseau très haut débit, essentiel au développement de l'économie numérique 
– le développement d'un espace de confiance, dont une des bases est l'identité numérique à usage des citoyens et des entreprises. 
Ce nécessaire développement de Id Num était le thème de la conférence organisée par Forum ATENA et avec le MEDEF, qui a bien mis en avant la nécessité d'avancer vite aujourd'hui. La CEE a engagé un processus de validation, ouvert, interopérable. La clarté, la lisibilité de la démarche apparaissent clairement, tout en prenant en compte la diversité des réalités en Europe. 

Pour ce qui est de la construction d'un réseau très haut débit à l'échelle de l'Europe, les choses ne se présentent pas à l'identique, les progrès lents, les conditions discutables. Le régulateur de ce marché, l'ARCEP, a construit année après année un règlement mouvant et d'une complexité toute française. Un exemple : la définition pour le déploiement du FTTH des zones très dense, moyennement dense et peu dense. L’ARCEP a sélectionné 150 communes en France, déclarées zone dense, mais dont depuis, pour certaines d'entre elles, tout ou partie de leur territoire a depuis été déclaré zone non dense. Ça ne s'invente pas !
Et pourtant, dans la presse spécialisée, le sujet de la séparation fonctionnelle*, sujet tabou en France (mais pas en Europe) semble rebondir dans la polémique. Selon le président de l'ARCEP, "l'idée d'un opérateur national "France Fibre" n'est pas la manifestation d'une soudaine créativité (…) mais d'une tendance à complexifier les choix". D'où mon rappel sur les conditions du déploiement du FTTH en France, on mesure mieux l'expertise de notre régulateur en matière complexité. 

… l’Autorité (de la concurrence) a noté que le régulateur sectoriel disposerait prochainement de la faculté d'imposer à l'opérateur historique une séparation fonctionnelle entre ses activités de monopole et concurrentielles. Tout en soulignant qu’il était encore prématuré de se prononcer sur l’opportunité de recourir à un tel instrument, l'Autorité (de la concurrence) a invité l'Arcep à entamer les travaux préalables à son utilisation éventuelle. 
Autorité de la concurrence, rapport annuel 2011 / Synthèse.

Je crois qu'il faudrait pouvoir reprendre le fil d'un débat serein, le débat y sert à mieux cerner les enjeux, le refuser ne sert à rien.
* Séparation fonctionnelle : séparation de l'activité d'accès fixe, qui serait porté par un acteur unique, chargé de revendre l'infrastructure aux autres opérateurs.

Philippe Recouppé, Président de Forum ATENA


Le chiffre du mois : 27

En milliards de dollars, c'est ce que représentent les dépenses mondiales IT liées au Big Data. Selon Gartner, celles-ci vont continuer leur croissance dans les prochaines années, et pourraient atteindre 55 milliards de dollars en 2016.

 


BigData

A la découverte du Big Data

Difficile aujourd’hui de discuter avec un acteur du monde de l’informatique et d’échapper au mot big-data, buzz word par excellence. Pourtant, ce concept, protéiforme et dépendant d’un contexte, fait l’objet de relativement peu de présentations de cas concrets. A travers l’exemple de notre projet, nous pouvons essayer de fournir quelques pistes pour éclairer le sujet : pourquoi utiliser le big data ? Quels outils sont disponibles ? Est-ce magique ?

C’est en s’attaquant à la publicité en ligne, et en lançant le projet AlephD (http://www.alephd.com) que nous avons rencontré une véritable rupture par rapport à d’autres projets de datamining, liée au volume de données. Nous développons un service pour les éditeurs de sites web afin d’optimiser leur publicité en temps-réel.
Une part croissante des publicités sur internet est attribuée via un mécanisme appelé RealTime-Bidding (RTB) où les espaces publicitaires sont mis aux enchères pendant le chargement d’une page. L’enchère se déroule donc en quelques 100ms. Le RTB permet aux éditeurs de vendre une publicité différenciée par utilisateur et il permet aux annonceurs de mieux les cibler afin de proposer des publicités pertinentes et d’éviter de les importuner par de la publicité générique.
AlephD propose aux éditeurs de contenus d’optimiser la mise aux enchères de chaque espace publicitaire (prix de réserve, affichage en cas d’échec, etc.), en prenant en compte le contexte de l’affichage (utilisateur, page, heure, etc.). Chaque publicité étant vendue à un prix de l’ordre de 0,1 cts, il est important de traiter un très grand nombre d’affichages.
Nous travaillons aujourd’hui avec plusieurs partenaires en Europe, pour atteindre environ 500M d’impressions par mois d’ici à la fin de l’année, soit 200 impressions/sec. Rapidement, nous devrons être à même de traiter plusieurs milliards d’impressions par mois.
Or, il est nécessaire d’enregistrer les paramètres de chaque impression pour calibrer des modèles statistiques, permettant d’optimiser ensuite les nouvelles impressions.

Dans ce contexte le volume de données devient trop important pour être contenu dans une base de données classique (comme SQL). Par ailleurs, les garanties offertes par SQL (atomicité des transactions, cohérence de la base, indépendance et “durabilité” des transactions), qui sont gourmandes en temps, ne sont plus toutes nécessaires. Perdre quelques transactions n’est pas problématique. Ce type de besoin, qu’on retrouve dans de nombreux services web, a donné naissance à la grande famille des bases de données No-SQL (Not Only SQL), qui relâchent telle ou telle contrainte.
Une des solutions est de stocker les données sur un cluster de machines coordonnées par une infrastructure Hadoop qui, au dépend de certaines propriétés, permet d’organiser et de traiter des données à très grande échelle. Hadoop est une initiative open-source de la fondation Apache, qui s’appuie sur un système de fichiers distribué, HDFS. De nombreux outils sont disponibles sur cette base : bases de données ou entrepôts de données (HBase, Hive…), datamining (Mahout), calcul distribué (Hadoop Map/Reduce) etc. Nous utilisons pour notre part la base de données HBase.

Une fois ces données distribuées, leur traitement statistique peut s’appuyer sur les différents algorithmes de machine learning distribués, mais le développement de méthodes adaptés reste un défi. En effet, la distribution et la taille des données implique que les temps de recherche, et d’insertion dans une moindre mesure, sont longs : alors qu’une requête sur une petite base de données SQL peut se faire en moins d’une milliseconde, une requête sur un cluster d’une dizaine de machines, sur des Téra octets, prend plusieurs minutes. L’attention portée à la complexité des algorithmes et à l’architecture logicielle est donc essentielle.

A partir de l’analyse de ces données, un modèle statistique est calibré, permettant de réagir en temps réel à une enchère. Ce modèle doit être optimisé pour pouvoir alors traiter des requêtes en quelques millisecondes, contrainte temporelle de cette activité temps-réel. Un tel service ne peut donc qu’être construit en associant et en faisant communiquer d’une part un traitement “lourd” de big-data, et d’autre part un outil “rapide” de prise de décision.

La forte croissance du volume de données produit et la nécessité de pouvoir traiter ces données dans des temps contraints pose ainsi de nombreux défis à l’interface de la statistique, de l’informatique et des mathématiques. Ces nouveaux défis sont partout derrière les services web et les réseaux sociaux, mais de nombreux autres secteurs se trouvent confrontés à ces problèmes : gestion intelligente de l’énergie, prévention de pannes dans l’industrie, santé… Une époque particulièrement excitante commence donc pour les profils statisticiens/ matheux/informaticiens, leurs compétences seront sans doute très recherchées. Le RTB (la publicité en temps réel sur Internet) est d’ailleurs un excellent point d’entrée dans l’univers big-data, car il est à la fois en très forte croissance (+100% de croissance par ans anticipé en moyenne sur 2010-2015 selon l’IDC et concentre des problématiques de machinelearning et d’infrastructures informatiques passionnantes.

Nicolas Grislain (ENS, ENSAE), Vincent Lepage (X, Telecom), cofondateurs de Cinequant et d’AlephD.


Quelques mots sommaires sur la Big Data et l’open Data

Pour appréhender ces deux concepts dans leur ensemble, la compréhension de l’état d’esprit et la méthodologie de l’Intelligence économiques est indispensable.
C’est la raison pour laquelle, outre ces quelques lignes dans la newsletter, je consacrerai dans les pages de l’atelier Intelligence économique deux articles détaillés sur ces sujets stratégiques.

Qu’est-ce que la Big Data ?
La Big Data est caractérisée par une accumulation continue de tous types de données, atteignant une taille et un degré de granularité difficile à exploiter.
La Big data est constituée de données structurées et non structurées.
La Big data provient d’une multitude de sources.
La Big Data est constituée, de fait, d’ensembles de données trop volumineuses, trop fines ou trop déstructurées pour être pour être analysées et exploitées, dans l’état actuel du système.
Les entreprises reçoivent et génèrent beaucoup plus de données qu’elles ne peuvent en entreposer et traîter.
Mais ces remarques s’appliquent pour un système d’information donné.
Et c’est en cela que le sujet correspond à l’Intelligence économique. Car pour répondre à ce défi, le management de l’entreprise doit, en ce qui concerne son système d’information acquérir un nouvel état d’esprit, adopter un nouveau raisonnement, pratiquer une nouvelle méthodologie, utiliser de nouveaux outils.

Open data : l'Etat pourrait renoncer à la gratuité des données publiques.

Une réflexion doit démarrer pour identifier les revenus que l'Etat pourrait tirer de la commercialisation des données. Certains dénoncent un retour en arrière, d'autant que des administrations seraient réticentes à publier leurs données.

L’open data devait être l'un des grands chantiers de l'année. Après l'installation l'an dernier de la mission gouvernementale Etalab, l'ouverture du portail Data.gouv.fr en décembre 2011 et le lancement de plusieurs projets pour doper les initiatives, dont un concours d'applications utilisant les données publiques, l'open data en France a tendance à faire du surplace. Le nombre de jeux de données publiés sur Data.gouv.fr reste, depuis des mois, limité autour des 350.000 (dont près de 300.000 proviennent en fait de l'Insee). Des voix s'élèvent pour dénoncer des blocages administratifs.

En réalité, l'administration semble vouloir revenir sur plusieurs principes. C'est notamment le cas de la gratuité des données. En ces temps de rigueur budgétaire, d'aucuns aimeraient faire payer l'accès à certaines données alors que les informations payantes étaient extrêmement limitées jusqu'ici (celles de l'IGN, par exemple). « Si l'on veut vraiment faire avancer les choses, il faut faire sauter certains blocages. Or l'information a un prix. Si l'on veut inciter les administrations à participer au mouvement de libération des données, il faut certaines contreparties », note Olivier Schrameck, conseiller d'Etat et membre de la commission sur la rénovation et la déontologie de la vie publique.

Une réflexion pourrait bientôt être engagée pour préciser les données qui doivent être rendues publiques et sur celles qui doivent être gratuites ou payantes. Cette réflexion pourrait être incluse dans la feuille de route spéciale sur l'administration en ligne qui doit être publiée avant la fin de l'année par le gouvernement. Plusieurs ministères, dont ceux de Fleur Pellerin et de Marylise Lebranchu, y travailleraient.

Fondateur de Captain Dash et ancien président du Conseil national du numérique, Gilles Babinet, que j’ai rencontré, a peur que, « sous l'argument des retombées financières, on essaie de tuer la transparence. Cela coûte certes de l'argent à l'Etat, mais c'est un effort qu'il faut consentir. Et aucun autre Etat n'a réussi jusqu'ici à vendre massivement des données. Les revenus se chiffrent en centaines d'euros ». Du côté de la mission Etalab, on affirme ne pas être au courant de ces projets de commercialisation des données.

La situation pose toutefois problème pour de nombreux acteurs du secteur. Des start-up et des porteurs de projets dans le Web et les applications mobiles attendaient beaucoup de la libération de certaines données, notamment dans la santé, les transports ou l'emploi. Ces projets sont aujourd'hui en stand-by.

Pour l’ancien président du Conseil national du numérique, « l'open data a besoin d'une nouvelle impulsion politique, plus que d'une nouvelle régulation. Les textes sont là, mais la transparence fait peur ». Et Gilles Babinet de prendre pour exemple, avec une certaine insolence, le projet avorté visant à rendre publics les frais de représentation des députés. Devant le refus des parlementaires, une pétition a été lancée et a obtenu près de 130.000 signatures en faveur de la transparence.

Christophe Dubois-Damien, Président de l’Atelier Intelligence économique


Big data …

Il y n’y a pas si longtemps, l'impact de la divulgation d'informations personnelles sur Internet pouvait être relativisé : quel intérêt pourrait bien susciter quelques minuscules éléments dans un océan de données ? quelle machine aurait la puissance pour les traiter ? 

C'était sans compter avec Big Data …

Une idée simple, un patronyme respirant bon (?) la restauration rapide mais une puissance hors pair issue de la consolidation d’informations a priori disparates.
Exemple : "Google Trends". Google propose en libre accès les statistiques sur les requêtes des internautes, l'adresse IP donnant de surcroît les origines géographiques. L’application de cette démarche lors d'épisodes de grippe a mis en lumière sa puissance. En filtrant les requêtes à partir de quelques mots clefs bien choisis, "Google Flu Trends" a nettement devancé les autorités de surveillance sanitaire pour construire la carte de propagation. 
Encore un exemple ? Des applications pour Smartphone envoient en continu les coordonnées issues de votre GPS vers une mémoire centrale où votre vitesse ainsi que celle de vos co-usagers du réseau routier sont calculées. L’information qui en découle est l’état des flots de circulation et ses bouchons. Le principe de base est encore une fois de collecter des informations qui prises individuellement sont sans grande signification, de les réunir puis d’effectuer un traitement pour en extraire une information autre.
Les analyses de comportement appliquées aux études de marché sont aujourd’hui friandes de ces approches. Les données purement statistiques construites sur des moyennes laissent place à des profils beaucoup plus ciblés. 
Ainsi, à partir de la longue liste d’attributs disparates que l’on peut accoler à chaque prospect ou client, l’approche consiste à faire des recoupements attributs par attributs. Deux attributs reliés forment une ligne, un peu comme deux plans qui se coupent. Un troisième critères un volume et ainsi de suite jusqu’à arriver à la notion d’hyper-cube lorsque le nombre de critères croît. Approche théorique ? C’est pourtant ainsi que les assureurs détectent le profil d’abonnés à risque sensiblement élevé de résiliation à partir de  l’association de quelques critères qui n’avaient a priori rien à faire ensemble. A l’inverse un client sera fidélisé plus sûrement s’il est sollicité par un email de tel type suivi d’un appel téléphonique de tel autre type. Les comportements qui étaient gommés par une approche purement statistique sont révélés par les hyper-cubes. 

Collecte, stockage et traitement. Les trois mamelles du Big Data – oui, Big Data est un être étrange pourvu de trois mamelles. 

D’où proviennent les données élémentaires ? La plupart existent déjà dans des bases.
Il n’y a ni règles ni limites. Tout est bon à prendre. Texte, images, capteurs RFID ou pas, sons, informations générales, géolocalisation, bulletins météos, transactions bancaires, « confidences » sur réseaux sociaux, vidéos, historiques de navigation, emails, tickets de caisse, vidéosurveillance, téléchargements d’applications mobile, cookies, fichiers log … Et encore, tout est dans les points de suspensions. Les milieux financiers et les salles de marché quant à eux fournissent et ingurgitent leurs lots de données à forte contrainte transactionnelle. Il faut être à même d’ajuster ses ordres d’achat et de vente en interprétant l’impact de la fin d’une sécheresse, d’un mouvement social ou les ordres passés par les autres acteurs. Et ceci sans tarder : jusqu’à 1.000.000 transactions par secondes !
Et comment ne pas évoquer la mise à disposition de données brutes ou « Open Data » ? Les communes, administrations mettent leurs informations en libre utilisation. L’avalanche de données brutes est certes difficilement exploitable par l’humain mais la machine trouvera là de quoi se régaler. 
D’une manière générale, tout objet muni d’une adresse IP est susceptible d’alimenter le flot de données. Or les objets connectés sont maintenant plus nombreux que les humains connectés.
Deux cent quatre vingt un milliards de gigaoctets en 2008, Deux mille milliards en 2011. Les milliards de gigaoctets ont leur nom : les exaoctets, les milliers d’exaoctets étant les zettaoctets. Tout un vocabulaire à reprendre.
Ces chiffres sont vertigineux. Leur signification est délicate à appréhender. Beaucoup de données sont dupliquées, répliquées citées voire copiées. Sont-elles comptées une fois ou plusieurs ? De plus nous sommes face à un mécanisme purement cumulatif : les données ne sont – pour la majeure partie – pas détruites.
Nous voilà au domaine du gigantisme, que ce soit au niveau de la quantité, celui de la réactivité ou celui de la large panoplie des attributs disparates. Le terme « Big » n’est pas usurpé.
Alors, qui mieux que le « cloud » offre la capacité et la souplesse pour accueillir ce beau monde ? 
On quitte le domine de l'informatique traditionnelle. Les ressources demandées pour le stockage et pour le traitement sont avant tout distribuées. Adieu les requêtes SQL et base de données relationnelles. L’absence de structure pour les données les écarte. de même que les contraintes imposées tant par la quantité de données à traiter que par le délai exigé souvent proche du temps réel. Les approches sont maintenant parallèles. 
Hadoop, un open source de la fondation Apache s’attaque aux fichiers massivement distribués, MapReduce gère les calculs, Vertica, Neo4J, MongoDB. Le monde du traitement est en ébullition avec plusieurs pôles en tête : les moteurs de recherche avec Google, Yahoo !, Bing, les réseaux sociaux avec Facebook, Twitter, Linkedin, les marchands avec Amazon … Tous ont besoin de traiter ces données. Avis : les compétences en analyse de données non structurées sont particulièrement recherchées sur le marché.
Quel avenir ? Gartner situe pour 2012 dans son cycle d'Hype le Big Data dans la phase "Peak of Inflated Expectations", autrement dit dans une période où on idéalise exagérément les apports de la technologie. Peut-être. Mais il n'en reste pas moins que quelque part Big Data apporte des réponses, beaucoup de réponses, y compris à des questions que l'on ne pensait pas se poser ! 

Jacques Baudron – iXTEL


La vérité sur le big data aujourd’hui et demain

Big Data… Big Data… le monde de l'informatique semble n'avoir que ce mot à la bouche depuis quelques mois, comme si l'avenir de tout un secteur dépendait du succès médiatique d'un nouveau concept. Quelle erreur ! Ce sont les clients qui font le succès d’une idée, si elle répond à leurs besoins.
Mais de quoi s'agit-il en réalité lorsque l’on parle de Big Data ? Restons pragmatique, ne nous laissons pas enfermer dans un enthousiasme marketing et profitons de ces lignes pour définir les usages à venir et vous donner quelques pistes de réflexions. Le Big Data, oui, mais sans doute pas tout de suite pour la majorité de nos lecteurs, et surtout pas pour n'importe quelles données.

Tout comme Monsieur Jourdain faisait de la prose sans le savoir, peut-être faites vous également déjà du "Big Data" sans le savoir. Il faudrait d’ailleurs s'entendre sur le terme de "big", dont le dictionnaire nous apprend qu'il signifie "dont le volume, la taille, l'épaisseur, l'intensité, la quantité est important"… tout cela est donc bien relatif. Lorsqu'en 1981 les premiers IBM PC pouvaient être équipés en option d'un disque dur de 5 Mo, le remplir avec un seul fichier de données aurait certainement été considéré comme du "big data"; en fonction de l'activité de l'entreprise, une chaine de grande distribution qui imprime des millions de tickets de caisse ne sera pas impressionnée par quelques téraoctets de données, etc. Alors que certains entrepôts de données décisionnels dépassent aujourd'hui le Pétaoctet, parler du "big data" comme d'une révolution fera doucement rire les opérateurs téléphoniques, les banques, les chaines de distribution. Ils y sont habitués depuis des années !
Tenter également de faire croire que ces volumes imposent de nouveaux outils pour les traiter, relève aussi du mensonge marketing. Les principaux outils du marché, permettent de réaliser des interrogations, des tris, des analyses, des rapports sur des centaines de millions de données : nul besoin d'inventer un nouveau type d'outils.

L'analyse des médias sociaux, prémices de nouveaux besoins
La réelle innovation et les véritables nouveaux besoins proviennent de l'analyse des données non structurées. Est regroupé sous ce terme l'ensemble des images, fichiers audio, vidéos, textes, etc, que l'entreprise est aujourd’hui amenée à analyser. Aujourd’hui ou demain, car rares sont encore aujourd'hui les entreprises à disposer de données de ce type et à être capables de tirer profit de leur analyse. En revanche l'explosion en quelques années de l'utilisation des médias sociaux a démocratisé instantanément ce type de besoin. Si vous disposez d'une page Facebook au nom de votre entreprise, d'un compte Twitter, ou tout simplement si vos clients parlent de vous, vous devez suivre et analyser ces publications. Il peut s'agir de statuts (donc de textes), mais également d'images ou de vidéos. Les analyser pour en comprendre le contenu, détecter des tendances, analyser leur impact, et réagir si possible en quasi temps réel. Tout cela est non seulement devenu possible, mais rapidement indispensable. Lorsque récemment une grande marque française de ventes par correspondance a illustré un article de son catalogue avec une photo d'enfants sur un plage au second plan de laquelle on distinguait parfaitement un homme nu et ses attributs, il n'a pas fallu plus d'une heure pour que les réseaux sociaux ne s'emparent de la photo et moquent la marque. Elle n'a pas su réagir rapidement et a gardé le silence… pouvait-elle d'ailleurs faire autrement ? Si elle avait été équipée des bons outils, elle aurait sans doute pu identifier les internautes les plus virulents, les contacter, tenter de négocier un retrait de l'image, mesurer l’impact sur la marque, etc. Mais pour cela il fallait analyser en temps réel des milliers de tweets, de statuts Facebook, etc.
De manière plus positive, une marque peut aujourd'hui s'appuyer sur les réseaux sociaux pour diffuser son message. Là encore identifier les meneurs, les informer en avant-première, mesurer leur influence, calculer leur potentiel, etc. C'est bien de décisionnel qu'il s'agit, à grande échelle et en traitant de ces données semi-structurées que fournissent les médias sociaux.
La BI dite "sociale" est donc bien la première application de ce "Big Data" dont tout le monde parle.

Demain les données issues de l'internet des objets
Et tout cela n'est qu'un début car l'étape suivante est bien celle des très gros volumes de données. Des volumes dont il est difficile aujourd'hui d'imaginer la dimension. Le monde compterait au 31/12/2011 environ 2,3 milliards d'internautes, sur une population de 6,9 milliards d'habitants (Source InternetWorldStats.com). Cela parait déjà énorme. Mais savez-vous que chaque être humain serait entouré de 1000 à 5000 objets traçables (Source Jean-Baptiste Waldner  en 2007 dans « Nanoinformatique et intelligence ambiante »). L'internet des objets pourrait finalement connecter entre 50 et 100 000 milliards d'objets ! Et ces objets communiqueront une position, un état, des messages, ils parleront d'eux, mais tenteront également d'établir des communications avec les autres objets qui les entourent. Personne n'a encore osé quantifier le volume des messages concernés par cette révolution.
Déjà certaines voitures sont capables de communiquer. Vous êtes victime d'un accident, inconscient, incapable de prévenir les secours. Votre véhicule détecte cette situation, et appelle lui-même les secours, leur faisant gagner des précieuses minutes qui auraient pu vous être fatales. Dans cet exemple le volume de données transmis est limité (un identifiant, une position, peut-être des éléments de votre dossier médical pour faciliter l'organisation des secours) mais vital, et la vitesse de transmission est cruciale. Ce n'est qu'une illustration, d'autres applications vont naître, beaucoup plus anecdotiques mais génératrices de volumes énormes.
Un exemple des débuts de cette communication débridée : fin février 2012, l'opérateur téléphonique Orange et les machines à café Nespresso ont annoncé deux nouveaux modèles de machines, capables de communiquer au travers du réseau téléphonique avec le centre de relation client de Nespresso. Commande de capsules, entretien, accessoires, les usages de ces objets connectés sont encore à imaginer. Demain sans doute la machine à café vous reconnaitra, vous servira votre café préféré, et publiera un statut sur votre page Facebook. A quoi cela sert-il ? Sans doute à rien, mais les générations à venir ne pourront plus s'en passer.

Tout comme les analystes qui se délecteront des milliards de données qui aideront à mieux encore comprendre qui consomme quoi et quand.
Pour collecter, stocker et analyser ces données en provenance de l'internet des objets, votre système d'information devra évoluer. Intégrer ces données sous forme de flux, stocker ces données non structurées dans des architectures adaptées, analyser ces volumes en temps réel, et envoyer les résultats sur votre plateforme décisionnelle mobile. Ce sont des perspectives incroyables qui s'ouvrent pour les dix prochaines années. A nous d'inventer les applications qui vont avec !

Philippe NIEUWBOURG, auteur du livre « Big Data » qui paraitra début 2013 chez Dunod Anime le site www.decideo.fr et le blog www.decideo.fr/bigdata Journaliste, analyste, auteur et chargé de cours à l’UQAM (Montréal) sur l’informatique décisionnelle et le Big Data.

 

Atelier d'Ecriture

  • Livres blancs étudiants

Dans le cadre d'un partenariat Forum ATENA et de l'université Paris Ouest – Nanterre, nous avons le plaisir de publier un premier livre blanc rédigé par Aurélien Carbonnel, étudiant en mastère : Les étapes d'une attaque en APT, téléchargeable depuis la page de notre collection de livres blancs.
En espérant que cet exemple sera suivi de nombreux autres !

  • Professeur ATENA

Nous allons lancer une nouvelle catégorie de livres blancs à vocation pédagogique ou vulgarisation, intitulée "Professeur ATENA". Le thème peu en être technique, juridique, économique, pourvu que ce soit cohérent avec les thèmes abordés par Forum ATENA.
Si vous avez de tels documents et si vous souhaitez leur élargir leur audience, communiquez-nous les, si possible en format Word, mais PDF et Powerpoint acceptés.
Pour me proposer vos sujets, utilisez la page Contact de notre site à la rubrique "Atelier d'Ecriture".

Michèle Germainn Atelier d'écriture de Forum ATENA

Atelier Economie Numérique : Digital Trust

Cet article met en perspective la grande réforme qui se prépare en Europe et aux Etats-Unis pour :

  1. Simplifier l’accès sécurisé aux transactions par Internet,
  2. Contrôler l’usage exclusif des attributs de confiance personnels
  3. Gérer les mandats et pouvoirs avec des procédures de révocation instantanées
  4. Surmonter la complexité des règles de conformité et de légalité intervenant dans les échanges
  5. Créer des identités numériques dynamiques avec des solutions d’authentification forte
  6. Faciliter la gestion collaborative en termes de conventions bilatérales et d’habilitations personnelles
  7. Proposer des services « On Line », « On Demand », « As a Service » :

    1. Pour réponde à la spécificité des scellements documentaires
    2. Pour répondre à la spécificité des signatures électroniques
    3. Pour répondre à la spécificité des protocoles de communication
    4. Pour répondre à la spécificité des systèmes d’archivage légal
    5. Pour répondre à la spécificité de l’administration des preuves électroniques
  8. Mesurer la valeur juridique et le niveau de sécurité des correspondances bilatérales :

    1. De Courrier
    2. De Transaction
    3. De Paiement
  9. Assurer une interopérabilité entre les parties et leurs Opérateurs de Services Documentaires
  10. Certifier la valeur probante de tous types d’échanges et sauvegarder les preuves durablement.

Le projet de Règlement discuté actuellement au Parlement Européen modifie profondément la Directive des Services dans le Marché Intérieur et les usages de la signature juridique en ligne. Il s’agit d’une nouvelle architecture de sécurité et d’interopérabilité apportant aux usagers davantage de simplicité et de sécurité, et aux Entreprises, Banques, et Administration, davantage de garanties sur la valeur probante de leurs actifs et passifs dématérialisés. Les Opérateurs de Services seront contrôlés par des Prestataires de Certification Documentaire tenant à jour les listes de révocation et les référentiels documentaires. Une nouvelle génération de « Data Centers » hébergeront ces Opérateurs et Prestataires en facilitant leur interopérabilité et les contrôles en temps réels des Listes de Révocation, des Référentiels de Gestion Documentaire, et des Réseaux de Confiance Numérique.  De tels « Data Center » contribueront à la réduction des coûts (-700 Milliards/an en Europe) et des risques opérationnels (BALE3, IFRS, SOX,…), et ils permettront une meilleure régulation des écosystèmes internes et externes.  Aux Etats-Unis, la Maison Blanche a déjà tracé les grandes lignes de cette réforme planétaire et mis l’accent sur la sécurité des Identités Numériques dans son « Legal Framework » pour orienter la stratégie des Industriels : NSTIC The National Strategy for Trusted Identities in Cyberspace.
Un bouleversement se prépare avec la refonte des systèmes informatiques aujourd’hui impuissants à éradiquer les fraudes sur Internet, et remis en cause par les offres actuelles en SaaS et Cloud Computing qui sont utilisées pour renforcer la sécurité et l’interopérabilité des échanges dans des Réseaux de Confiance Numérique plus efficients.

Lire l'article complet sur la page de l'Atelier

Eric Blot-Lefevre, Président de l'Atelier Economie Numérique

22 novembre – La chaîne de l'innovation : qui serez-vous ?

Nous avons le plaisir de vous inviter à une conférence table ronde débat sur la chaîne de l'innovation, qui aura lieu le Jeudi 22 novembre de 18h45  à 21h30 à l'EPITA (via porte italie, juste après périphérique) : 24 Rue Pasteur 94270 Le Kremlin-Bicêtre epitech.eu

La chaîne de l'innovation – Qui serez-vous ?
Révélateur de Problèmes et d'Opportunités,  Chercheur, Solveur,  Inventeur,  Marketeur … Innovateur ? Entrepreneur ? Financeur ? Client-Utilisateur  ?  

• Une intervention "Les innovateurs existent, j'en ai rencontrés" de 20 mn de Patrice Noailles, auteur de "De Gaulle & la technologie" (1994) et de "L'innovation, Valeur, économie, gestion" (2008), ancien conseiller technique du ministre de la recherche (1986), dirigeant d'un Fonds de capital-risque.  

• Puis, pour les 40mn suivantes, table ronde constituée  de :
Patrice Noailles
– Eunika Mercier-Laurent : Stratége de l'innovation globale, architecte de flux de connaissances, auteure de Les Ecosystèmes de l'Innovation, Lavoisier, 2011,  co-auteur avec D. Amidon et P.Formica de Knowledge Economics: Emergent Principles, Practices and Policies, Tartu University Press,  2005
Laurent Guyot-Sionnest, électron libre depuis 65 ans, 
Didier Tranchier, Professeur d'Innovation et Business Angel, auteur du livre : "Et si ce soir vous tentiez de conquérir le monde !"
invité surprise : vous ? 

• Discussion avec la salle 1h 

Quelques réflexions qui animeront  notre table ronde :

L'innovateur et son écosystème (Patrice Noailles)
L'innovateur est une idée nouvelle dans l'économie. On parle plus volontiers d'inventeur ou de chercheur, voire d'entrepreneur. Pourtant, toutes ces fonctions sont différentes et les personnes qui peuvent les assumer aussi !  A partir d'exemples historiques connus comme le conteneur, la machine à vapeur, le micro-ordinateur etc, il est possible de bien caractériser chacune de ces fonctions et de bien comprendre l'articulation de ces activités. 
Comme tout être vivant, l'innovateur vit dans un écosystème composé de ressources qu'il utilise et de règles écrites ou non écrites qui encadrent son comportement. 
C'est dans cette relation entre l'innovateur et son écosystème que se construit le vrai potentiel de l'innovateur.
Cette nouvelle approche est riche de perspectives nouvelles que ce soit dans l'économie ou le management mais aussi l'histoire ou l'analyse comportementale.

Commençons par comprendre et résoudre les problèmes (Laurent Guyot-Sionnest )
Tout commence par des problèmes que certains ne veulent plus accepter. On cherche on tâtonne. Depuis les petites classes on nous apprend à ne voir que la solution parfaite finale (une démonstration de théorème, un poème…, une thèse… ) alors que le gros du temps passé relève du tâtonnement, de l'exploration non dirigée et de l'agitation irrépressible. (voir Pascal et son idée absurde de rester tranquille dans une chambre, vs Bergson… ). La plupart du temps les problèmes sont insolubles à l'échelle de nos capacités, de notre temps et de notre volonté.
Parfois ce sont de faux problèmes. Souvent des solutions existent, plus ou moins bonnes, plus ou moins faciles, plus ou moins accessibles.
Et de temps en temps on invente une solution un peu nouvelle par rapport à l'état de l'art. Mais on n'a encore rien fait, puisqu'il faudrait maintenant donner envie à d'autres de faire l'effort de changer leurs habitudes, ce qui est souvent pour eux, plus pénible que le statu quo.
Mais un jour, un innovateur saura trouver où mettre notre contribution dans une offre qui aura des clients et des utilisateurs. 
En nous rebellant contre certaines choses ou situations du monde, nous contribuons ainsi à la création-complexification permanente de l'univers, de l'énergie brute initiale à la vie pensante et innovante, nous.

Une intelligence collaborative hommes-machines (Eunika Mercier-Laurent) 
Alors que tous types d’innovation sont nécessaires, y compris l’innovation dans la façon de penser, j’aimerais mettre l’accent sur l’intelligence collaborative humains-machines. 
Elle a pour objectif non seulement d’amplifier la créativité humaine, mais de donner l’accès aux connaissances du passé et actuelles pour construire le futur en symbiose avec les écosystèmes naturels.
L’innovation inspirée par la nature à un grand rôle à jouer dans le contexte de la mondialisation intense. 

Plus d'infos / inscriptions


L’Autorité de la concurrence tranche le différent Cogent / Orange, UFC Que choisir met les pieds dans le plat dans le conflit Free / YouTube, et saisi l’ARCEP et la DGCCRF : Un pas vers une meilleure régulation de la NetNeutralité ?

Le statu quo est rompu, mais les vrais problèmes sont-ils posés ? Les Internautes pourront-ils accéder librement et confortablement aux contenus vidéo tiers ? Quels raisonnements appliquer ?
1- Orange et Free perçoivent les abonnements des clients grand public, doivent-ils payer à ce titre les travaux d'augmentation de capacité de trafic avec les transporteurs ?
2- Cogent et autres Carriers perçoivent des revenus pour transporter les flux, doivent-ils payer les travaux d'augmentation de capacité ?
3- Le peering s'applique-t-il entre opérateurs et FAI, même si les trafics sont asymétriques ? Les choses peuvent-elles continuer comme cela ? En d'autres termes, Cogent peut-il continuer d'être payé par les fournisseurs de contenu, et ne pas participer aux travaux à la livraison ?
4- Appliquons les principes qui régissent les interconnexions téléphoniques, et faisons payer en fonction des trafics échangés.

Si les opérateurs facturaient les consommateurs en fonction du débit, ou du trafic, et non pas au forfait (même prix pour 512 kb/s (ou moins) ou 20 Mb/s (ou plus)) ne seraient-ils pas incités à upgrader les liens entrants ? Et tout rentrerait peut-être dans l’ordre.

Philippe Recouppé, Président de Forum ATENA


UIT : le débat sur la neutralité du Net se mondialise

Enfait. Le 2 octobre, l’Association des services Internet communautaires (Asic) – créée il y a cinq ans à la suite d’un différend, en 2007, entre Dailymotion et Neuf Télécom – a fait le point sur la neutralité de l’Internet. Malgré maint débats et rapports, ce principe est encore menacé faute de loi.

En clair. « C’est un jeu de dupes ! », comme l’a affirmé Félix Tréguer, chargé de mission à La Quadrature du Net, en charge des affaires juridiques et institutionnelles. Intervenant à la demande de l’Asic, il a rappelé ce que l’association de citoyens militants pour la neutralité du Net exige depuis trois ans : « Il faut une loi » pour protéger la neutralité d’Internet. Il estime que «tout le monde affiche le principe de neutralité d’Internet, mais sans se mettre d’accord sur sa définition ». C’est le cas en France où les acteurs sont promenés de rap- ports en colloques, en attendant – encore une fois – une table ronde envisagée par la ministre en charge de l’Economie numérique, Fleur Pellerin. Il y a bien une proposition de loi déposée le 12 septembre par la députée (UMP) Laure de La Raudière, à la suite de son rapport d’avril 2011 co-rédigé avec la députée (PS) Corinne Erhel.

Mais le gouvernement ne semble plus convaincu, malgré les promesses du candidat François Hollande, si l’on en croit le site Ecrans.fr à qui Bercy a dit le 18 septembre que « il n’a pas urgence à légiférer », alors que Fleur Pellerin y est plutôt favorable (1) si cela ne favorise pas les GAFA (2). Cette valse

hésitation montre que la France est dépassée par un problème d’envergure mondiale. Alors que la Commission européenne termine ce 15 octobre sa consultation publique sur la neutralité du Net, c’est au tour de l’Union internationale des télécommunications (UIT) de vouloir s’en emparer à l’occasion de sa Conférence mondiale sur les télécommunications inter- nationales (CMTI-12 ou en anglais WCIT-12).

Cette réunion sans précédent des Etats et des opérateurs de réseau, qui se tiendra à Dubaï du 3 au 14 décembre, prévoit en effet le réexamen du Règlement des télécommunications internationales (RTI), en vigueur dans sa forme actuelle depuis 1988, pour tenir compte du trafic Internet. C’est justement l’occasion pour l’ETNO, qui réunit depuis 20 ans les opérateurs télécoms historiques européens, de convaincre les Etats membres d’inclure dans le traité de l’UIT le principe de rémunération raisonnable. Cette « terminaison data » fait peur à Benoît Tabaka, directeur des affaires juridiques et réglementaires de Google (membre de l’Asic), pour qui ouvrirait la voie à la régulation du Net (peering payant, filtrage, blocage, restriction d’accès, etc). @

Notes : (1) – Propos tenus au Club parlementaire du numérique le 24 juillet 2012 et aux rencontres de Pétrarque (France)
(2) Google-Apple- Facebook-Amazon et les autres géants du Net. (3) – Lire Winston Maxwell dans EM@64, p. 8 et 9.

Charles Laubier, pour tout contact : Edition Multimédi@ : http://www.editionmultimedia.com


Vendre aux opérateurs télécoms d'Europe du Sud-Est

UBIFRANCE se mobilise pour vous faciliter l'accès à ce marché charnière entre l'Europe et le Moyen-Orient en vous introduisant auprès de 8 opérateurs de 4 pays différents : – OTE, – Wind,- Forthnet, – Cyta, – Mtel, – Max Telecom, – Plus, – Eagle Mobile.

Ces opérateurs recherchent des technologies liées à l'Internet mobile 4G et au développement de services transversaux de la téléphonie mobile, de la gestion du trafic des données et du Cloud Computing. UBIFRANCE vous propose de présenter pour vous votre activité auprès de ces leaders et pionniers de l'innovation en Europe du Sud-Est. Participer à l'opération « vendre aux opérateurs télécoms d'Europe du Sud-Est » est le meilleur moyen de vérifier votre potentiel export auprès des grandes références de la télécommunication, d'autant plus que ce sont les opérateurs télécoms qui vous ont sélectionné. Le programme est prévu du 26 au 30 novembre 2012 afin de pouvoir rentabiliser votre déplacement sur la zone. N'attendez plus pour vous inscrire et pour rencontrer ceux qui font la téléphonie de demain, et ouvert au savoir-faire français et au « made in France ».

Pour plus d'informations sur cette évènement : kevin.thouement@ubifrance.fr


Découvrez les métiers du numérique

Dans le cadre de la promotion des métiers et des formations, le Syntec Numérique a réalisé un projet de 24 vidéos afin de développer l’attractivité de nos métiers auprès des jeunes, au travers de témoignages.

Découvrir les 24 vidéos portraits

Article proposé par Jean-Denis Garo, Administrateur Forum ATENA


Des sites ministériels perdus dans les nuages ?

Article paru sur Le blog Loi des réseaux (LeMonde.fr) le 10.10.2012 

En étudiant les manœuvres en cours de l'Internet iranien, je me demandais récemment comment autant de sites publics avaient pu, jusqu'à ces derniers jours, rester hébergés aux États-Unis tandis que ce pays mène au régime perse simultanément des guerres électronique, diplomatique, financière, idéologique, médiatique et une guerre de sanctions, pour s'en tenir au manifestement visible. J'y reviendrai dans une prochaine note sur l'Iran.
Ce n'est pas en France qu'on verrait ce genre de situation, soupirai-je de soulagement en mon for intérieur. Sans m'en rendre compte, à toutes mes consultations de sites, j'avais pris le pli d'observer le petit drapeau qu'affiche l'extension FlagFox dans mon navigateur Firefox…

Pour lire la suite

Article proposé par Philippe Poux – Secrétaire de Forum ATENA


Lettre ouverte à Numergy et Cloudwatt

Article paru sur Distributique.com le 08.10.2012 

Les deux clouds souverains français, Numergy et Cloudwatt provoquent beaucoup de questions et même de mises en cause. Samir Koleilat, Pdg de l'opérateur Acropolis Télécom pose le débat en 5 questions :

-«  Pourquoi deux structures différentes, chargées de la même mission sur le même marché, qui aboutiront nécessairement à doublonner leur offre tout en divisant par deux leurs moyens et leurs effectifs ?

– Pourquoi l'état finance à hauteur de 150 millions d'euros (75 ME par projet, via la CDC) des start-up créées de toute pièce, sans expérience, sans produit, sans client, et finalement sans légitimité sur le marché alors qu'une vingtaine d'entreprises françaises spécialisées, plus expérimentées et qui avaient déjà une longueur d'avance, étaient mieux placées pour relever le défi d'un Cloud souverain français ?

– Peut-on raisonnablement croire que deux start-up franco-françaises disposant chacune d'un budget de fonctionnement de 225 millions d'euros pourront se mesurer aux mastodontes du marché mondial capables eux, d'investir des milliards de dollars ?

– Doit-on réellement considérer comme « patriotique » l'idée que l'état et les investisseurs institutionnels censés investir dans des sociétés innovantes et créatrices de richesses prennent le risque de miser 150 millions d'euros dans un défi technologique et économique pour lequel aucune des parties engagées ne semble préparée ?

– Faut-il souscrire à l'idée que la création de ce pool industriel répond à une démarche stratégique pour l'avenir de l'industrie française alors qu'elle risque de mettre gravement en péril les entreprises, et leurs salariés, qui depuis 20 ans ont investi, sur leurs fonds propres, pour développer une industrie du numérique ?

Certes, il est de bon ton dans ce genre de circonstances de souhaiter bonne chance aux nouveaux venus, mais cet usage n'empêche pas de se poser des questions de bon sens ! »

Samir Koleilat, Vice-président de Forum ATENA


 

Agenda

Jeudi 22 novembre
Organisé par Forum Atena
La chaîne de l'innovation – Qui serez-vous ?


Lundi 19 novembre
Medef Ile-de-France
Alliances de conquêtes des marchés : l’Intelligence économique partagée


6 décembre
Télécom Paristech
Big Data, Big Challenges et Big Business


 

Retrouvez nos publications sur la boutique Lulu :   

  

 brancheolivier Pour soutenir Forum ATENA brancheolivier