Newsletter n°61 – juin/juillet 2013
Partenaires du programme de la National Security Agency des USA PRISM, Facebook, Microsoft, Apple, Yahoo, Skype, Google et YouTube, et qui encore ? D'autres encore ? Qui communique NOS données, LEURS données ?
Ces agissements, en catimini, sont intolérables aux citoyens, et posent bien des interrogations à tous. Dans quel monde vivons-nous, dans quel monde voulons-nous vivre ? Dans quel monde vivrons-nous demain ? Nous ? Nos enfants ? Est-ce une conséquence inévitable du numérique ?
Les agissements secrets de la NSA ne font que confirmer ce qui est connu depuis plusieurs années. En juin 2010 les USA demandaient communication des données bancaires européenne, connue sous le nom de SWIFT, elle a été mise en place depuis sans aucune réciprocité ! (lire http://forumatena.org/?q=node/274#swift)
Après les données à caractère économiques, les données personnelles, pourquoi s’arrêter ?
La question n'est pas du bien-fondé de la surveillance, elle est un mal nécessaire, acceptable quand elle est encadrée par un pouvoir juridique indépendant, c'est une des bases de nos démocraties, déjà bien imparfaites, n'en rajoutons pas !
Et aujourd'hui, trop d'exemples nous démontrent que non seulement la surveillance est omniprésente, et qu'elle est sans contrôle juridique, secrète. Les surveillants sont seuls à décider qui, comment, et pourquoi surveiller.
Le monde change, le monde a changé, le monde va encore changer, et cette façon de traiter les citoyens du monde n’est pas acceptable. Heureusement que de par le monde, des individus courageux dénoncent l'inacceptable.
Attention cependant à ne pas glisser dans l'anti Facebook, Microsoft, Apple, Yahoo, Skype, Google. Certes, tous ces acteurs américains de la société civile se sont soumis, mais pourquoi ? Peut-être à charge de revanche ?
D'une part rien ne démontre qu'en Europe, voir en France, une surveillance occulte n'est pas effective. Si pour l'instant les acteurs européens ne sont pas impliqués, c'est qu'ils sont quasi-inexistants !
Et nous en revenons encore à la problématique des priorités économiques en Europe, et des priorités données aux Infrastructures, sans soutien suffisant aux initiatives et investissements dans les services.
Nous avons certes quelques lots de consolation, Deezer, Dailymotion, … et nous avions Skype … et je me souviens de nombreuses Startup qui ont disparu aujourd'hui dans des domaines importants, comme les moteur de recherche, l'indexation et l'enregistrement des contenus, la protection des contenus, et du manque d'aide, voir des attaques dont ils ont été l'objet par les majors des contenus. En Europe nous avons les logiciels libres, ouverts, comme Linux et OpenOffice, mais les soutenons-nous suffisamment ?
Mais je ne voudrais pas vous laisser partir en vacances sur cette note bien peu libératrice des énergies qui ne demande qu'à s'exprimer, à agir, pour redresser la situation. A notre échelle, bien modeste, Forum ATENA, a voulu contribuer. En janvier dernier, nous avions organisé une conférence sur la confiance dans le numérique, le sujet étant d'importance, nous avons voulu le faire vivre dans le temps, en le transcrivant en livre électronique. Bravo à toute l'équipe de Forum ATENA qui s'est attelée à cette tâche, il est maintenant téléchargeable gratuitement, bonne lecture.
Bonne lecture également du compte rendu de notre dernière soirée Networking avec Henri Verdier, sur le BigData, à lire dans cette news, pour vous faire partager ce grand moment d'échange.
Bien d'autres articles que je vous laisse découvrir, bonne lecture, et à la rentrée pour de nouvelles initiatives.
Philippe Recouppé, Président de Forum ATENA
Sortie du 1er ebook Forum ATENA sur la conférence "confiance" de janvier 2013
Forum ATENA vous présente son 1er ebook, réalisé suite à la conférence "Terre de confiance, Taire la confiance, Tiers de confiance" qui s'est tenue en janvier dernier. Vous retrouverez l'intégralité des présentations et des échanges, ainsu que du contenu additionnel (supports de présentation, photos, vidéos…). Cet ebook est accessible gratuitement en téléchargement sur le site de Forum ATENA. Bonne lecture ! |
C'est, en moyenne le nombre de jours qui séparent une attaque persistante avancée (APT) que l'on subit sur son système d'information, et le moment où on s'en aperçoit…
Si vous vous en apercevez et prenez les précautions nécessaires une heure après l'attaque, elle n'aura pas fait grand chose et vous pourrez assez facilement éradiquer le ver, vecteur de l'attaque.
Si vous vous en apercevez au bout d'un jour, le ver est dans le fruit et sera difficile à déloger. Si vous vous en apercevez au bout d'une semaine, c'est trop tard. Ici on parle bien ni d'une heure, ni d'un jour, ni d'une semaine mais bien de 416 jours !
Gérard Peliks, Président de l'atelier sécurité de Forum Atena
ETALAB – La révolution de la donnée est la troisième révolution industrielle
Henri Verdier, le directeur d’Etalab (http://www.etalab.gouv.fr/), service du Premier Ministre chargé de l’ouverture des données publiques (et du développement de la plate -forme Open Data) était l’invité d’une Soirée Networking de Forum Atena le 16 mai.
« J’ai créé une première start-up internet en 1994. Et depuis, j’ai souvent travaillé dans ce monde de création d’entreprise. J’ai commencé dans la e-éducation, avec une société développée avec les Editions Odile Jacob, qui ont assez rapidement acquis la majorité du projet. La dernière entreprise, MFG Labs, que j’ai quittée il y a un an, a été revendue début mai. Elle était consacrée aux maths et aux big data, avec une activité de développement d’algorithmes, et une activité de développement de services sociaux, avec des expériences utilisateurs utilisant ce que permettent Facebook ou Twitter quand on sait travailler mathématiquement ce réseau relationnel. Mais j’ai aussi été Directeur de l’innovation chez Lagardère, ou directeur de la prospective au sein de l’Institut Mines-Télécom, où j’ai développé le socle d’idées que je vais vous présenter. J’ai eu la chance, qui est une aventure extraordinaire, de présider pendant 6 ans lCap Digital, le pôle de compétitivité des industries de contenus et services numériques (avec 700 PME en robotique, jeux vidéos, cinéma, services mobiles et de plus en plus l’e-santé ). Je l’ai quitté il y a 5 mois pour prendre la direction d’un service du premier ministre, Etalab, chargé de l’ouverture des données publiques. Les deux derniers épisodes de ma vie sont donc consacrés aux données.
Il y a un an j’ai publié un ouvrage « L’Age de la multitude : entreprendre et gouverner après la révolution numérique » (aux Editions Armand Colin ) avec un co-auteur, Nicolas Colin, qui par la suite a fait un rapport sur la fiscalité du numérique pour le ministère du redressement productif, le ministère de l’économie et des finances et le ministère du budget. Notre thèse centrale était simple : plus grande valeur dans l’économie numérique, c’est les gens, nous, la multitude. Nous avons retenu ce mot parce qu’en français il n’y a pas l’équivalent de « people », qui désigne le peuple et la somme des individus avec leurs désirs, leur créativité. Ce qui fait la richesse de Google, de Facebook, c’est la création spontanée, volontaire ou pas, des individus. Et ce qui fera aussi l’avancée de l’automobile, du bâtiment, c’est la création spontanée, la contribution volontaire ou pas des individus.
Informatique plus big data plus cloud computing :
Ce soir, j’avais envie de tester avec vous ce qui pourrait être la thèse d’un prochain livre. C’est une intuition que je voudrais approfondir : peut-être vivons-nous une troisième étape de la révolution numérique, la révolution de la donnée.
Ill faut analyser cette révolution numérique comme une révolution industrielle. Une révolution d’une énorme ampleur, qui va changer les rapports sociaux, l’économie, les règles d’urbanisme, l’éducation, l’habitat etc…
Les étapes qui ont précédé:
– Dans les années 1970, c’était l’informatique, les codeurs. L’imaginaire c’était IBM qui a inspiré 2001, Odyssée de l’espace.
– Avec Internet, dans les années 1990, on entre dans un mode totalement différent. Dans internet, l’expérience utilisateur, le design, la vitesse d’accès au marché, les codes sources sont très différents.
– Avec l’informatique, le big data et le cloud computing , nous arrivons dans une troisième vague que j’appelle la révolution de la donnée. Il faudrait assembler ces éléments pour en faire un récit.
Nous produisons de la donnée à tour de bras pour pas cher. Il y a des centaines de capteurs qui mesurent la luminosité, la température, l’hygrométrie, l’accélération, la gravité, qui mesurent toutes ces données et qu’on est en train de mettre partout, dans les bâtiments, dans les vêtements, les véhicules etc…
Je prends le pari que dans 5 ans on aura mis des capteurs dans les sièges des salles de conférence pour que les conférenciers sachent quand les gens s’ennuient, ils verront les capteurs clignoter : ça se fera, ça ne coûte rien, on va le mettre dans la matière et on produit la donnée, on la traite pour pas cher.
Un changement de paradigme
Avec MFG Lab, nous avons réalisé une expérience. Avec un PC acheté chez Surcouf, un peu de serveur Hadoop, le cloud d’Amazon, on pouvait réaliser des graphes de 30 millions de nœuds. C’est un des effets du big data : la capacité à abaisser la barrière à l’entrée du traitement des données massives. Les innovateurs, les start-up, les chercheurs, des étudiants peuvent tester des hypothèses. Plus besoin de mobiliser une infrastructure très lourde comme le CEA pour arriver à traiter ces questions.
Je me suis longtemps demandé s’il y avait un changement qualitatif avec les big datas. Parmi toutes les définitions des big datas, celle que je peux en donner, ce n’est, ou si on était seulement dans le quantitatif. Je pense finalement qu’on est vraiment dans un changement de nature, parce que la révolution big data, ce n’est pas seulement l’informatique SQL. C’est un changement de paradigme.
Dans la Silicon Valley, on a commencé à réfléchir à une informatique dédiée au traitement des big datas. En travaillant sur le parallélisme, sur les calculs dans le cloud, sur de nouveaux types de hardware, on a commencé à travailler des données qu’on ne regradait pas auparavant. On a commencé, par exemple avec le machine learning, à faire des prédictions correctes même sans hypothèses.
Cette naissance des « big data » entraîne deux changements plus sociologiques qu’informatiques qui vont avoir beaucoup d’impact :
– Il y une baisse de la barrière à l’entrée de l’innovation, qui s’ouvre à des acteurs légers, rapides, innovants. Ceux qui avaient mobilisé beaucoup de capital, ou des effectifs considérables, et qui se croyaient à l’abris, vont être challengés par des concurrents qu’ils ne connaissent pas.
-Dans tous les mondes scientifiques, la biologie, la physique, le marketing, la politologie, nous avions appris à raisonner dans un monde où que ce qui coûtait cher c’était la donnée . Qu’on le veuille ou non, on avait appris à beaucoup réfléchir avant de tenter des expériences. A expérimenter avec prudence. Donc quand nous annonçons que nous allons ratisser Facebook et trouver des patterns, on s’entend répondre qu’in ne peut pas faire comme ça, qu’il faut d’abord avoir une hypothèse probante avant de commencer à la vérifier. Or il devient pertinent de ratisser quelques terra de données pour voir si on trouve des patterns imprévus. Ça va être un changement assez profond dans un certain nombre de métiers.
La science reste une activité qui produit des hypothèses. Mais on va changer les stratégies pour rechercher ces hypothèses.
Valeurs et aspirations sociales.
Ce changement scientifique est contemporain de profonds changements sociétaux.
La production de données entre au cœur des relations sociales. Ce ne sont pas seulement les jeunes qui seraient moins attentifs a la vie privée, ça devient une manière d’être au monde, d’échanger sur Facebook, ou Twitter, ça devient des codes sociaux. Aujourd’hui on travaille sa position dans le jeu social, sa réputation, on cherche à trouver du boulot pour demain, ça continue pas seulement parce que la technologie a changé.
La politique française d’ouverture de données publique est aussi une nouveauté. Il y quand même dans la société française un rapport à la transparence qui est nouveau ; Il y a dix ans, je ne sais pas si la société française était prête à accepter de considérer que c’était une réponse intelligente que de mettre le patrimoine de tous les ministres en ligne, à cause de l’affaire Cahuzac.
A Ottawa, (voir Manifeste à Ottawa 2012 http://cimeobjectif2017.org/wp-content/uploads/2013/02/MANIFESTE-D_OTTAWA-2012.pdf) , on a pu voir des mouvements citoyens réclamer « transparence » et « accountability », (http://www.accountability.org/) c’est nouveau aussi. En 1968, les valeurs et des aspirations sociales et des manières de construire l’action publique et la solidarité, qui étaient différentes.
De même, on peut être frappés par la naissance d’un mouvement comme « Patient like me » (http://www.patientslikeme.com/), qui permet à des gens atteints de maladies rares de s’organiser pour devenir acteur de leur propre thérapie. Dans de nombreuses maladies, notamment les cancers, la médecine ne travaille pas encore sur la variété des causes génétiques ou environnementales. Chacun se dit : « moi je vais aider la médecine, je vais produire de la donnée, je vais chercher des patients qui ont un symptôme voisin et réunir ceux qui ont la même maladie, et je vais ainsi fournir des données de cohorte à mon équipe médicale ». Si un japonais découvre qu’il est bénéfique de prendre son traitement juste après avoir bu du thé vert, il le partage auprès de cette communauté. Une solidarité s’instaure avec d’autres patients.
La donnée au cœur des stratégies industrielles
Du coup, on voit des stratégies industrielles se réorganiser autour de la donnée. Quand Apple met 200 ingénieurs sur un projet Apple Map, ils ont des raisons de penser qu’ils vont savoir le faire. Mais ça n’a pas marché. Pourquoi ? Parce que quand Google a 200 salariés pour la Google Map, il a aussi une « usine » de 5000 personnes en Inde, qui reçoivent chaque jour des photos de véhicules de Street View et qui passent leur temps à retravailler les cartes en intégrant des détails (changement de nom de rue, rue barrée). La qualité de données de Google Map est infiniment supérieure à celle d’Apple. Les données sur lesquelles sont faites les Google Map sont actualisées en temps réel. La qualité de la donnée est stratégique, c’est la clé de la victoire de Google. Tous les gouvernements sont concernés.
Casino ou Carrefour, optimisent les zones de chalandise, au regard des données Insee ou en recueillant les données des impôts. C’est un autre terrain de la révolution de la donnée : l’optimisation de systèmes complexes (ici, la zone de chalandises) avec un apport de données de masses.
Il y a un an et demi, L’ile de Malte a mis en concurrence Veolia, GDF Suez sur le marché de l’eau et de l’électricité. Qui est-ce qui a gagné ? C’est IBM qui a raflé l’appel d’offre en faisant valoir le concept« la smart city »et ensuite, ils ont commandé des tuyaux à GDF ou Veolia.
Chez Suez ou chez Veolia, ils ont recruté quelqu’un pour faire de l’open data sur la transparence de la qualité des eaux. Proposer aux citoyens d’aller vérifier par eux-mêmes la qualité des eaux ça va devenir des stratégies de com.
Il y a aussi ces journalistes qui viennent nous trouver chez Etalab, ils ont de moins en moins d’argent pour faire de grandes enquêtes, et se demandent s’ils ne peuvent pas se repositionner pour faire leur travail à partir des données brutes. Sur la plupart des grands débats sur la société française on manque de référentiels. Sur le mariage pour tous, par exemple, on aurait aimé avoir un éclairage de fond sur le nombre d’adoptions nationales ou internationales, combien d’enfants adoptés par des couples d’homosexuels, combien de demandes d’adoption. C’aurait été bien dans ce débat qu’on s’appuie sur des tendances lourdes.
Conséquence sur la stratégie de création des valeurs dans l’économie des plates-formes.
Un jour, Jeff Bezos, le patron d’Amazon, a dit à ses équipes : « on a fait une base de données incroyable, un million de livres, des algorithmes pour indiquer que ceux qui aiment tel livre vont aimer tel autre, le paiement en un clic, le système de livraison avec une logistique. On va laisser les concurrents, les bloggeurs, hackers pourront prendre ce qu’ils veulent de la plate-forme, faire leur blog de livres en utilisant notre logiciel de recommandation, vendre ». Contrairement aux craintes du Conseil d’administration qui croyaient que les concurrents casseraient les prix et que ça serait négatif pour Amazon, ils ont pratiquement doublé le chiffre d’affaires dans les deux trois ans qui ont suivi parce qu’ils ont attiré toute la chalandise, tous les clients. Tout le monde finissait par acheter chez Amazon, se faire recommander un deuxième livre.
Une vraie stratégie : savoir donner de la donnée
Le paradoxe de l’économie des plates-formes, leur développement c’est que c’est souvent en donnant de la donnée qu’on attire à soi l’innovation, le développement.
Le jour où Apple décide qu’il n’est pas seulement un fabricant de téléphone mais un Appstore, il lance un mouvement qui va susciter 1 million d’applications dans l’Apple store, 15 milliards de CA pour Apple. Combien de temps ça coûte de faire une application moyenne ? Si une application c’est six mois hommes, ça fait 500 000 années ingénieurs concentrées, que Apple ne paye pas et dont il prélève 30 % du CA. Facebook fait pareil, en acceptant toutes sortes d’applications, comme celles de Zynga (les jeux sociaux), qui est coté à plusieurs milliards de dollars.
C’est une vraie stratégie de savoir donner de la donnée, surtout à travers des API (Interface pour des programmeurs). Les gens s’organisent autour de vous, vous êtes au coeur du cœur.
Chez MFG Lab, nous avions ainsi testé une Application cinéma pour recommander des films pour laquelle nous avons recueilli les avis, donnés par 100 000 français sur Facebook.
C’est ce que deviennent les stratégies de gouvernance, autour de l’open data. Les gouvernements apprennent à créer des nouvelles externalités positives, de nouvelles formes d’infrastructures.
Obama vient ainsi de relancer la seconde politique d’open data le 9mai dernier. http://www.henriverdier.com/2013/05/la-maison-blanche-lance-la-deuxieme.html,
« Le Président Barack Obama, convaincu que "les données sont une ressource dont la valeur croît d'autant plus qu'elle est aisément accessible par le public" a annoncé un ensemble de mesures destinées à accélérer la politique d'open data. On se rappelle que le Mémorandum sur la transparence et l'open gouvernement avait été la première décision signée par Obama après sa prise de fonctions en 2009… C’est ce qui s’est passé le jour où l’armée américaine a accepté, sur requête de Bill Clinton en 2000, de donner accès au réseau GPS aux applications civiles. Ou quand les Etats-Unis ont décidé de diffuser gratuitement l’information météorologique brute, générant plus d’argent en impôts sur les sociétés qu’il n’en été perdu en recettes. Ou quand ils ont fait accepter la réforme de la protection sociale en construisant une plus grande transparence sur les dépenses et l’efficacité du système de santé. Ce sont des stratégies de gouvernances d’un nouveau genre.
La Ville de New-York a choisi de donner toutes les données brutes sur les infractions sanitaires et le New-York Times a réalisé des graphiques sur les restaurants qui avaient des cafards, par exemple, forme de régulation de plus en plus fréquentes collective, les restaurants se dératisent très vite parce que les New-Yorkais peuvent savoir en permanence la sommes des infractions sanitaires.
C’est une forme de régulation de plus en plus fréquente
Il y aura de nouvelles formes d’infrastructures politiques, sur le transport, l’énergie. L’état devra garantir l’accès à toutes ces données qui sont un bien commun. Avant ils faisaient des routes, des écoles, ils devront garantir l’accès aux données, la transparence, qui sont un bien commun et qui vont garantir l’avenir.
Dans le cadre de l’Open gouvernance, les structures politiques organisent des vrais débats et proposent aux citoyens de coproduire des solutions. La ville de Montréal, a promis qu’elle mettrait en ligne tous les travaux de voirie telle a laissé les citoyens rajouter leurs propres informations, sur les nids de poule par exemple. Ils ont laissé les citoyens
Derrière l’open data, il y a un gouvernement qui rend le code du pouvoir apparent, qui rend le code « hackable »en prévoyant des endroits où les citoyens peuvent se mêler à la décision publique. Pour l’instant, c’est encore de la science fiction pour la France !
Prospective juridique
Cela bouleverse les fondements juridiques. Les fondements de la loi Informatique et Liberté tels qu’il s ont été imaginés en 1978 ne tiendront pas. En 1978, le législateur veut empêcher la fusion de quelques fichiers. La procédure type de la régulation est la suivante, si quelqu’un veut utiliser mes données, la CNIL examine si l’usage prévu est licite ou pas licite, ensuite, si c’est licite elle va vérifier si les données recueillies sont proportionnées à cette fin, ensuite elle contrôlera le recueil de données.
Aujourd’hui, la donnée est produit, par défaut, naturellement, au cœur des rapports sociaux. Elle n’est pas toujours centralisée, pouvant aussi passer de terminal à terminal. Les usages on ne sait pas. Il faut apprendre à protéger la vie privée, ou l’autonomie du citoyen, en designant le flux de données sortantes, sans connaître les usages. Je pense, personnellement, que les données personnelles, c’est comme le corps, c’est inaliénable.
Ça devient aussi des questions de souveraineté. Il peut y avoir une vulnérabilité en ouvrant ses données, mais une autre aussi à se laisser décrire par les données des autres. Les données qu’on produit, comme les cartes autrefois, ouvrent des voies commerciales, attirent des innovations industrielles. Si nous sommes à côté de ça, nous risquons de rester à côté de l’innovation.
Voici quelques aspects de ce nouveau paysage numérique, celui de la révolution de la donnée, qui ouvre sur un nouveau paysage politique et industriel…
Compte-rendu rédigé par Thérèse Bouveret et Henri Verdier
Bitcoin bientôt monnaie mobile au Kenya ?
Le marché des téléphones mobiles, en Afrique, est en croissance d'environ 20% par an. Au Kenya, tout particulièrement, 93% des ménages possèdent maintenant un mobile et voit une explosion des usages liée à une infrastructure robuste. C'est là, notamment, que le paiement via mobile a connu un succès remarquable avec M-Pesa (où M fait référence au mobile et Pesa est le mot swahili pour l'argent), lancé en 2007 par Safaricom et qui permet aux kenyans de payer des factures ou de transférer des fonds. Le succès est tel que 30% du PIB du pays passe par M-Pesa…
Aussi certains (comme Noel Jones) s'attendent à voir arriver en force le système Bitcoin, au point même d'imaginer que ce soit La monnaie du numérique kenyan.
Car l'utilisation de M-Pesa entraine des frais (il faut bien rémunérer le service de Safaricom) et parce que le gouvernement, sensible à cette manne, a commencé à taxer les transactions mobiles. L'universalité des services est aussi en cause, aucune application mobile n'étant capable de traverser les frontières. Les kenyans sont toujours contraints d'utiliser Western Union, qui charge jusqu'à 20% pour des virements internationaux.
Si Bitcoin reste encore confidentiel (avec seulement 1300 téléchargements dans un pays qui compte 41 millions d'habitants) il ne serait pas surprenant de le voir se répandre rapidement.
Philippe Poux, Président de l'atelier Paiement Mobile
Une première : formation dématérialisation
Comment mettre en place un projet de dématérialisation dans une entreprise ? Dans une collectivité ? Quelles applications privilégier ? Pour quel budget et qui s’en chargera ?
Pour aider les professionnels dans leur démarche, l’Echangeur Basse-Normandie et l’Institut Supérieur de la Formation ont créé une formation diplômante, sous format d’alternance ou de modules à la carte en fonction du projet : Formation Chargé(é) de Projet en Systèmes Informatiques Appliqués : Spécialité Dématérialisation.
Pour plus d’informations, contactez Mylène Jaubert – Echangeur Basse Normandie – Tél. 02 33 80 87 50
Une nouvelle bande de fréquences à transférer de l’audiovisuel vers les télécoms afin d’accompagner la croissance des usages mobiles
Selon les Echos du 17 mai, lors du Conseil de Défense du 10 avril dernier, l’Elysée a pris la décision de principe de proposer aux opérateurs de télécommunications mobiles des nouvelles fréquences dans la bande des 700 MHz utilisées aujourd’hui par la TNT. L’argent récupéré à l’issue de leur mise aux enchères servirait à financer en partie le programme militaire pour les années à venir.
Cette décision provoque une levée de bouclier des chaines TV qui voient, à nouveau, leur patrimoine de fréquences se réduire après le premier « dividende numérique » qui, en janvier 2012, avait déjà été attribué aux opérateurs mobiles. Les chaines TV espèrent, en effet, utiliser ces fréquences pour poursuivre la migration vers la TNT HD (1080p : 1920 x 1080 pixels) et introduire à plus long terme la TNT Ultra HD (3840 x 2160 pixels).
Le premier dividende numérique : des fréquences issues de l’extinction de la télévision analogique
Jusqu’en novembre 2011, la télévision analogique a utilisé les fréquences allant de 470 MHz à 862 MHz. Le passage des chaines TV au numérique, moins consommateur en fréquences, a permis d’attribuer des canaux à de nouvelles chaines TV tout en libérant une bande de 72 MHz appelée « dividende numérique ».
Cette bande, dites « 800 MHz », couvrant les fréquences de 790 MHz à 862 MHz (canaux 61 à 69) a été réaffectée aux services mobiles 4G et attribuée en janvier 2012 aux opérateurs télécoms pour un montant global de 2,64 Mds €.
Un second dividende numérique pour faire face à la croissance de trafic mobile
Selon l’étude Visual Networking Index réalisée chaque année par Cisco, dont la dernière édition a été publiée en février dernier, le trafic data mobile mondial a cru de 70% en 2012. La moitié de ce trafic est de la vidéo dont l’usage est favorisé d’une part via l’augmentation de la taille des écrans (smartphones, tablettes, …) et d’autre part via la croissance des débits liée aux nouvelles technologies (3G 42 Mbps, 4G).
Dans les cinq ans à venir, Cisco prévoit une multiplication par 13 du trafic sur les réseaux mobiles soit une croissance CAGR de 66% chaque année.
La réaffectation d’une bande de fréquences pour les télécommunications mobiles est un processus très long (de l’ordre de la décennie). Avant même l’attribution du premier dividende numérique, des études avaient été menées au niveau international afin d’identifier ce deuxième dividende numérique.
L’usage des fréquences, une réglementation qui fait l’objet d’un traité international
Tous les 3 à 5 ans, le groupe Radiocommunication de l’Union Internationale des Télécommunications (UIT-R) organise la Conférence Mondiale des Radiocommunications (CMR) qui vise à réviser le Règlement des Radiocommunications (RR). Ce dernier est un traité international qui, selon les régions géographiques, définit, pour chaque bande de fréquences, les règles d’usage : catégorie de services (ex : maritime et aéronautique) et contraintes (ex : limites de puissance).
Lors de la dernière CMR qui s’est tenue à Genève du 23 janvier au 17 février 2012, il a été donné la possibilité aux différents états de transférer, de l’audiovisuel vers les télécommunications mobiles, la partie haute des fréquences TNT (dite « bande 700 MHz ») allant de 694 à 790 MHz (canaux 49 à 60). A partir de 2015, chaque état sera libre de réaliser ou non le transfert de cette bande au secteur des télécommunications selon des modalités techniques qui seront traitées lors de la prochaine CMR en 2015 et des modalités administratives propres à chaque état.
L’ARCEP, le régulateur français des télécoms, suggère la réaffectation de la bande 700 MHz pour les services mobiles
Dans un avis du 5 février 2013 concernant le projet d’arrêté portant modification du tableau national de répartition des bandes de fréquences, l’ARCEP attire l’attention du Premier Ministre sur la nécessité de faire correspondre les quantités de fréquences avec les volumes de trafic mobiles attendus. Le régulateur souligne l’enjeu de ces fréquences « basses » pour l'aménagement du territoire, la concurrence sur le marché mobile et la valorisation du domaine public hertzien.
Réaffecter la bande 700 MHz pour les services mobiles, c’est amputer l’audiovisuel de 30% de son patrimoine fréquentiel
Actuellement, la TNT diffuse 32 chaines TV dont 11 sont en haute définition. Ces chaines sont regroupées au sein de multiplex. Ceux-ci peuvent contenir 6 chaines SD ou 3 chaines HD ou une combinaison de chaines SD et HD (ex : 1 chaine HD et 4 chaines SD). Sur l’émetteur de Paris-Tour Eiffel, une dizaine de multiplex sont émis : 9 permanents de R1 à R8 + R15 et le multiplex temporaire L9. Chaque multiplex est diffusé sur l’un des 40 canaux TNT de 8 MHz.
Réaffecter la bande 700 MHz pour les services mobiles consistera à amputer la TNT de 12 canaux (49 à 60). Cela entrainera un réaménagement des fréquences et un reparamétrage des décodeurs TNT. A titre d’exemple, le multiplex R8, qui porte les chaines HD 6TER, RMC DECOUVERTE et NUMERO 23, est diffusé à Paris sur le canal 58 qui fera donc partie du deuxième dividende numérique.
L’écosystème de la TNT arc-bouté contre la position de l’Elysée
Mis à part le fait que la possibilité d’utiliser de manière exclusive des fréquences participe à la valorisation de son détenteur (que l’on soit un acteur média ou télécom…), l’écosystème de la TNT n’est pas prêt à renoncer à des bandes de fréquences qui faciliteront le passage de l’ensemble des chaines à la HD.
A plus long terme, l’enjeu est la disponibilité de suffisamment de canaux pour les multiplex qui porteront les chaines en Ultra Haute Définition (TV 4K ayant une définition de 3840 x 2160 pixels).
Bien entendu, les chaines devront être diffusées simultanément dans les différents formats tant que le parc de TV et de décodeurs TNT se répartira selon ces différentes définitions de tuners.
Pour autant, des solutions existent afin d’augmenter la définition des chaines TV sans augmenter dans les mêmes proportions les besoins en fréquences. Le passage de la TNT à la norme DVB-T2, plus rapide, et plus précisément les performances en compression de la norme de codage vidéo H265/HEVC (High Efficiency Video Coding) permettra des gains de l’ordre de 50% par rapport à l’actuelle norme de codage vidéo H264/MPEG4.
Cette fois aussi, l’usage d’une nouvelle norme nécessitera de s’équiper de téléviseurs ou de décodeurs TNT de nouvelle génération. Un renouvellement du parc que les ménages n’envisagent pas nécessairement dans un délai aussi court après le passage forcé de l’analogique au numérique.
Reste la question de la pérennité d’un si grand nombre de chaines sur la TNT dans un contexte de baisse des revenus publicitaires lié à la dilution de l’audience et la diffusion simultanée de ces chaines dans les offres Internet 3-play. Le coût de diffusion d’une chaine sur la TNT est de l’ordre de 7 M€/an en SD et le double en HD. Certaines chaines se plaignent d’ailleurs que leur coût de diffusion égale le budget consacré à la fabrication des programmes…
Des opérateurs intéressés par des fréquences ayant une bonne qualité de propagation mais qui doivent « digérer » le coût des premières fréquences 4G alors qu’ils sont entrainés dans la spirale des offres low-cost.
Pour les opérateurs, accéder de manière exclusive à de nouvelles fréquences est toujours positif d’autant plus que, comme il a été dit plus haut, cela participe à leur valorisation. Pour autant, ce n’est pas un besoin de capacité qui les motive de prime abord. En effet, il y a un an et demi, collectivement, ils ont acquis 2 x 100 MHz pour la 4G répartis sur les bandes 800 et 2600 MHz. Par ailleurs, les 2 x 75 MHz de la bande 1800 MHz pourront migrer de la 2G vers la 4G lorsqu’ils le souhaiteront. Alors que le trafic est, aujourd’hui, presque exclusivement sur la 3G, la saturation des bandes 4G, dont la technologie a une bien plus grande efficacité spectrale, prendra plusieurs années.
L’intérêt de la bande 700 MHz est surtout sa grande qualité de propagation liée à sa position basse dans le spectre des fréquences. A titre d’exemple, la bande 800 MHz qui sera utilisée par la 4G a une portée de 20% supérieure à la bande 900 MHz utilisée conjointement par la 2G et la 3G. La bande 900 MHz ayant elle-même une portée de plus de 80% supérieure à la bande 2100 MHz qui a été attribuée au début des années 2000 pour la 3G.
La bande 700 MHz présente donc un grand intérêt pour couvrir les zones rurales mais aussi les zones urbaines afin de pénétrer plus loin dans les bâtiments.
Ce n’est cependant pas là l’intérêt majeur de la bande 700 MHz. Il faut en effet se souvenir qu’elle est contiguë avec la bande 800 MHz. Les opérateurs détenteurs de fréquences dans cette bande n’ont obtenu que 2 x 10 MHz alors que les débits les plus élevés de la 4G nécessitent 2 x 20 MHz. Il s’ensuit donc une 4G à deux vitesses avec des débits plus élevés dans les villes (là où le 2600 MHz peut être utilisé) et des débits plus faibles dans les campagnes (là où seul le 800 MHz sera utilisé).
Le transfert de la bande 700 MHz de l’audiovisuel vers les télécoms n’aura donc de sens que s’il est suivi d’un refarming permettant aux opérateurs acquéreurs de constituer des blocs de fréquences contigus exploitant tout le potentiel de la technologie 4G.
Reste à financer de nouvelles enchères alors que les opérateurs viennent collectivement de dépenser plus de 3,5 Mds € pour acquérir du spectre sur les bandes 800 et 2600 MHz et que leurs revenus sont rabotés par la spirale des offres low-cost dans laquelle ils se sont engagés.
Un calendrier encore flou que le gouvernement doit préciser au plus tôt afin permettre aux acteurs concernés d’anticiper leurs besoins
Le gouvernement doit préciser, après concertation, les modalités d’attribution des fréquences : confirmation d’un transfert vers le secteur des télécoms au niveau européen puis au niveau national, critères liés à l’intérêt général (obligations de couverture, modalités d’accueil des MVNO, …), calendrier de libération par l’audiovisuel, montant des redevances, …
A partir de là, chaque acteur pourra anticiper ses besoins : refarming et migration technologique vers DVB-T2 et HEVC pour l’audiovisuel ; valorisation des fréquences en fonction de l’occupation du spectre pour les télécoms.
Les fréquences pour les télécoms, ce n’est pas fini…
La Conférence Mondiale des Radiocommunications de 2012 a précisé l’agenda de la prochaine CMR en 2015. L’un des points de l’agenda a pour intitulé « envisager des attributions de fréquences additionnelles au service mobile […] et identifier des bandes de fréquences additionnelles pour les télécommunications mobiles internationales […] ».
Aucune bande n’a été précisée dans les compte-rendus de la CMR 2012 mais celles évoquées sont 1427 – 1525 MHz, 1980 – 2010MHz, 2090 – 2110 MHz, 2170 – 2215MHz, 2700 – 2900 MHz et 3800 – 4200 MHz. Les études à mener d’ici la prochaine CMR le seront par un groupe de travail comprenant les différentes commissions (services satellites, services de radiodiffusion, services scientifiques, …) ce qui laisse présager un ralentissement des travaux : chaque commission s’emploiera à déclarer que la bande de fréquences identifiée dans son patrimoine n’est pas appropriée pour un transfert vers les télécoms.
L’exploitation des « espaces blancs » (white spaces) : libérer les fréquences pour optimiser leur usage
Une autre voie consiste à utiliser des fréquences attribuées mais non utilisées dans certaines zones par exemple parce que la population est moins dense. Ce principe d’allocation dynamique de fréquences inutilisées localement existe déjà aux Etats-Unis.
Techniquement, les équipements réseaux et terminaux doivent embarquer des fonctions dites « cognitives » leur permettant d’utiliser dynamiquement des fréquences en fonction de leur localisation géographique transmise à une base de données recensant les espaces blancs par zones.
Les premières bandes de fréquences identifiées étant attribuées à la TV, leurs positions basses dans le spectre des fréquences présentent d’ors et déjà un intérêt en terme de propagation du signal.
Cette nouvelle forme de gestion dynamique du spectre contribuera à la fin du principe de rareté des fréquences ce qui aura un effet bénéfique sur le montant des enchères… mais au détriment du budget de l’état.
Jean-Marc Do Livramento, consultant télécom fixe et mobile
9ème édition du Baromètre de l’innovation
ALMA CG lance la 9ème édition du Baromètre de l’innovation. Cette enquête permettra notamment de comparer les Financements à l’innovation obtenus par une entreprise à ceux obtenus dans un secteur ou par des entreprises de même taille.
Dans un contexte économique tendu, où l’utilité de chaque dispositif du financement de l’innovation est étudiée, ALMA CG et [Nom_Partenaire] souhaitent recueillir votre avis.
Le baromètre a pour objectifs de dresser un panorama d’opinion international sur les thèmes de la compétitivité, de l’innovation et des moyens de financement de l’innovation et leur finalité.
Pour ce faire, ALMA CG et [Nom_Partenaire] ont confié à l’Institut CSA la réalisation d’une enquête dont vous pourrez recevoir directement les résultats. Faites comme de nombreuses entreprises qui ont déjà répondu à l’enquête : participez et donnez, vous aussi, votre point de vue !
Votre participation à cette enquête ne vous prendra qu'une quinzaine de minutes et sera très précieuse. Pour ce faire, nous vous remercions de cliquer sur le lien suivant : Accédez à l'enquête
Les résultats de cette enquête seront dévoilés dès le mois de novembre 2013 et communiqués en intégralité aux répondants. Nous nous associons à Alma CG pour vous présenter tous nos remerciements pour votre participation.
Découvrez les résultats du 8ème baromètre de l'innovation
Pour toutes demandes complémentaires : David REKANGALT, Responsable Marketing Stratégique, drekangalt@almacg.com.
Pour plus d’information sur ALMA CG : www.almacg.com
Phising : une belle croissance !
Simple à mettre en œuvre, le phishing jouit d'un bel essor : 87 % en un an, 60 % au niveau national. Russie et États-Unis attirent à eux seuls près du tiers des attaques.
Je ne puis pourtant m'empêcher d'être optimiste (!) : on peut noter une sensible décroissance du phishing par mail. En attribuant cette désaffection à l'expérience acquise par des utilisateurs maintenant aguerris, ne pourrions-nous pas espérer à terme une baisse de la rentabilité de la technique, d'où une décroissance ? La simple vérification de l'adresse du site constitue souvent une parade efficace.
Le phishing se déplace de plus en plus des mails vers les liens proposés dans des forum ou dans des bannières publicitaires et concerne essentiellement des services financiers ou de paiements. Les réseaux sociaux ne sont pas en reste et sont appréciés pour la moisson d'identifiants fort appréciés pour des campagnes de spam ou des intrusions.
Je ne puis m'empêcher de faire le parallèle avec un propos que tenait un responsable qualité il y a bien longtemps : si tu informatises un processus qui tourne bien, tu décuples son efficacité. À l'inverse s'il présente quelques lacunes tu cours à la catastrophe. Appliqué au manque de vigilance vis a vis de demande de coordonnées, ce postulat retrouve toute sa vérité.
Rappelons que le phishing consiste à tromper l'utilisateur en lui présentant une page copie quasiment conforme d'un organisme familier afin de récupérer ses informations d'identifiant et de mot de passe. Rappelons également que le terme phishing se prononce en français hameçonnage voire filoutage.
Jacques Baudron, Secrétaire adjoint de Forum ATENA
14 novembre 2013, colloque Forum ATENA / Medef sur l'identité numérique
Le jeudi 14 novembre prochain se déroulera l’édition 2013 du colloque « Identité numérique » organisé par Forum ATENA et le MEDEF, en partenariat avec la Poste, Natural Security, Orange, Morpho (groupe Safran) et la Société Générale.
Le thème retenu est « l’identité numérique, relais de la croissance économique ».
Des experts européens et français, issus de nombreux secteurs économiques, viendront témoigner et débattre autour des sujets suivants :
- L’identité numérique source de croissance en Europe
- Quelles identités numériques pour la France ?
- Quels niveaux de sécurité face aux usages et aux risques ?
- Comment l’identité numérique transforme les services ?
L’intérêt croissant suscité par les précédents colloques Identité numérique a amené le comité de pilotage à privilégier l’organisation du colloque de 9h00 à 17h30.
Consultez dès maintenant le programme de cet événement et réservez dès à présent cette journée dans votre agenda.
Cet évènement a également reçu le soutien de l’alliance pour la confiance numérique (ACN) de l’association de l’économie numérique (ACSEL), de la fédération du e-commerce et de la vente à distance (FEVAD), de la fédération bancaire française (FBF), de la fédération française des télécoms (FFTELECOMS), de la fédération des industries électriques, électroniques et de communication (FIEEC), de la fédération nationale des tiers de confiance (FNTC), et du pôle de compétitivité des transactions électroniques sécurisées (Pôle TES).
En espérant avoir le plaisir de vous retrouver pour cette troisième édition.
Guy de Felcourt, Président de l'Atelier Identité Numérique Forum ATENA
Des nouvelles de l'atelier d'écriture
Nous avons le plaisir de mettre en ligne un livre blanc "Le Cloud : entre menace et opportunité" par Amanda Hanana. Amanda est étudiante à l'université paris Ouest où elle prépare le mastère "management du risque.
Sur un sujet d'actualité, ce livre blanc fait la part entre le rêve et la réalité du Cloud.
A télécharger sur notre page "Livres et Livres blancs"
Michèle Germain, Présidente de l'atelier d'écriture de Forum ATENA
Jeudi 14 novembre Organisé par Forum Atena, en partenariat avec le MEDEF L'identité numérique : relais de la croissance économique |
2 au 4 octobre
Abidjan
Rencontres d’Affaires dans le secteur des applications mobiles et des services télécoms
Jeudi 21 novembre
Alençon
6ème Forum international de la dématérialisation