Document sans nom

Newsletter n°57 – février 2013

 

Edito

Le chiffre du mois

Dossier du mois : 4G
La réutilisation des fréquences 2G par la 4G, les raisons d’un affrontement
Mythes et légendes sur la 4G

Actualités :
La confiance digitale dans l’économie numérique
Synthèse « L’avenir des médias passe-t-il par leur socialisation ? »
Les consommateurs prennent le pouvoir
La science part en guerre contre les revues payantes
Rencontres d’Affaires télécom / numérique en Corée du Sud et au Japon
Le Collectif du Numérique appelle le Gouvernement à mettre « l’avantage numérique » de la France au cœur de ses priorités
Accessibilité et contenu audiovisuel : de l’innovation sociale vers des opportunités de marché

Agenda

     

Edito

La neutralité du Net, de la fumée au feu :

Ces derniers mois,  les entraves à la neutralité du Net n’ont pas manqué, nous permettant de nous interroger sur la transparence des offres d’accès à Internet, particulièrement pour le grand public.
Blocage par défaut de la publicité, accès payant à un service gratuit de CatchUp TV (TV différée), différents avec Google, Megaupload, Cogent, les taxes Google, Collin et Colin et le projet de taxation des données personnelles, et j’en oublie.
Et du coté des contenus, des services, c’est l’Hadopi qui se cherche, la tentative de censure de Twitter, ou le respect, ou non, des données personnelles chez Facebook, ou Google, et encore là bien d’autres.

L’Internet et la libéralisation des télécoms ont redistribué la valeur entre les acteurs, les historiques et les nouveaux. La place du terminal intelligent ne cesse de croître, donnant un rôle accru aux constructeurs de terminaux, mais aussi aux éditeurs de contenu, musique, vidéo, jeux, applicatifs, e-commerce, réseaux sociaux.
Le Cloud va aussi redistribuer en partie la valeur pour le marché de l’entreprise.

Ce Nouveau Monde numérique est une formidable opportunité, une création de valeur supplémentaire, et au bout de la chaîne (mais au bout de la chaîne seulement, selon moi) une nouvelle manne à redistribuer, au profit du consommateur, du citoyen.

Nos dirigeants (actuels ou passés) semblent peu enclins à s’emparer du sujet dans sa globalité, préférant les petites touches, la recherche de nouvelles taxes, au risque de tuer le potentiel de valeur avant qu’il ait eu le temps de s’exprimer.
Et pourtant, pour la France, ces opportunités sont une occasion supplémentaire de démontrer notre créativité, notre compréhension des évolutions et notre capacité à transformer les opportunités.
Mais ne boudons pas notre plaisir de voir un peu d’entrain, dans le plan Haut débit du gouvernement, un peu d’ambition, de perspective, une vision ? Souhaitons-le !
L’infrastructure est nécessaire, elle permettra aux services de s’épanouir, mais n’oublions pas les services, la France et l’Europe sont trop dépendantes des acteurs nord-américains.

Philippe Recouppé, Président de Forum ATENA


Le chiffre du mois : 2

La France se place deuxième dans le nombre de terminaux connectés. Dans son étude publiée le 11 février 2013, Zenith Optimedia annonce que la France est le deuxième pays le plus connecté au monde, derrière la Norvège, mais devant 10 pays européens, les Etats-Unis, le Canada, l’Australie, la Chine, le Japon, la Corée du Sud, le Brésil, Israël. L’étude porte sur les chiffres 2012 et une projection sur 2015 pour les terminaux connecté de type smartphones, tablettes, TV connectées, Box et STB, … Lire http://www.offremedia.com/media/deliacms/media/1210/121092-8a0039.pdf


La réutilisation des fréquences 2G par la 4G, les raisons d’un affrontement

Depuis fin 2012, les communiqués de presse se succèdent concernant la 4G. D’un côté, les offres commerciales et le programme des villes couvertes. De l’autre, les sorties de smartphones et de tablettes 4G. Mais, paradoxalement, c’est plutôt sur un aspect technique particulier que se concentrent les débats aujourd’hui. Décryptage… 

Au cours du deuxième semestre 2011, les bandes de fréquences 800 et 2600 MHz ont été mises aux enchères pour permettre aux opérateurs mobiles de déployer leurs services 4G. Attribuées pour un total de plus de 3,5 Mds €, elles n’en présentent pas moins quelques contraintes d’utilisation pour un déploiement rapide de la technologie.

La bande de fréquences 800 MHz libérée par l’extinction de la télévision analogique

Sa position basse dans le spectre des fréquences lui permet de couvrir efficacement l’intérieur des bâtiments dans les zones urbaines et de vastes zones rurales à faible densité de population. Par contre, sa proximité avec les fréquences de la TNT font craindre des cas de brouillage de la réception des chaines de télévision. Un certain nombre d’expérimentations sont donc menées en 2013 afin de valider des filtres de protection à installer derrière les antennes TV.

La bande de fréquences 2600 MHz qui avait été réservée à l’origine pour l’extension de la 3G

Avec des blocs d’une largeur de 15 à 20 MHz, cette bande de fréquences permettra aux opérateurs de proposer les débits 4G les plus élevés. Cependant, au contraire de la bande 800 MHz, sa position élevée dans le spectre des fréquences restreint la portée du signal radio. Elle est utilisée par les réseaux ouverts commercialement en France depuis fin 2012 malgré les contraintes de déploiement qu’elle impose aux opérateurs : disponibilité progressive d’ici mars 2014 selon les régions administratives et coordination technique avec les utilisateurs de radéars utilisant la bande de fréquences juste au-dessus.

Réutiliser des fréquences 2G, un moyen de déployer plus vite et de faire baisser drastiquement la facture de la 4G

Les bandes de fréquences 800 et 2600 MHz étant nouvelles pour les télécommunications mobiles, elles ne sont pas couvertes par les antennes utilisées jusqu’à présent par les opérateurs. Il faut installer de nouvelles antennes sur chaque site et faire évoluer les stations de base radio. Cela a un coût, certes, mais c’est sans compter aussi avec les aspects administratifs et techniques du déploiement d’antennes : dossier à constituer notamment lorsqu’une charte a été signée avec la mairie, renégociation éventuelle du bail de chaque site radio, travaux d’aménagement du site et d’intégration paysagère de l’antenne, risque d’opposition des riverains lors de l’installation de l’antenne, etc. Pour ces différentes raisons, la réutilisation de la bande de fréquences 1800 MHz déjà utilisée par la 2G est évoquée. Le déploiement de la 4G ne consiste alors qu’à installer de nouveaux modules dans les stations de base radio (facilité par le fait que les réseaux 2G ont été rénovés avec des stations de base dites multistandardscompatibles 2G, 3G et 4G). Dès lors qu’il n’y a plus d’antenne à déployer, d’une part, le prix unitaire d’un site est drastiquement réduit (dans des ordres de grandeurs qui varient selon le modèle de coût des fournisseurs d’équipements radio) et d’autre part, le déploiement de la 4G est beaucoup plus rapide. De surcroit, la propagation d’un signal radio à 1800 MHz est plus importante de quelques dizaines de pourcents par rapport à un signal radio à 2600 MHz. On minimise ainsi les risques d’avoir à construire de nouveaux sites pour combler les trous de couverture.

Mais faire de la 4G sur 1800 MHz n’est pas à la portée de tous les opérateurs, tout de suite…

Mis à part le dernier opérateur arrivé sur le marché, les trois autres disposent chacun d’un peu plus de 20 MHz sur cette bande de fréquences. Elle est utilisée par des terminaux exclusivement 2G ou par des terminaux 2G/3G hors de portée de le couverture 3G. Le renouvellement des terminaux exclusivement 2G par des modèles plus récents dotés de capacité 3G et l’extension de la couverture 3G libère progressivement des canaux 1800. Dès que ces canaux sont en nombre suffisant, ils peuvent alors être agrégés en un bloc, par exemple de 10 MHz, pour être réalloués à la 4G. Toute la question est la capacité pour chaque opérateur à disposer de suffisamment de canaux libres pour construire ce bloc de 10 MHz. C’est plus ou moins facile selon l’importance de la base client dont plus particulièrement la part qui a encore des terminaux exclusivement 2G. Autant dire que pour les opérateurs les plus gros et dans les zones les plus denses en population comme le centre des grandes agglomérations, cela est quasi impossible à court terme sans augmenter fortement le risque de congestion du réseau 2G. C’est un cas de figure qui s’est d’ailleurs présenté avec la réutilisation de la bande 900 MHz pour faire de la 3G.

Les opérateurs suspendus à une décision du régulateur

Aujourd’hui, la réglementation en vigueur en France réserve la bande de fréquences 1800 MHz aux technologies 2G et 3G. Permettre le déploiement de la 4G nécessite de réviser les autorisations des opérateurs conformément à une décision de la Commission Européenne prise en 2011. En juillet 2012, l’ARCEP a été saisie d’une demande de neutralité technologique dans l’usage de la bande de fréquences 1800 MHz permettant ainsi son utilisation pour déployer un réseau 4G. Quelques jours après, le régulateur a reçu une autre demande visant cette fois à rééquilibrer les quantités de fréquences de la bande entre les quatre opérateurs mobiles. Ce principe, appelérefarming consistera à retirer quelques MHz à chacun des trois opérateurs historiques afin de les réallouer en bloc au quatrième opérateur. Une réduction supplémentaire de spectre pour la 2G qui rendra encore plus complexe le déploiement de la 4G pour les opérateurs ayant une base client importante.

Le régulateur dispose de huit mois à compter de la réception de la demande de neutralité technologique pour notifier la conclusion de son réexamen des autorisations. Dans la consultation publique qui a été lancée suite à cette demande, l’ARCEP a d’ores et déjà indiqué qu’elle était tenue de prendre « les mesures appropriées afin que soient respectés le principe d’égalité entre opérateurs et les conditions d’une concurrence effective ». Courant mars, l’ARCEP se prononcera non seulement sur la possibilité de déployer la 4G sur la bande 1800 MHz mais aussi sur les conditions de cette autorisation : mise en place d’un refarming et date de prise d’effet de l’autorisation à savoir dès 2013 ou plus tardivement comme le demandent certains opérateurs. Reste alors la question du montant des redevances associées à ce nouvel usage des fréquences. Il est, cette fois, du ressort du Gouvernement et du Parlement…

Jean-Marc Do Livramento, consultant télécom fixe et mobile


Mythes et légendes de la 4G

Traditionnellement dans cette newsletter de l’association Forum ATENA, nous insérons un des mythes traités dans le tome 1 ou le tome 2 de notre livre collectif "Mythes et légendes des TIC", auquel vous pouvez bien sûr, vous aussi, contribuer. Le thème général de cette newsletter étant la "4G", voici le premier des quatre Mythes et légendes de la 4G, que Jean-Marc Do Livramento, Consultant Télécom Fixe et Mobile, a traité dans le tome 2.
 
Pour être acteur, et pas seulement lecteur, demandez-moi par e-mail comment procéder : gerard.peliks (at) cassidian.com
 
MYTHE N° 1 : 
LA 4G, C’EST MIEUX QUE LA 3G ! 
 
C’est vrai !
 
Dès sa première version, le LTE a été conçu pour optimiser les performances dans le transfert de données en mobilité :
  • Une gestion des ressources radio (OFDM du réseau vers les terminaux) réduisant les risques d’interférences lors de la réception des données : les débits sont plus élevés car il y a moins de données à retransférer.
  • Une modulation du signal radio transmettant plus d’informations dans un même intervalle de temps (jusqu’à 64QAM) : pour une même largeur de bande de fréquences, les débits sont plus élevés.
  • Une canalisation plus grande (jusqu’à 20 MHz) : les débits sont plus élevés parce qu’un transfert de données peut utiliser plus de ressources radio simultanément. Le LTE reste toutefois une technologie agile puisqu’il est possible de l’utiliser également sur des canalisations plus petites (1,4 MHz, 3 MHz, 5 MHz, 10 MHz et 15 MHz) au prix tout de même d’une réduction du débit.
  • Une transmission simultanée sur, au moins, deux antennes en émission et en réception (MIMO 2×2) : le débit est plus élevé puisque, en bonnes conditions radio, ce multiplexage répartit les données à transférer sur deux antennes. Même en mauvaises conditions radio, le débit est plus élevé grâce à la diversité du MIMO : les mêmes données sont transmises simultanément sur les deux antennes afin que la recombinaison des flux radio donne un meilleur signal.
  • Une architecture de réseau simplifiée avec moins d’équipements à traverser lors des transferts de données : c’est une meilleure réactivité dans les échanges car il y a moins de latence lors de la traversée du réseau.
  • Une architecture de réseau conçue entièrement en IP : c’est également une meilleure réactivité dans les échanges ainsi qu’une meilleure interopérabilité des services parce qu’il y a moins de transcodages de protocoles.
  • Des ressources réseau entièrement dédiées au transport de données (la téléphonie est désormais une application VoIP) : c’est encore une meilleure réactivité dans les échanges car il n’est plus nécessaire d’avoir une coordination entre des ressources gérées en mode circuit (téléphonie, SMS, …) et des ressources gérées en mode paquet (transfert de données).
  • Une accélération des mécanismes de connexion au réseau : 
    • ​ Une transition accélérée (100 ms) entre l’état de repos du terminal et son état actif (temps après le 1er clic sur un lien HTML par exemple). 
    • Une latence améliorée (20 ms) en état actif (temps après les clics suivants).
    • -> C’est une meilleure réactivité pour les applications exigeantes en QoS (jeux en réseau, streaming, …). On a enfin l’impression d’être connecté en permanence.
  • Une optimisation de la mobilité entre les réseaux de générations différentes (fonction appelée Packet Switched HandOver) : le temps d’interruption est imperceptible lors du passage d’un réseau 4G vers un réseau 3G ou 2G (ce qui se produit par exemple sur perte de couverture 4G le temps que celle-ci soit équivalente à celles des générations précédentes). Cette fonctionnalité est importante notamment pour ne pas ressentir d’interruption lors d’un appel voix ou visio.
  • Une meilleure couverture réseau grâce à l’utilisation de bandes de fréquences moins élevées que pour la 3G : la bande 800 MHz permettra de couvrir les zones rurales et l’intérieur des bâtiments (au lieu de la bande 900 MHz en 3G) et la réutilisation de la bande 1800 MHz permettra de couvrir les zones urbaines (au lieu de la bande 2100 MHz en 3G).
 
La 4G, c’est donc :
  • Plus de débit du réseau vers les terminaux afin d’échanger encore plus vite des gros fichiers ou voir des vidéos en très haute définition.
  • Mais aussi plus de débit du terminal vers le réseau afin de développer de nouveaux usages (peer to peer mobile, cloud personnel, …).
  • Une meilleure réactivité du réseau pour surfer encore plus vite ou faire des jeux en streaming.
  • Un réseau de plus grande capacité afin de palier à la saturation des réseaux 3G.
 
Avec la 4G, l’expérience client du réseau mobile rejoint l’expérience du réseau fixe. Les services peuvent être conçus d’emblés fixe/mobile. L’utilisateur peut être connecté en permanence à ses services et contenus sans se soucier du réseau qui lui donne l’accès.

Jean-Marc Do Livramento

 

 

La confiance digitale dans l’économie numérique

La confiance est une conception ancienne. Elle s’appuie dans le monde professionnel sur des obligations légales, morales et éthiques. Le serment d’Hippocrate en est le premier témoin au IVème siècle avant Jésus-Christ. Les romains ajouteront aux obligations morales telles que le consentement et la confidentialité, des mesures économiques et financières de nature à garantir la perception des impôts et éviter les fraudes pour protéger  le budget militaire de l’Empire. Ce sera l’instauration du principe de « Depositum Custody » et de « Scio qui credidi » se traduisant par les termes de « Dépositaire de la confiance » et par la formule « Je sais à qui je fais confiance ». Le dépositaire est garant du dépôt et dispose des qualités essentielles pour vérifier sa qualité et sa circulation. Plus tard, cette confiance ainsi organisée, non pas sur des opinions subjectives et spontanées, mais sur des conventions préparées, s’appuiera également sur des Juridictions pour sanctionner les abus de confiance, et sur les premiers Etats Généraux, sorte d’Assemblée des Sages, agissant préventivement sur les abus de pouvoirs, les fraudes, et autres puissances occultes nuisibles à la stabilité de l’Etat.
Comme Constantin préoccupé par la stabilité et la puissance durable de l’Empire, Anguilbert, Gendre et Conseiller de Charlemagne, ainsi que Suger, Conseiller de Louis VII, surnommé par lui « Père de la Patrie », encourageront toutes les institutions propices à la tranquillité des citoyens et à leur confiance mutuelle. On trouve encore au Musée du Louvre le « Symbole » de cette confiance, « symbole » signifiant dans l’étymologie grecque « sumbolon » (σύμβολον), qui dérive du verbe sumbalein (symballein: de syn-, avec, et -ballein, jeter) signifiant « mettre ensemble », « joindre », « comparer », « échanger », « se rencontrer », « expliquer » !
Suger offrira aux Epoux Louis VII et Aliénor d’Aquitaine un symbole de leur union, le fameux vase du Louvre, un aigle en or perché sur une amphore en porphyre, le premier symbolisant le pouvoir (Scio qui credidi) et le second le dépôt (depositum custodi).
L’économie digitale, par rapport à cette économie matérielle, est encore plus confrontée au déficit de confiance dans la mesure où la technologie envahissante et méconnue de la grande majorité des citoyens dissimule facilement, et davantage encore, les défauts dans la sécurité, en permettant ainsi aux initiés d’abuser de la confiance de leurs concitoyens naïfs ou ignorants.  L’intérêt du serment d’Hippocrate est de nos jours encore plus évident pour dissuader le savant ou le sachant d’abuser de la confiance des autres  en profitant de tous les trous inconnus de  sécurité qui permettent discrètement et sans risque de détourner le pouvoir, l’argent et les bons usages de leur éthique et de leur finalité.
La confiance numérique couvre quatre domaines d’excellence : les identités numériques avec leurs attributs et leurs pouvoirs, les documents avec leurs signatures, les modes de correspondances avec leurs preuves légales d’archivage, et les moyens de révocation, de certification, de traçabilité, et d’interopérabilité entre les usagers pour leur garantir individuellement la valeur juridique des échanges devant les tribunaux, l’exécution instantanéité de toutes leurs opérations, ainsi que la prévention à l’encontre des anomalies ou des détournements de procédures en programmant les actions correctives appropriées.
C’est à ce prix-là seulement qu’on parviendra à améliorer le déficit chronique de confiance digitale dans l’économie numérique. Ce prix n’est pas tant économique mais plutôt la remise en cause profonde de nos habitudes et de nos procédures informatiques. Pour supprimer les trous dans la sécurité, il suffit d’entreprendre le ré-engineering de nos processus existants en renforçant les quatre domaines d’excellence précités. Il en résultera pour les usagers non seulement davantage de confiance fondée sur des solutions éprouvées, mais une réduction des prix de correspondance avec une plus grande efficacité. Il suffit pour s’en convaincre d’examiner le tableau suivant qui présente le nouveau « Business Model » de l’économie digitale. On constatera que les abonnements en SaaS (Software As A Service) de la gestion et de la signature documentaire en ligne réduisent les coûts d’exploitation de 70% par rapport à l’économie matérielle fondée sur une combinaison de papiers et de fichiers introduisant des lourdeurs administratives et des fraudes en tous genres.
Le « Correspondence Mailing », c’est-à-dire la correspondance documentaire numérique pourrait s’avérer plus compétitive que le « Correspondence Banking » (Services bancaires, SEPA)  qui pratique encore des prix élevés en situation risquée. Les fraudes sur les identités numériques utilisées dans les services bancaires ont encore augmenté de 155% en 2011 et la Commission du SEPA prévoit 123 Milliards de réduction des coûts par les réformes informatiques attendues dans ce secteur d’activité.

Sources :
http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/Structural_business_statistics_overview/fr
http://www.insee.fr/fr/themes/document.asp?reg_id=0&id=3095
http://www.actufinance.fr/guide-banque/evolution-moyens-paiement.html
http://www.banque-france.fr/ccsf/fr/publications/telechar/autres/rapport_avenir_moyens_paiement.pdf

On peut synthétiser les quatre domaines d’excellence dans la sécurité de la manière suivante.
Le schéma suivant en noir montre les carences de notre dispositif de sécurité dans les quatre domaines par rapport au carré vertueux en rouge: Identité, Signature, Correspondances, Certification juridique en  « Interopérabilité » avec tous  les usagers, avec leurs opérateurs respectifs, et pour tous types de documents échangés à l’échelle mondiale.

L’économie digitale se singularise par rapport à l’économie matérielle par l’existence et  par l’indépendance d’un tiers de confiance de certification qui gère, d’une part, l’interopérabilité des opérateurs documentaires mandatés par les parties pour traiter leurs identités, signatures, et moyens de communication et de conservation électroniques, et d’autre part, pour gérer la résilience de ces écosystèmes pour en assurer durablement la confiance numérique (Conservation de 5 à 100 ans des signatures numériques). Enfin, ce tiers de confiance doit être « sincère », c’est-à-dire pas maquillé, c’est-à-dire reconnu « franc » sur un plan institutionnel qui garantit sa pérennité. Là encore les romains nous avaient tout appris en complétant les termes « Depositum Custody » et « Scio cui credidi » par le mot « SINE CERE », voulant dire «  sans cire », pas maquillé, car les Goths avaient l’habitude de les tromper en leur vendant très cher du bois d’ébène en cirant du bois de sapin en noir !

Eric Blot-Lefevre, atelier de l’économie numérique


Synthèse « L’avenir des médias passe-t-il par leur socialisation ? »

Nicolas Brizé, journaliste et rédacteur de débats, nous fait partager sa synthèse des 6èmes Assises de la Convergence des Médias, organisée par l’agence Aromates en collaboration avec l’IDATE à la Maison de la Chimie le 20 décembre 2012.

Pour lire la synthèse : http://convergencemedias.aromates.fr/wp-content/uploads/2013/01/Synthèse-6emes-Assises-de-la-Convergence-des-Médias1.pdf Tags : [numérique – médias sociaux – usages – presse – régulation – investissements – financement]

Nicolas Brizé, journaliste et rédacteur de débats


Les consommateurs prennent le pouvoir

Ce matin une chronique a attiré mon attention. Un jeune homme a tenu son pari de « manger sans huile de palme pendant un an ». Il a relaté son expérience et ses découvertes sur son blog et quelle a été sa difficulté parce que les informations sur les étiquettes des produits alimentaires sont imprécises. http://vivresanshuiledepalme.blogspot.fr/.
Le succès de ce jeune homme et de son expérience dans la presse montre l’intérêt grandissant des consommateurs pour devenir acteur d’une consommation plus responsable. On est déjà plus dans les incantations d’avant-gardistes bien qu’ils agissent comme des alerteurs leur impact reste limité. Plus récemment l’affaire des plats cuisinés Findus soit disant viande de bœuf qui était en fait du cheval nous rappelle régulièrement cette opacité créée par la mondialisation et les trop nombreux intermédiaires qui détruisent à petit feu la confiance des consommateurs.
Ces faits s’inscrivent dans un mouvement plus large qui va être la réaction des consommateurs à l’intrusion grandissante dans notre vie privée du marketing comportemental. Ce marketing va utiliser (ou utilise déjà) les information temps réel de ce que vous êtes en train de faire à cet instant avec des informations récoltées sur vous avec votre consentement et enfin avec des analyses de sentiments via les données agrégées provenant de Google, Apple, Facebook ou Amazon pour vous micro cibler et vous faire une offre commerciale qu’il vous sera difficile de refuser. Est-ce mal ? Non. Après tout, certaines de ces offres seront très utiles et suffisamment attrayantes. Devons-nous nous couper d’utiliser les téléphones, les objets internet qui collectent ces informations comme la géolocalisation qui rendent tant de services ? Certainement non. Mais alors comment protéger sa vie privée ? C’est là que le bât blesse.
Les consommateurs ont découvert la puissance du web 2.0 avec Facebook, Twitter, les blogs agissant comme une caisse de résonnance. Le marketing comportemental est une réappropriation du web par les entreprises. On pourrait le nommer web3.0 mais cette appellation est déjà largement utilisée par Tim Berners Lee pour le web sémantique, mais c’est certainement une 3eme vision du web. La réponse des consommateurs est de rejoindre une nouvelle forme de social computing appelé activist social computing qui formera les prémices de la génération suivante du web. On pourrait l’appeler le web 4 comme le web 2 était une réponse au web 1. Nous l’appellerons plutôt le « values driven customer ». Cette nouvelle forme couple le débat du social computing avec de nouvelles capacités d’action que permet le web. On a déjà entendu parler des hard activists social computing comme wikileaks ou anonymous. Hard car ils utilisent des moyens jugés par les gouvernements comme illégaux mais qui dans quelques années seront reconnus comme légitimes par les populations qui leur seront reconnaissants pour leur role d’alerteurs. Il y a aussi des exemples de soft activists social computing qui naissent en ce moment et qui permettent à une majorité silencieuse aujourd’hui d’exprimer leur frustration et d’agir en conséquence. Les modes d’actions pouvant être virtuels ce qui convient très bien à des consommateurs qui en général sont « paresseux » face à tout effort de recherche. Le consommateur moyen dont je fais partie préfère consommer ses produits habituels plutôt que de remettre en question des années de consommation. En France vous avez 3 exemples qui sont mesgouts.fr, Shopwaise.fr et Noteo.info. Ils notent les produits courants sur un certain nombre de critères notamment nutritionnels, éthiques, localisation. Ils permettent de faire vos achats selon vos valeurs et non plus uniquement en fonction du prix. Ils permettent de vivre votre vie suivant vos valeurs et/ou vos croyances. Comme ils mettent leurs applications sur mobile il est facile de scanner le code barre et d’obtenir quasiment instantanément le score et de comparer différents produits en magasin.
Ces softs activists social computing sont fragiles. Ils sont tous à la recherche d’un business model (modèle d’affaire comme disent les canadiens) qui leur permette de vivre tout en gardant une certaine indépendance. Car de cette indépendance dépend largement leur crédibilité aux yeux de leurs membres. On peut imaginer dans le futur des offres payantes qui testeraient en laboratoire tous les produits et nous permettraient d’être certain de ce que nous consommons. Des sociétés comme Hop-Cube par exemple offre ce service pour les produits gris, c’est-à-dire machines à laver, télé et autres. Ces softs activists social computing sont clés car ils contre balancent la toute puissance actuelle de GAFA (Google, Apple, Facebook et Amazon selon article de Joel de Rosnay l’ADN d’internet)et permettent au consommateur de reprendre le pouvoir sur sa vie et ses croyances largement mis à mal par un marketing omniprésent et manipulateur.
Mais il pourra aussi y avoir des modes d’actions plus physiques comme illustrés par les « bash mobs » ou les « carrot mobs » aux US. Cette forme de mobilisation aux US a été introduite par des étudiants qui se sont regroupés et ont ainsi envahis des magasins (en général de quartier) et en échange d’un chiffre d’affaire réalisé sur la matinée par la foule obtient le remplacement d’ampoules à filaments contre des ampoules basses consommations. Ces approches très américaines sont plutôt en mode win-win avec les marques et sont plus optimistes plutôt que l’affrontement stérile. Car après tout est ce que tout le monde n’a pas envie de monde meilleur ? Y compris les entreprises ?

Henry Peyret, Principal Analyst, Serving Enterprise Architect Professionals


La science part en guerre contre les revues payantes

La recherche est financée par l’argent public, mais sa visibilité reste contrôlée par des revues payantes. Des appels au changement se font entendre. L’EPFL vient ainsi de signer un texte promulguant le libre accès.
La consultation en ligne d’un seul article coûte entre 20 et 30 dollars sur les «murs payants» de revues telles que Nature, Science et The Lancet.
Les revues gratuites ne souffrent pas selon nos interlocuteurs d’un moindre prestige que leurs équivalentes payantes.  «Un Internet au service de la pensée humaine, durable, interactif et transparent». C’est tout cela que défend La Déclaration de Berlin. La convention, lancée en 2003, vient d’être ratifiée par l’Ecole polytechnique fédérale de Lausanne (EPFL).
Derrière ce geste se cache un vaste débat qui agite la communauté scientifique. La Déclaration de Berlin promeut la diffusion des travaux scientifiques en libre accès. Elle s’oppose ainsi au modèle traditionnel des revues payantes de prestige, à l’exemple de Science, Nature, Cell, ou encore, The Lancet. Actuellement, pour que leurs travaux bénéficient d’une grande visibilité, les scientifiques sont contraints de faire paraître leurs recherches dans ce type de publications.
Lire la suite http://www.tdg.ch/savoirs/science-guerre-revues-payantes/story/27728968

Article proposé par Philippe Recouppé


Rencontres d’Affaires dans le secteur des télécommunications, du numérique et de l’innovation en Corée du Sud et au Japon

À l’occasion de la visite ministérielle à Séoul et à Tokyo de Madame Fleur Pellerin, Ministre Déléguée en charge des PME, de l’Innovation et de l’Economie Numérique, Ubifrance organise des Rencontres d’Affaires dans le secteur des télécommunications, du numérique et de l’innovation du 25 au 29 mars 2013.
Le secteur IT connait une dynamique importante au Japon et en Corée du sud. Il représente 9% du PIB du Japon et contribue entre 30 et 40% à la croissance du PIB de la Corée du Sud. Les entreprises de ces deux pays sont en outre intéressées par le développement de relations commerciales ou partenariales avec des entreprises étrangères.
Ces quatre jours de rendez-vous professionnels personnalisés permettront aux entreprises françaises de rencontrer des clients ou partenaires potentiels, de promouvoir efficacement leur entreprise et leur savoir-faire et de bénéficier d’une visibilité maximale grâce à la visite ministérielle et à la diffusion d’un communiqué de presse collectif.

Pour plus d’informations sur l’événement et sur les modalités d’inscription, veuillez cliquer ici.

UBIFRANCE


Le Collectif du Numérique appelle le Gouvernement à mettre « l’avantage numérique » de la France au cœur de ses priorités

Paris, le 20 février 2013. A l’approche du séminaire gouvernemental du 28 février, le Collectif du Numérique – dont Forum ATENA fait partie – souhaite rappeler les enjeux de la politique en faveur du développement du numérique et de ses usages, parce qu’il est le levier de la modernisation de l’économie,  qu’il permet l’émergence d’entreprises de taille internationale, qu’il crée des emplois qualifiés, qu’il participe à la modernisation de l’Etat et à l’amélioration de la vie de nos concitoyens.

S’il prend acte avec satisfaction de l’ambition de l’amélioration de la compétitivité de l’économie, il appelle le Gouvernement à faire véritablement du numérique le centre de sa stratégie industrielle et de redressement productif et de marquer une volonté de faire de la France l’un des leaders mondiaux dans ce domaine.

En effet, le numérique est l’un des secteurs qui crée le plus de valeur ajoutée. Au moment où d’autres nations, notamment en Europe, s’engagent résolument sur la voie de la transformation numérique de leurs industries, services et administrations, le Collectif du Numérique s’inquiète du retard que prend la France à ne pas la considérer prioritaire.

Malgré l’engagement de la plupart des ministères pour le numérique qu’il salue, notamment celui de la Ministre Déléguée chargée des PME, de l’Innovation et du Numérique, le Collectif appelle à l’accélération de grands projets structurants qui tardent à se déployer, tels que le développement de l’e-santé et la transformation numérique de l’Etat. Ces grands projets permettraient de créer des externalités positives pour l’ensemble de l’économie en participant au redressement des comptes publics de la Nation et à un meilleur pilotage des politiques publiques.

Faute de moyens en regard des ambitions affichées, et d’un agenda à moyen terme, c’est donc la finalité de cette politique qui est aujourd’hui questionnée, afin de tirer parti du plan de déploiement du très haut débit annoncé. Pour le Collectif du Numérique, c’est « l’avantage numérique » qui devrait présider à tout développement de la politique économique, industrielle, commerciale et de réforme de l’Etat, pour relever les défis de la nouvelle révolution industrielle.

Cet « avantage numérique » passe pour les membres du Collectif du Numérique par le développement d’un cadre réglementaire et fiscal favorable à la croissance des entreprises françaises du numérique, à l’investissement dans le secteur, et aux innovations techniques, commerciales et sociales qu’il contribue à faire émerger pour tous les autres secteurs.

Pour que les Français soient convaincus et confiants, dans leurs pratiques, leur travail, et dans leur vie quotidienne des améliorations que porte le numérique et afin qu’ils y participent activement, ce cadre doit aussi favoriser l’équipement et la transition numérique des PME et des TPE pour qu’elles tirent enfin profit de l’ « avantage numérique ».

Pour le Collectif, cet « avantage numérique » doit aussi prendre en compte le contexte international fortement concurrentiel de l’écosystème numérique qui suppose de ne pas décourager les nombreuses entreprises étrangères qui ont reconnu le savoir-faire et les talents des ingénieurs et entrepreneurs français.

Le Collectif souhaite ainsi souligner que si la révolution du numérique appelle à un rééquilibrage cohérent, concerté et équitable de la fiscalité sur les activités économiques et commerciales qu’elle génère, toute réforme dans ce sens doit d’abord s’inscrire dans le cadre européen et tenir compte de la nécessité de consolider l’attractivité du territoire français en matière d’investissement.

Enfin, le Collectif du Numérique souhaite attirer tout particulièrement l’attention du Gouvernement sur la nécessité de favoriser les créations d’emplois que le numérique a la capacité de créer, pour lui-même et pour tous les autres secteurs.

A ce titre, il considère que la France droit prendre toute sa part à la coalition européenne pour le développement de l’emploi dans les nouvelles technologies, en orientant son offre de formation vers les besoins d’un secteur qui porte les plus fortes potentialités en emplois qualifiés, afin d’offrir de nouvelles perspectives à sa jeunesse.
Créé en mars 2012, le Collectif du Numérique regroupe 21 associations professionnelles, des usages et des pôles de compétitivité du numérique. Le Collectif avait recueilli les engagements des candidats à l’élection présidentielle concernant la politique du soutien au développement du numérique. A ce titre, le Collectif est attentif à la mise en œuvre de la feuille de route du Président de la République par le Gouvernement concernant cette politique.


Accessibilité et contenu audiovisuel : de l’innovation sociale vers des opportunités de marché

Qu’est-ce que l’accessibilité dans l’audiovisuel ?

Les obligations légales s’orientent de plus en plus vers l’accessibilité et l’inclusion de tous publics dans le monde de l’audiovisuel. Il s’agit de rendre accessible des films pour tous publics, y compris les malentendants, sourds, malvoyants, aveugles, etc, mais pas seulement, puisque de plus en plus de séniors, mais pas seulement, sont concernés, à des degrés divers par ces situations de handicap.

La plupart des innovations sont aujourd’hui technologiques, se créent dans des laboratoires de recherche, et sont utilisées surtout en fin de la chaîne de valeur, au niveau de la distribution/diffusion. Les producteurs, réalisateurs et scénaristes sont extrêmement peu informés de ce qui se crée dans les laboratoires, et de ce qu’ils pourraient intégrer dès l’amont dans le processus de production.

Aujourd’hui, l’accessibilité se traduit essentiellement par de l’audio-description, du sous-titrage ou du langage des signes. Si les créatifs intègrent l’accessibilité en amont et directement dans le processus de production, avec un storytelling mono- ou transmédias, de nouvelles œuvres et de nouvelles expériences d’utilisateurs grand public vont voir le jour.

Par ailleurs, et de manière générale, les acteurs de la chaine de valeur sont peu informés des enjeux et des intérêts des uns et des autres qui la composent. La télévision connectée est à l’origine de certains rapprochements avec le monde des contenus (ayant-droits, diffuseurs, chaines de télévision), elles intégreront l’accessibilité. Mais les usages sont à réinventer, et cette nouvelle donne va fortement modifier les modèles socio-économiques, être à l’origine de recompositions des acteurs.

Le fait d’intégrer l’accessibilité dès l’amont dans le processus de création, permettra, lorsque c’est bien fait, d’envisager de mettre celle-ci aux services du plus grand nombre. En ce qui concerne par exemple le vibreur du téléphone mobile, ayant a priori été inventé pour des personnes en situation de handicap, l’ensemble du grand public l’utilise aujourd’hui.

Une conférence d’innovation sociale « Media4D » pour favoriser l’intégration de l’accessibilité dans le processus de production des contenus

Les industries de l’électronique grand public, de la recherche TIC et le monde de la création des contenus ne parlent pas le même langage. Or un film est exploité d’une manière ou d’une autre sur l’ensemble des supports et les acteurs de l’audiovisuel devront composer avec l’évolution de l’interactivité et des réseaux sociaux utilisés sur l’ensemble des écrans (cinéma, télévision, ordinateur, supports mobiles).
L’ambition de «Media4D» est de rapprocher ces mondes pour dynamiser les marchés et favoriser l’apparition de nouveaux modèles socio-économiques.

Sous l’impulsion de professionnels issus de ces trois mondes, la deuxième conférence d’innovation sociale européenne « Media 4D – Le Contenu Visuel face à l’Innovation Technologique : de l’innovation sociale aux opportunités de marché » aura lieu le 29 mars 2013 à Paris.

Cette conférence a pour but de se faire rencontrer les acteurs de l’industrie du film, les chaines de télévision, instituts de recherche, associations professionnelles et d’utilisateurs, dont ceux concernés par différentes formes de handicap, les équipementiers, financeurs, législateurs/régulateurs et des représentants de la Commission Européenne. Cet événement sera aussi une plate-forme permettant à des entreprises régionales et nationales, dont notamment aux PME et TPE  de nouer des contacts avec des acteurs européens.

Ce sera l’endroit, où l’on accède à des exemples concrets, discute l’état de l’art de l’accessibilité dans le domaine de l’audiovisuel : seront passés en revue la R&D, la production de contenus, les besoins des utilisateurs. Les moyens de financement  et les modèles économiques auront une place de choix dans les discussions.
C’est pourquoi, au coté de Holken Consultants, Forum ATENA soutient l’initiative et l’accompagne.

Quels débats ?

L’objectif des quatre tables rondes organisées lors de la conférence du 30 mars est  d’une part de sensibiliser les producteurs, réalisateurs, scénaristes, les créatifs à inclure les outils ou d’idées d’accessibilité très tôt dans le processus de création. Car nous sommes convaincus que, lorsque l’accessibilité est incluse dès l’amont dans le processus de production, de narration (story telling) ou l’écriture du scénario, cela sera un départ pour la création de nouvelles œuvres, avec de la valeur ajoutée et susceptibles d’intéresser tous publics, pas seulement ceux en situation de handicap. 

D’autre part, il s’agit de faire prendre conscience de l’importance et de la diversité des d’audiences concernées par l’accessibilité, domaine de l’e-inclusion, et de comprendre leurs besoins et leurs attentes, d’identifier d’éventuelles difficultés persistantes et manquement dans l’existant aujourd’hui.

Bien au-delà, il sera opportun d’ouvrir le champ, de mener la réflexion pour intéresser le grand public à ces spécificités, autrement dit : comment transformer celles-ci en valeur ajoutée pour un public a priori non concerné par l’accessibilité.

Sur cette base, les débats développeront les positions des différents intervenants autour de 4 axes avec :

  1. Quels films sont « accessibles » et s ‘adressent à tous publics ? Quel est le rôle / l’importance du mono, cross ou transmédia ? Quels exemples existent qui ont intégré l’accessibilité, si possible dès l’amont dans le processus de production ?
  2. L’accessibilité universelle 2015 : Quelles obligations légales, quelles incitations et supports financiers des institutions publiques ?  Quelles politiques pour la ville intelligente en matière de eInclusion (générale, services, contenus) ?
  3. Quel est l’état de l’art de la technologie en Europe en matière de e-Accessibilité / e-Inclusion ? Comment elle peut intéresser le processus de création de contenus ? Comment combiner utilement des expériences d’utilisateur par l’e-inclusion et les intérêts du marché ?
  4. Que vise le régulateur ? Quel impact de la réglementation sur la diffusion/la production ? Quelles obligations ? A quelles audiences s’adresse-t-on ? Quels sont leurs besoins spécifiques? Comment y intéresser aussi les publics les plus larges ?
  5. Quelles opportunités de marché, quelles nouvelles expériences d’utilisateurs, quels  financements possibles ?

Ainsi la conférence «Média4D» fait échos à la création d’un prix sur la e-Inclusion qui a été défini comme une méthode de réalisation ou de production qui utilise de nouvelles formes d’innovation pour atteindre un auditoire public le plus large possible, que ce soit par l’utilisation de TIC, technologies de l’information et de communication ou par l’imagination individuelle pure.

C’est précisément ce qui est visé avec le prix de ECU E-Inclusion Award et la conférence Media 4D associée : tenir compte des spécificités et besoins de certaines catégories de populations et de les rendre utile, voire de les transformer en valeur ajoutée au plus grand nombre.

Davantage d’information sur www.socialmedia4d.com

Hadmut Holken, Managing Director Holken Consultants & Partners Maître de conférences associée à l’Université de Paris 13, membre à la MSH Paris-Nord Networked & Electronic Media European Technology Platform/NEM Steering Board member

 

 

 

Agenda

Du 26 au 28 mars
Paris Expos – Porte de Versailles

Solutions Intranet et Travail Collaboratif


Jeudi 28 mars
Amiens
Picard’IT Day


Vendredi 29 mars
Paris, Cinéma Etoile-Lilas
Media4D 2013


 

 

Retrouvez nos publications sur la boutique Lulu :   

  

 brancheolivier Pour soutenir Forum ATENA brancheolivier