Compte-rendu de la session plénière du 18 juin 2014

Quelle gouvernance pour quel Internet ? C’est la question qui a guidé le débat organisé par le Forum ATENA et Eurolinc à l’ECE de Paris avant les ateliers à l’ESME le lendemain. Les bases une fois posées par un groupe d’experts un débat suivi d’un cocktail dinatoire a ouvert les pistes.

Philippe Lemoine, Président de la FING et membre de la CNIL introduit la notion de « sur traitant » à rapprocher de celle de « sous-traitant ». Google est à ce titre le sur-traitant d’entreprises utilisatrices de ses services. Ce mode de fonctionnement s’appuie sur un fort besoin en protection avec un risque : trop de protection amène trop de rigidité et nuit aux échanges.

Louis Pouzin, dont les travaux et la mise en œuvre du datagramme ont largement contribué à la construction d’Internet et qui est moteur pour cet événement nous rappelle qu’Internet fonctionne suivant le même modèle stable depuis 1983. Il insiste sur le fait que c’est avant tout un choix politique ; Internet est construit sur une technologie TCP/IP largement éprouvée, ou pour l’exprimer autrement un « objet de musée ». Les GAFA sont assimilables à un Internet à part. L’ICANN, créé en 1998, donne au gouvernement américain un contrôle fort sur Internet. La Chine dès 2005 a par ailleurs montré que l’on peut se séparer de l’ICANN.

Pierre Béllanger, fondateur et dirigeant de la radio Skyrock, créateur de la plateforme de blog Skyblog et de du réseau social Skyrock.com est auteur de « La Souveraineté numérique ». Il sensibilise aux impacts d’Internet notamment sur l’emploi – 47 % des emplois tertiaires détruits. « Digital kill job », avec cette précision : on supprime des postes, pas des emplois. Pierre Béllanger souligne également que les « slides » détaillant les « business plan » tendent à laisser la place à ceux qui parlent de valorisation.

Olivier Iteanu, avocat incontournable sur le droit de l’Internet, aborde la gouvernance en présentant l’ICANN sur le plan juridique. Société californienne à but non lucratif elle n’a pas l’obligation de tenir une assemblée et se passe ainsi des notions de révocation ou de responsabilité. Le « Patriot Act » de 2001 donne obligation aux prestataires de communiquer les données au FBI. Les data n’ont plus besoin de mécanismes de captage.

Robin Wilton, Directeur du groupe « Identity and Privacy » de l’Internet Society (ISOC), MA Philosophy and Modern Language, propose ici l’intégralité de la communication. Il part de la constatation que l’innovation construite sur la plateforme Internet ne nécessite nullement de solliciter l’autorisation de quiconque, ce qui passe par des choix éthiques qui doivent être à la fois justes et fiables. Ce point est abordé dans son papier « Ethical Issues in Online Trust » où protection de la vie privée, conformité à la loi et réputation commerciale cherchent leur équilibre.

Xavier Dalloz, correspondant du Consumer Electronics Show (CES) en France et spécialiste de l’Internet des objets, attire notre attention sur les contraintes apportées par les objets connectés et l’Internet Industriel, notamment ceux liés à la sécurité, à la collaboration d’usines ou au partage de fréquences. Internet ne peut pas absorber les dialogues où un milliard d’objets parlent à un milliard d’objets. Ethereum est cité pour la sécurité des transactions, les cercles de confiance pour les droits de l’homme à l’ère numérique. Mes données me suivent et sont la base de mon identification.

Benjamin Bayart est expert en télécommunications et président de la Fédération French Data Network (FDN), le plus ancien fournisseur d’accès à l’Internet français. Il cite les propriétés des données – je peux les vendre, je peux les détruire, en notant que paradoxalement à ce titre on n’est pas propriétaire de son corps qu’on ne peut vendre. La gouvernance d’internet passe par la continuité du réseau qui ne peut s’appuyer que sur IPV6 ; l’intermédiaire technique n’a pas à être responsable de données dont il n’est pas propriétaire. Par ailleurs, Internet a été conçu comme un système réparti pour renforcer sa résistance et les services centralisés comme Facebook au contraire centralisent les données ce qui casse cette solidité. Olivier Iteanu rebondit en faisant la distinction entre propriété intellectuelle et propriété des données. Si les hébergeurs n’ont pas l’obligation de filtrer, ils doivent avoir les moyens de bloquer un contenu dont le retrait après publication serait demandé. Quant à la continuité, IPV6 est par exemple complètement installé au Brésil et les échanges avec les Etats-Unis vont accélérer son déploiement.

Jean-Christophe Nothias, président du Global Journal basé à Genève n'a malheureusement pas pu nous exposer ses analyses ayant été retenu.

Jacques Baudron, Secrétaire adjoint Forum ATENA, jacques.baudron@ixtel.fr

 

Ouverture de la conférence Forum ATENA, 18 juin 2014

Regards croisés sur la gouvernance de l’internet à l’ouverture du Forum Atena : Louis Pouzin, Philippe Lemoine, Benjamin Wilton ou encore Olivier Iteanu et d’autres experts ont proposé leurs analyses sur les transformations qu’implique le numérique et la confrontation des différents intérêts dans le contrôle des données.
Le numérique et le digital ne sont pas de simples secteurs d’activité qui viennent se superposer à ceux préexistants, mais viennent radicalement les transformer. De la communication à la vente en ligne en passant par les objets connectés (montres, réfrigérateurs, voitures….) et l’implantation de systèmes d’exploitation, ce sont à la fois la production et les rapports sociaux qui se modifient radicalement.

Dans ce cadre de mutation, une première cartographie d’acteur permet de soulever différents points de tension : les individus (citoyens / clients ) sont désireux de services et de produits rapides, efficaces et qui répondent à leurs besoins tout en étant plus sensibles à la protection de leur vie privée ; les données deviennent une clé de réponse pour faire face à cette demande, et apparaît comme le nouvel eldorado grâce notamment à la géolocalisation, au profilage, ou à l’information en temps réel. Les entreprises qui n’étaient pas dans le secteur numérique doivent rapidement intégrer ces nouvelles attentes qui les désarçonnent, d’autant plus qu’elles se retrouvent en concurrence face aux GAFAM (Google-Apple-Facebook-Amazon-Microsoft), géants du net, très différents de leurs concurrents traditionnels. Dans cette course à la maitrise des datas et face aux monopoles tenus par ces grandes entreprises américaines, les Etats apparaissent à la fois comme les remparts légitimes pour protéger la vie privée, et comme potentiels Big Brothers espionnant les actions de citoyens.
La question « qui peut collecter et détenir les données personnelles ? » traverse les différentes interventions : qui a les capacités de traitement, peut soutenir la recherche et l’innovation, et qui a la légitimité de posséder toutes ces données privées ? Une donnée brute n’a pas de valeur. Ce sont la contextualisation et le croisement des informations qui la rendent intéressante – et sensible. Ces acteurs privés cumulent de la puissance, puisque détenteurs de différentes sources et types de données (achats, localisation, réseaux, revenus, goûts etc). Leur puissance financière leur permet également de mobiliser des ressources importantes et d’investir dans l’innovation et la recherche dans des secteurs coûteux et stratégiques (énergies renouvelables, gestion de déchets etc), dont peu sont capables. Mais alors que leurs intérêts sont purement économiques, la finalité de l’utilisation de ces données n’est pas garantie : comment trouver une réponse viable et réaliste de protection de la vie privée des individus, sans pour autant brider l’innovation ?
Parallèlement, la position dominante des GAFAM pose l’enjeu de la diversité et de l’ouverture d’internet. Ces quelques entreprises possèdent de nombreux services et sites, et accroissent leurs secteurs d’activité. Ils prennent une part de plus en plus importante au détriment de la pluralité d’acteurs, de possibilité d’alternative et créent une polarisation autour d’eux, fermant peu à peu l’espace numérique. Ces espaces se cloisonnent de plus en plus, et demeurent opaques dans leur fonctionnement.

Dans cet enjeu de la gouvernance d’internet, la gestion de la souveraineté numérique émerge, avec une nécessaire régulation législative, mais qui doit s’accompagner d’un soutien à des entreprises numérique. Une alliance européenne à différents niveaux serait un premier élément de réponse ; au niveau de l’Union, un renforcement législatif sur la protection et la transparence de la gestion des données personnelles. Une alliance renforcée entre quelques pays centraux pour une mise en commun de savoirs et de soutien à des entreprises européennes a également été lancée comme piste pour faire face à la position de monopole de ces entreprises américaines – actuellement existante sur le plan numérique mais qui s’étend sur tous les secteurs, notamment industriels, sur lesquels de grands groupes européens peuvent être positionnés (automobile, énergie) et potentiellement menacés.

Charlotte-Amélie Veaux – charlotte.veaux (at) gmail.com 

 

Perspectives éthiques sur le traitement des données personnelles

Je voudrais tout d'abord remercier Philippe Recouppé et le Forum Atena de m'avoir invité à cette conférence qui tombe au parfait moment et qui se tourne résolument vers le futur. Précisément puisqu'on parle du futur de l'Internet, je crois qu'il faut parler aussi de l'innovation, et regarder de près les questions éthiques qui peuvent en découler.  Or, dans le contexte de l'Internet, on entend souvent l'expression "permissionless innovation"; en d’autres mots qu'on n'est pas obligé de rechercher la permission auprès de qui que ce soit, avant de développer une service quelconque à base de technologies Internet.

La mentalité qui a charactérisé l'innovation numérique pendant ma vie de travail, c'est "est-ce qu'on peut le faire", plutôt que "est-ce qu'on devrait le faire". “Essayons de développer quelque chose de nouveau, et voyons après si ça produit de mauvaises conséquences”. C'est surtout, à mon avis, le cas en ce qui concerne le stockage et le traitement des données à caractère personnel. 

Ce qu'on peut faire se décide en fonction des ressources et des compétences dont on dispose. Ce qu'on doit faire se décide en fonction de choix éthiques. 

Donc, comment faire ces choix, de façon à la fois fiable et justifiable?
Pour cette courte analyse, j'ai opté pour trois modèles classiques de l'éthique:
1 – la première qui traite des conséquences (par exemple JS Mill)
2 – le seconde est déontologique (sur base de règles, devoir, vertu) – selon Emmanuel Kant
3 – et enfin sur base de l'idée de la justice – comme proposé par John Rawls.
 
Les deux premiers modèles ont l'air utile, mais souffrent de quelques problèmes qui les empêchent de fournir une solution globale. Néanmoins, notre situation actuelle est composée d'un mélange de ces deux premiers modèles – y compris les problèmes dont je vais traiter brièvement. 
Prenons d'abord le modèle conséquentialiste: sous ce modèle, on base ses choix sur les conséquences qui se produisent à la suite – en ce cas – du traitement des données. Le problème ici, c'est que les conséquences sont souvent loin de l'action qui les produit. 
L'exploitation commerciale de données personnelles engage toute une série d'acteurs, avec la plupart desquelles l'individu n'a aucune relation ni contact. Si des effets nocifs en résultent, le lien entre l'action originale et les conséquences peut être difficile à percevoir. Donc, vu le risque minimal de plaintes, les exploitants peuvent avoir très peu de respect pour les intérêts de l'individu sans pour autant souffrir de mauvaises conséquences. 
J'appelle l'ensemble de ces problèmes la "dilution éthique".
Cependant, l'approche conséquentialiste présente des éléments indispensables: il vaut quand-même mieux baser ses choix sur une appréciation de risques et de conséquences que sur des listes simples de ce qui constitue "données personnelles" et ce qui ne le constitue pas.
Ceci nous mène au deuxième modèle. Actuellement, si les données que vous collectionnez sont qualifiées de "personnelles", leur traitement sera contraint par la loi (c'est à dire, des contrôles légaux sur votre comportement).
 
Pourtant, si l'on regarde les transferts extra-territoriaux (transfrontaliers); on voit que la nature et l'application des lois peut différer de façon radicale entre différents pays. 
Par exemple, si le traitement de données personnelles porte préjudice à vos intérêts, le premier pas en Europe peut être de saisir les autorités pour la protection des données; aux Etats Unis il est plus probable que vous devrez porter plainte en justice.
Tournons nous maintenant sur le troisième modèle: l'éthique à base de justice; c'est à dire, ce qui est juste. 
Ça nous mène plus loin que le modèle déontologique, d'abord parce que tout ce qui est légal n'est pas forcément légitime. 
Sans trop chercher, on trouverait beaucoup d'exemples où le traitement de données personnelles est strictement légal, mais quand même désagréable, injuste ou surprenant du point de vue de l'individu impliqué. 
La légitimité se fonde sur plus que la légalité, et doit tenir compte de plusieurs autre facteurs, dont je cite 
– la justice, dans le sens de "fairness" (ce qui est juste/équitable);  
– la transparence, notamment en ce qui concerne la collecte et le traitement de données personnelles, et les termes de son utilisation
– responsabilité, (dans le sens du fait de répondre de ses actes)  et le moyen de chercher la réparation lorsque les choses tournent mal.
Si le traitement de données se révèle manifestement injuste, il est probable que le responsable avait d'autres choix moins injustes – même si celles-ci leur auraient rapporté moins de bénéfices, à eux. 
Cette formule produit un calcul éthique, pour ainsi dire, qui suggère d'abord 
– l'importance de tenir compte des intérêts de l'individu,
et ensuite 
– une façon pratique de gérer les choix éthiques qui s’en suivent.
Je ne vous ai donné qu'une esquisse de ces modèles, mais vous pouvez en lire plus dans le papier "Ethical Issues in Online Trust"  dont je vais communiquer l'adresse au Forum.
De ma part, je suis convaincu que la perspective d'analyse éthique offre des routes prometteuses vers la protection de la vie privée, tout en contribuant aux objectifs de conformité à la loi et de réputation commerciale.
 
Merci encore une fois de votre accueil et de votre attention.

Robin Wilton Technical Outreach Director – Identity and Privacy Internet Society

 

Compte-rendu de l'Atelier "Surveillance et Sécurité"

L’évènement du 18 juin 2014 sur le thème « Quelle gouvernance pour quel Internet ? » s’est poursuivi le lendemain par 5 ateliers destinés à permettre à tous de donner leurs avis et de décider, entre participants, de ce qui pouvait être fait pour faire bouger les lignes dans le domaine choisi pour l’atelier, en se référant à ce qui avait été dit la veille. J’ai eu la tâche délicate d’animer l’atelier « Surveillance et Sécurité ». Tâche délicate et risquée vues les personnalités qui ont participé à cet atelier. Il y avait par exemple deux des créateurs de l’Internet dans le cadre du projet Cyclades, une férue d’éthique dans le cadre de Mediapart, un chercheur de la chaire Castex de Cyberstratégie, chaire avec qui Forum ATENA a déjà co organisé deux grands évènements et en co organisera un troisième à Paris, en fin d’année (restez à l’écoute…). Il y avait même un Britannique de l’ISOC, qui parle parfaitement le français, mais a teinté notre atelier d’une touche internationale. Et je m’arrête là pour le tour de table car nous étions entre 15 et 20 personnes. Parmi nous, deux étudiants de l’Ecole d’Ingénieurs située dans le pôle Léonard de Vinci, l’ESILV, hésitant, au début à prendre la parole, vus les parcours prestigieux de ceux à côté de qui ils étaient assis, mais nous les avons fait entrer très vite dans la danse. Après ils n’ont pas cessé d’intervenir. Il y avait aussi une chercheuse, qui, arrivée un peu en retard, pensait devoir rester en retrait, mais c’était mal connaître l’esprit « Forum » de l’association Forum ATENA qui ne laisse aucune personne au bord de la route, alors elle a été conviée à s’intégrer très vite  au cercle des participants, et participer.

Comme il fallait éviter dans la mesure du possible, une cacophonie et des dialogues croisés, peu productifs, il a été imposé le lever du doigt pour demander la parole. C’est mignon, un adulte qui lève le doigt pour demander à intervenir ;-). On le refera…

Ce compte-rendu est un travail collaboratif, tels que nous les aimons chez Forum ATENA. Il tient compte des remarques des participants que je remercie pour leur coopération.

Il a été question au début de partitionner les débats sur ce qu’on souhaite à court, moyen et long terme, au sujet de la surveillance et de la sécurité.

Ce modèle a été vite abandonné car on a voulu se concentrer sur les actions à court terme, après les affaires Snowden, Prism et compte tenu des cyberattaques continuelles qui touchent particuliers et entreprises.

Mais agir à quel niveau ? Comment ? Auprès de qui ?

Avant de dire ce qu’on souhaite pour l’Internet de demain, il fallait s’entendre sur notre représentation de l’Internet. Faut-il le réduire aux protocoles TCP et IP ? Non assurément, d’autant que Louis Pouzin, présent dans les débats, et quelques chercheurs aux US, tels que John Day, ont des idées pour changer ces éléments, et tout remettre à plat. Mais cela est un autre débat. Faut-il le réduire au World Wide Web et aux DNS ? Non plus car non suffisant pour caractériser les problèmes.

Un modèle en trois couches a été proposé :

·       Couche 3 : La couche sémantique là où une information a un sens. Il peut être utile d'en suivre le cycle de vie et de la sécuriser. C’est là que se trouvent les informations présentées par Google, Facebook, Twitter, Amazon, Wikipedia…

·       Couche 2 : La couche des protocoles et des applications qu’il peut être indispensable de contrôler et de sécuriser.

·       Couche 1 : La couche physique, fibres optiques, câbles sous-marins, routeurs, serveurs, sans fils… car ces tuyaux ou nœuds de passages, il faut … les contrôler et les sécuriser (et assurer leur neutralité). La neutralité du net est un vaste problème qui intéresse toutes les couches.

Mais un consensus ne s’est pas établi autour de ce modèle. Quel est le routeur à contrôler et à sécuriser (quand il ne participe pas lui-même à la surveillance) ? Quelle est l’application à sécuriser, on ne va tout de même pas tout surveiller ? Quelle est l’information à surveiller ? On ne va pas tout surveiller (quoique, de l’autre coté de l’océan… ?).

Il manque visiblement une couche ; celle de l’identification (on n’a pas osé tenter aussi le mot authentification), pour déterminer les objets sur lesquels vont porter nos attentions. Cette couche d’identification doit s’insérer entre ou au dessus de quelle couche ? Il a été question d’ajouter cette quatrième couche entre la couche 2 et la couche 3, mais… ce n’était pas suffisant car la couche identification intéresse les trois couches. On l’a finalement mise en méta couche dans laquelle baignent les trois autres couches, et le consensus s’est à peu près établi.

Sauf que… où était l’utilisateur dans ces trois ou quatre couches ? N’est-ce pas lui qu’il faut sécuriser ? N’est-ce pas lui qui est surveillé ? Et si les outils de sécurité réseaux tels que les Firewalls, les IPS et autres fonctionnalités d’Appliances ont été conçus, n’était-ce pas parce que nous n’étions pas capables de descendre au niveau de l’utilisateur, et surtout aujourd’hui, de son terminal d’accès à l’Information devenu intelligent ?

Alors, sans remettre en cause le modèle précédent, le groupe a conçu une autre métaphore en trois types d’acteurs :

·       Type 3 : Les militaires et les politiques

·       Type 2 : Les organisations : entreprises, administrations, associations

·       Type 1 : Vous, moi, les particuliers

Ce modèle tient effectivement compte de la place de l’individu dans la société. L’innovation commence souvent avec le type 3. C’est sans doute là que la confiance envers la communauté doit avant tout s’établir. Si les innovations en matière de sécurité et de surveillance commencent dans ce type, c’est parce que c’est à ce niveau qu’on investit en masse. Les innovations suintent ensuite vers les types plus bas. Mais il faut compter en moyenne 5 ans pour que les méthodes et outils du type 3 descendent dans la couche des entreprises et encore 5 ans pour qu’elles descendent dans la couche de l’utilisateur. Donc il faut compter une dizaine d’années pour que l’utilisateur puisse utiliser les déclinaisons civiles des outils des militaires.

Partant de ce modèle, il devient évident que c’est sur le type 3 que nos efforts devraient porter, mais les militaires, les politiques nous écouteraient-ils ? Alors on a décidé ensemble de s’intéresser essentiellement au type 1, celui de l’utilisateur, plus accessible aux idées d’une organisation telle que la nôtre, mais en retard permanent avec ce qui se fait sur les types plus hauts. Mais alors, c’est la remontée d’information vers les types au-dessus qui va poser problème, et prendre beaucoup de temps, d’autant plus que l’information des types au-dessus continue à descendre.

Que demande le peuple ?

  1. L’anonymat pour garantir la non-surveillance, et donc la sécurité de sa vie privée. On évoque le réseau TOR, on évoque le chiffrement, on évoque le chiffrement préalable des informations avant de les transmettre via le réseau TOR. On évoque aussi que le réseau TOR a été partiellement financé par la NSA, et que si surveillance il y a, il est plus intéressant de surveiller les informations que l’on veut dissimuler, plutôt que celles qu’on ne protège pas.

L’anonymat est une bonne chose, mais son contraire aussi. Quelqu’un qui veut affirmer son opinion sur Facebook et sur Twitter, qui veut faire du réseautage sur LinkedIn, ne veut surtout pas être anonyme.

 

  1. Le droit à l’oubli.

Légalement en France, les opérateurs sont tenus de conserver les informations concernant les connexions de leurs clients pendant un an. C’est loin d’être gagné sur l’Internet car il y a des proxies, il y a des sauvegardes, et le monde ne se réduit pas à l’intérieur des frontières de l’hexagone. La territorialité de l’information a-t-elle encore un sens, dans le monde actuel ?

La Cour de Justice Européenne qui a compétence à agir dans les territoires de l’Union Européenne est parvenue à obliger Google à appliquer le Droit à l’Oubli pour les internautes européens. C’est dire que l’Europe peut avoir une action, quand elle veut, même devant une entreprise commerciale américaine de taille démesurée. C’est dire aussi que la France peut faire plus et faire mieux usage du levier légal pour confirmer le cadre national ou communautaire de protection du citoyen face aux conditions qui relèvent d'un autre droit.

  1. Le droit de choisir, si on est protégé, par qui accepte-t-on ou non d’être protégé.

Le consensus se fait sur la phrase : La collecte des données (reste à déterminer par qui) ne peut être légale que si elle se fait pour protéger, ou pour aider, les utilisateurs ou les citoyens.

Ce qui implique :

  1. La transparence

En France, nous avons la chance d’avoir la CNIL. La CNIL a aussi des implémentations similaires dans plusieurs pays d’Europe, mais sont-elles efficaces ? Les CNIL transfrontières, unies dans un même organisme européen, ont-elles un avenir avant d’avoir un pouvoir, vues les différences qui existent entre les pays démocratiques, républiques et royaumes, et les pays moins démocratiques. Nous pensons tout de même qu’il faut renforcer les pouvoirs des CNIL, au moins à l’échelle européenne.

  1. Le plan fiscal

Sur le plan fiscal, il y a beaucoup à faire. Certaines initiatives, telle le rapport Collin et Collin est une approche intéressante de la fiscalité à appliquer au numérique. Voir en : http://www.economie.gouv.fr/files/rapport-fiscalite-du-numerique_2013.pdf.

 

Le coup d’après

Nous étions réunis pour émettre des propositions justement pour « le coup d’après ». Voici ce que nous suggérons, si possible dans le terme le plus court :

·       Que soit édité un guide de survie (le monde étant devenu vraiment très dangereux depuis que beaucoup de choses dépendent du cyberespace). Ce guide pourrait s’appuyer sur les règles d’hygiène informatique de l’ANSSI et des divers documents qu’on trouve sur son site (http://www.ssi.gouv.fr). Les mesures proposées sont effectivement efficaces, car elles s'appuient tant sur des plateformes, des outils et des protocoles sûrs, mais sommes-nous prêt à payer pour bénéficier de cette sécurité ?

·       Que soit faite la promotion d’une messagerie française ou européenne, plutôt que laisser utiliser par défaut, des messageries américaines (Gmail, Hotmail …). Il est fait remarquer qu’Orange propose déjà un service messagerie, mais il est fait remarquer aussi que cette messagerie n’est offerte qu’aux employés et aux clients d’Orange. Les autres n'ont droit qu'à l'interface, donc utiliseront au mieux leurs Gmail sous Orange.

·       Que soit constitué un package européen, pour l’anonymisation, les réseaux sociaux, la messagerie, le moteur de recherche, bien spécifié techniquement et robuste à l’usage …

·       Que s’inverse la course du balancier « sécurité absolue – sécurité minimale » et « surveillance totale – liberté absolue ». Que le balancier cesse de s’égarer vers toujours plus de sécurité et toujours moins de liberté. Ce n’est pas comme cela qu’on retrouvera la confiance perdue face à l’Information venue du cybermonde. Faut-il pousser encore plus le balancier, dans le sens où il va aujourd’hui, pour que les états totalitaires, en premier, se cassent la figure ?

·       Que soit condamné le stockage des données sans le consentement de leur créateur. Bien sûr, dans la pratique, un artefact numérique est indéfiniment reproductible, mais solliciter et obtenir le consentement du créateur est déjà un premier pas…

·       Que la jeunesse, et les autres, soient sensibilisés aux dangers que peuvent présenter les réseaux sociaux, et autres applications courantes, par des campagnes d’information. Des mesures concrètes sont indispensables.

Voilà de bonnes résolutions mais le nerf de la guerre étant l’argent, n’est-ce pas déjà trop tard avec le GAFA qui occupe le terrain de la publicité en ligne, si lucratif, y compris en France ?

Comment la pub pourrait-elle avoir l’ambition d’être confiée à un moteur de recherche français (il existe, c’est Exalead) alors que Google, Yahoo occupent le terrain et ne sont pas près de le lâcher ? La territorialité de l’info n’est-elle pas une utopie dans ce monde hyper connecté ? Et quand il faut payer des développements en France, qui va payer ? La Cour de Justice Européenne a reçu une plainte de l’Open Internet Project pour « abus de position dominante » de Google. Affaire à suivre…

Alors une petite suggestion est émise, en partant d’un autre modèle en deux approches :

·       Approche « Microsoft » : OS propriétaire de Microsoft qui vend les API pour permettre le développement d’applications au-dessus, mais elles n'assurent aucune protection des données. L’OS est construit sur DOS et ne s'occupe que de l'accès au matériel.

 

·       Approche « Ubuntu » : Version publique d'Unix lui-même dérivé de Multics par AT&T. les sources sont accessibles, le travail est collaboratif, l’utilisation est libre, et le système subsiste grâce à des dons. Les dons, ça se fait … surtout ailleurs qu’en France, mais en France aussi J

Le modèle Ubuntu est, pensons-nous, le bon. D’ailleurs les fournisseurs de services Cloud l’ont bien compris. Les Cloud reposent en général sur des systèmes Ubuntu. Il est précisé d’autre part que le système Multics avait, déjà dès les années 60, été conçu (notamment) pour garantir la maîtrise de l'accès sécurisé aux données (seul le propriétaire autorisé peut y accéder).

Et le problème ne réside d’ailleurs plus trop au niveau des serveurs, mais au niveau des moyens d’accès à l’information (Smartphones, tablettes, portables, …) qui comme vous le savez … sont devenus intelligents et doivent être sécurisés, car ils sont surveillés, voire contrôlés…

Il existe des techniques qui permettent de sécuriser les échanges, et c'est un des aspects clés du sujet traité. Une bonne question à se poser est de savoir pourquoi, les grands opérateurs européens refusent, ne serait-ce que de les examiner ?

Et il fut temps de conclure. Les trois heures s’étaient écoulées très vite ! Ne ratez pas nos prochaines rencontres.

Gérard Peliks, Président de l'Atelier Sécurité de Forum ATENA, gerard.peliks@forumatena.org

 

Compte-rendu de l'Atelier "Internet des Objets"

Ce sont les données qui vont permettre le développement de l'internet des objets
2014, l'époque de tout ce qui est connecté
– comment va fonctionner l'adressage ?
– quid de l'internet industriel ?

Concept d'industrie 4.0 chez les allemands: comment collaborer quand tout est connecté ? (cf la bataille autour d'Alstom, autour de la création d'écosystèmes)
Ce qui est intéressant, c'est d'être connecté, mais surtout monitoré (2 services : garantie de bon fonctionnement avec un diagnostic permanent, et avec une utilisation optimale, ce qui nécessite un accès à toutes les transactions issues de l'objet)
– Monitoring
– Archive
– Diagnostic
– Assistance / Alert
– Monetize (par la maintenance, l'évolution)

Où se trouve la valeur ? Chez l'opérateur ? Dans l'objet ? C'est plus dans l'usage, que dans l'objet (on n'achète pas une balance, mais le concept grossir / maigrir, où la société de thermostats rachetée 3G$ par Google)

Qui est propriétaire des données ? (Wethings vs Raffi Alajan)

Quid de Big Brother ? De la sécurité ?

Une rupture majeure ? Monstrueusement dangereuse ?
S'il survient une perte de confiance, tout s'écroule. Il faut garantir juridiquement et techniquement la promesse, ce qui est impossible avec l'internet d'aujourd'hui. La monnaie fonctionne sur ce principe,, d'où l'intérêt de BitCoin et l'effroi qu'il suscite chez les banques centrales. BlockChain au cœur du dispositif
Fonctionnement du DNS et de l'IP, qui permet une localisation. Si l'on nommait les paquets, on pourrait faire de l'adresse contenue, et la question deviendrait non plus de localisation de l'objet connecté, mais de localiser ce que l'on cherche.
Voir Ethereum

Et même c'est la sécurisation (processus) plus que la sécurité, qui est importante.

Un objet sera producteur et consommateur d'information. L'objet peut-être tangible, un fichier, un bout de fichier : il peut être de plusieurs natures, il reste un objet (cf le concept informatique de programmation orientée objet)

Prochaine étape : l'internet des agents, de la valeur que l'on peut en retirer (hyper personnalisation retirée de tous les usages)

En bref : qualité totale et optimisation des usages ; la production de valeur s'opère à partir des points de contact. Capteurs, transmissions, actions. Comment donner un sens à ces informations ? Cf Katia, de Dassault, pour la simulation et la programmation sous contraintes des pièces d'un avion

Problèmes:
– Adressage, comment on y accède, qu'est-ce qu'on peut faire avec lui, comment on le connaît
– Interaction avec l'objet, un objet unique
– Existence d'un "double informationnel", avec une représentation virtuelle
– Autonomie de l'objet vis-à-vis de tiers (cf énergie, pour garantir son fonctionnement)
– Interopérabilité (pour garantir la continuité de service, et la connectivité, et l'interaction)

Qui s'occupe des standards, du nommage ? À quelle échelle ? Comment vont s'imposer les standards ?
Est-il possible de récupérer d'utiliser les standards existants ?
Comment garantir les arbitrages dans la structure ? Quel algorithme (zomenet, sur l'énergie, pour faire des arbitrages sur sa consommation électrique) ? On repense non seulement l'objet, mais aussi ce à quoi il sert

Exemple est-ce que les smartwatchs sont vraiment utiles (service : il faut tapoter sur l'objet pour qu'il donne l'heure, pour économiser de l'énergie)
Quelle durée de vie pour un objet ? Il faut le considérer au démarrage, pour le recycler l'upgrader, et penser son cycle de vie dès le début

Relation client, évolutive avec le temps. "Marketing de la bonne nouvelle". Les fournisseurs de service devraient récompenser les utilisateurs de leur fournir leurs données, et en retour, les utilisateurs devraient savoir à quoi vont servir les données

Nabaztag : dans sa nouvelle version, ce sont des objets, dans la maison, plutôt qu'un seul lapin (mother)

Standards : faut-il essayer de se lancer avant qu'ils existent, pour les influencer ? Ou attendre qu'ils existent ?

Autre danger, le cycle de vie, et la durée de vie des données (sous reserve de leur anonymisation / agrégation des données)

Enjeux (nationaux, avant tout):
– Standardisation vers la normalisation
– Sécurité et confiance
– "Personnalisation anonyme" (notion de banque suisse)
– Productivité eet Echanges Collaboratifs : curation de contenu, besoin de benchmarks et d'entraide, de contenus
– Social media / business / … : nécessité d'un tiers de confiance comme intermédiaire
– Formation (citoyenne / estudiantine : quel profils, quelle formation ?)

Form factors et impression 3D : l'usage disparaitra derrière la forme, ou l'inverse ?
Fab Labs

Santé, ou bien-être, comme marchés les plus porteurs ? (apple et les alertes préventives ; le médecin et la réglementation sur le développement de la santé). "Quantify yourself", gestion et prévention de l'efficacité du travail et de la productivité personnelle
Modèle économique : lier ce qui est acheté et vendu (bundles contextualisés)

Identification / authentification, pour l'utilisation / exploitation des données, à rapprocher de la personnalisation anonyme : un avatar suffit à initialiser une relation (et une signature permettra, à chaque transaction, d'authentifier l'avatar). L'agent, le majordome, va savoir ce que cherche l'avatar, et va se mettre en charge de le trouver (si l'avatar a réussi à formuler / préciser de manière suffisamment explicite, sa demande, de manière non ambigüe). Nécessité de collaborer, pour une meilleure efficacité (des achats, des investissements, y compris des investissements collectifs…)

Ciblage sous forme d'audience (publicité ciblée) / de marketing direct / d'abonnement : un réfrigérateur connecté peut avoir une audience (et chaque individu de cette audience peut avoir une sphère d'influence). Vendre avant de produire (distinguer l'acte d'achat de l'acte de paiement), sur la base des comportements prédictifs.

 Pierre Courrieu, animateur de l'atelier "Internet des Objets", Cepheid Consultants

 

 

Compte-rendu de l'Atelier "Economie collaborative et internet"

Je remercie Christophe Dubois-Damien de m’avoir invité à participer à ces débats dont les participants étaient : Christophe Dubois-Damien  (animateur), Philippe Recouppé (président de Forum Atena), Ali Amrouche, Jacques Baudron, Jacques Heitzmann, Jean-Pierre Praseuth, Jean Rohmer,  Michel Stoltz, et moi-même, Christian Renard.

Une discussion très animée avec une majorité de participants au parcours plutôt « Technologie » et une prise de position forte de certains : « Internet , c’est de la Technologie , et nous sommes habitués à appréhender les problèmes liés à la Technologie. Pas de raison de changer le prisme ». Un clivage fort avec les représentants de l’autre tendance (dont votre serviteur) : « Non, Internet, c’est avant tout un enjeu Humain, …et une révolution d’une magnitude identique à celle qui a accompagné l’invention de l’Ecriture puis celle de l’Imprimerie. »

Les positions se sont progressivement rapprochées, le groupe essayant de « poser le problème » :

1-    Nous vivons une révolution. Elle est provoquée par la Technologie, mais elle est profondément humaine.

2-    C’est la première fois que les entreprises sont en retard sur la Société.

a- L’apparition du PC à la fin des années 70 avait eu un profond impact sur l’organisation des entreprises, en faisant notamment disparaître le management intermédiaire dans de nombreux secteurs. Ce n’est que beaucoup plus tard  que le PC était entré dans les foyers, la formation initiale se passant sur le lieu de travail.

b- C’est l’inverse aujourd’hui. Avec les Smartphones, les Tablettes, et les Réseaux Sociaux , l’Humain est « massivement » libéré et amplifié. La « Valeur » s’est déplacée, et la plupart des entreprises, tétanisées sur le court terme et globalement déconnectées, ne s’en sont pas aperçues.

3-    Pour recréer de la Valeur, il est nécessaire d’innover et de redonner sa place au « Temps Long ». Le Travail va se modifier en profondeur.

On va passer de la gestion des Emplois et des Postes de Travail à celle des Talents créatifs, avec de nouveaux mots-clés : « Collaboration »  (travailler ensemble sur un projet précis),  « Coopération » (partager librement et sans équivoque au-delà des frontières de l’entreprise), « Contribution », et de nouveaux objectifs : « apprendre ensemble à résoudre des problèmes dont on n’a pas la solution. »

4-    Sur le plan de la Technologie, l’un des points de discussion animés a concerné le rôle du Cloud. J’ai fait observer deux points :

a- On assiste à une Consumérisation de la Technologie.  Pour simplifier, il s’agit de la Technologie transparente qui « enchante » ses  utilisateurs. C’a été la clé du succès des « GAFA ». Avec le recentrage des développeurs sur le monde de l’Entreprise, on va assister à un développement extrêmement rapide des interfaces mobiles et intelligentes entre les entreprises et leurs clients actuels et futurs. Avec probablement le même résultat : des utilisateurs « enchantés » (clients ou collaborateurs) et une très grande  vitesse d’adoption.

b- La Transformation Digitale des Entreprises  a  3 dimensions :

i.     Relier la Marque aux Consommateurs : il faut aller sur les Medias Sociaux, où tout est ultra-rapide. C’est exogène et anxiogène. Sauf pour les Marques globales qui sont ici chez elles.

ii.     Déplacer la Technologie dans le Cloud : un processus de transformation très lent (10 à 15 ans ?) , un profond changement de culture et un marché gigantesque pour les leaders de l’Informatique, les Management Consultants, et les Formateurs.

iii.     Simplifier l’Entreprise avec le Cloud Business : l’enjeu est ici de se reconnecter immédiatement  avec les Clients et les Collaborateurs transformés par le Digital . En profitant du foisonnement de solutions SAAS et de leur modèle économique avantageux.  (Le meilleur exemple est celui de Salesforce qui, avec sa plateforme 100% mobile , permet à ses clients de contourner les pesanteurs internes.)


 

5-    Pour la mise en pratique,  on peut probablement raisonner en imaginant un dédoublement de l’entreprise

a- Le modèle « Industriel » gérant un processus centralisé de Conception/Production/Distribution  caractérisé par l’optimisation permanente des coûts.

b- Le modèle « Relationnel » reliant la Marque à son audience , caractérisé par l’Echange de Valeur décentralisé au plus près des interlocuteurs.

6-    Pour valider ce raisonnement, nous sommes tombés d’accord sur la nécessité de multiplier les expériences et les projets pilotes , Christophe Dubois-Damien rappelant la nécessité d’une démarche épistémologique et d’un raisonnement inductif.

 Christian Renard