Newsletter n°46 – janvier 2012

 

Edito

Le chiffre du mois

Dossier du mois : Moteurs de Recherche
Google Suggest encore et toujours sujette à critiques
Mythes & Légendes : la recherche d’information sur internet

Nos rubriques :
Le strip du mois

Actualités :
Evénement Forum Atena – De la loi du silence à la nouvelle obligation légale de rendre public les failles de sécurité des SI
L’adaptation constante de la justice aux nouveaux médias : diffusion du jugement par flux Rss
NetBrain, la nouvelle compétition des savoirs
Les nouvelles root de l’internet

Agenda

Edito

Les Moteurs de recherche, thématique de cette première newsletter 2012, restent un enjeu considérable à bien des points de vue.

Tout d’abord, le monopole, qui s’il n’est pas de fait, reste tout de même préoccupant, Google ne paraissant pas pouvoir être remis en cause sur ce métier à court terme, et donc sur les profits qu’il génère sur le marché de la publicité, et conséquemment sur sa capacité de destructeur de valeur sur d’autres secteurs d’activité, pas toujours positive, même si elle l’est souvent.

Mais le constat du monopole n’est pas le seul problème de cette activité Internet majeur.

L’ampleur de la recherche est aussi à interroger. Volontairement ou non, beaucoup plus de la moitié du réseau ne serait pas indexé, 90 % pour Louis Pouzin (voir plus loin) ! Enfin, l’Europe est absente, toujours absente de cet activité.

Et pourtant les enjeux existent, particulièrement dans l’accès aux contenus vidéo, enjeux grand public majeurs aujourd’hui, ou les catalogues ressemblent encore à un annuaire du siècle dernier, à moins que ce ne soit de celui d’avant !

La création artistique pourrait y trouver son compte, les acteurs de l’Internet et les FAI également, qui cherche dans cette direction des moteurs de croissance. Référencement de l’information, y compris vidéo, accessibilité, interopérabilité, ergonomie, voilà du travail pour 2012, que je vous souhaite, avec optimisme, pleine de joie d’innover, de prendre des initiatives ; Bonne année !

Philippe Recouppé, Président du Forum ATENA


Le chiffre du mois : 4,74

En milliards, c’est le nombre de requêtes effectuées sur Bing en décembre aux Etats-Unis, le moteur de recherche de Microsoft se place désormais derrière l’indétrônable Google. Bing dépasse ainsi Yahoo pour la première fois : voir l’article ZDNet.

Google Suggest encore et toujours sujette à critiques

La célèbre fonctionnalité de Google lui vaut une nouvelle condamnation devant la Cour d’Appel de Paris.

Dans un jugement en date du 18 mai 2011 du Tribunal de grande instance de Paris, La société Lyonnaise de Garantie poursuivait Google France, Google Inc. et Eric S., son Chief exectutive officer, au motif qu’ils étaient responsables de l’apparition, lors de la saisie sur le moteur de recherche Google de « Lyonnaise de G », de la suggestion « Lyonnaise de garantie Escroc » au troisième rang des trois suggestions alors proposées aux internautes sur ledit moteur de recherche accessibles aux adresses google.fr, .be, .uk, .es, .it et .ca.

Un simple résultat technique et non une injure publique ?

Il est établi par le tribunal que la société demanderesse avait averti Google, par le biais d’une mise en demeure, de l’affichage des suggestions litigieuses.

S’appuyant en cela sur les dispositions de la loi du 29 juillet 1881 ainsi que sur les articles 93-2 et 93-3 de la loi du 29 juillet 1982, les sociétés Google soutenaient notamment que l’affichage de l’expression litigieuse ne saurait caractériser une injure publique faute d’être le fait d’une personne physique et donc d’une pensée consciente. Elles ajoutaient qu’il s’agissait d’un simple traitement de données et du résultat d’un algorithme.

Selon les défenderesses, le caractère essentiellement technique et mathématique des procédés utilisés pour proposer de telles suggestions de recherche aux internautes exclut la possibilité d’engager leur responsabilité notamment parce que les libellés litigieux sont dépourvus de significations intrinsèques et indiquent seulement, comme les internautes ne peuvent manquer de le savoir, que les mots associés se trouvent dans un même texte auquel le moteur de recherche renvoie et que seule l’actualité éditoriale ou médiatique relative à la société demanderesse explique l’affichage du résultat contesté.

Une intervention humaine déterminante

Le tribunal a notamment retenu que « loin de la neutralité technologique prétendue dudit service (…) l’item litigieux, qui n’est nullement saisi par l’internaute mais apparaît spontanément à la saisie des premières lettres de sa recherche comme une proposition de recherche possible est incontestablement de nature à orienter la curiosité ou à appeler à l’attention sur le thème proposé, et ce faisant, de nature à provoquer un « effet boule de neige » d’autant plus préjudiciable à qui en fait l’objet que le libellé le plus accrocheur se retrouvera ainsi plus rapidement en tête de liste des recherches proposées » avant d’ajouter qu’ : « il doit être relevé que tous les libellés de recherches lancées pour les internautes ne sont pas pris en compte par la moteur de recherche Google dans le souci notamment d’éviter les suggestions qui pourrait offenser un grand nombre d’utilisateurs tels que les termes grossiers (…) ce qui suppose nécessairement qu’un tri préalable soit fait entre les requêtes enregistrées dans la base de données (…)».

La maîtrise du dispositif technique par Google et la possibilité d’une intervention humaine démontrent la fixation préalable

Après avoir rappelé que le qualificatif « escroc » constitue bien une injure au sens de l’article 29 de la loi du 29 juillet 1881, le tribunal a retenu qu’après la mise en demeure adressée par le conseil de la société demanderesse à la société Google, les défendeurs avaient la parfaite consciente que la fonctionnalité proposait sur l’interrogation litigieuse « Lyonnaise de garantie », la réponse « Lyonnaise de garantie escroc ».

Le raisonnement du tribunal revenait à dire que si le contenu qui s’affiche est, sinon créé par Google par le biais d’un mécanisme dont elle contrôle le fonctionnement,  au moins affiché par cette dernière par ce biais, elle ne peut dès lors prétendre en découvrir la teneur qu’à postériori et ainsi bénéficier de l’exonération de responsabilité prévue à l’article 93-3 de la loi du 29 juillet 1982.

Condamnés en première instance à verser un euro de dommages-intérêts à la société Lyonnaise de Garantie Eric S., les défendeurs ont par la suite décidé d’interjeter appel de ce jugement.

La Cour d’Appel de Paris, dans un arrêt en date du 14 décembre 2011 a retenu, à son tour, que l’atteinte avait été notifiée à la société Google, qu’un tri préalable pouvait être effectué entre les requêtes enregistrées dans la base de données et qu’ainsi le tribunal était fondé à juger « qu’une intervention humaine propre à éviter les dommages les plus évidents liés aux fonctionnalités en cause était possible (1) » .

Google ne peut bénéficier d’aucune excuse exonératoire de responsabilité

La Cour précise enfin qu’une bonne foi au bénéfice de Google est impossible au motif que les imputations injurieuses sont réputées faites avec intention de nuire et que l’excuse de provocation ne peut bénéficier à ladite société faute pour la société Lyonnaise de garantie d’être responsable d’une provocation à l’encontre de Google.

L’élément intentionnel du délit est donc établi au motif qu’il y a eu fixation préalable de l’expression litigieuse par Google et qu’au surplus la société avait été avertie de la présence du contenu litigieux sans qu’elle ait jugé bon de le supprimer de sa base de données.

Dans ces conditions, la Cour d’appel de Paris ne pouvait que confirmer le jugement de première instance.

Maitre Sadry PORLON Avocat au Barreau de Paris

(1) La Cour précise que : « s’agissant des requêtes renvoyées par la saisie semi-automatique, la société Google Inc. (selon la page explicative) applique des règles strictes, s’agissant de contenus pornographiques, violents ou incitants à la haine qui sont exclus ».

 

Mythes & Légendes des TIC : la recherche d’information sur internet

Ceci est un extrait du livre collectif "Mythes et légendes des TIC" développé dans le cadre de l’association Forum ATENA, en rapport avec le sujet de cette lettre "Les moteurs de recherche".

Si vous désirez obtenir la version complète PDF la plus récente du livre "Mythes et légendes des TIC", il est téléchargeable en :
http://www.forumatena.org/LB47/MythesEtLegendesDesTIC1605.pdf

Si vous désirez commander la version papier c’est sur :
http://www.lulu.com/product/couverture-souple/mythes-l%C3%A9gendes-des-tic/15739496   

Gérard Peliks
Président de l’atelier sécurité de Forum ATENA

Que ce soit pour vérifier l’adresse d’un correspondant, la définition d’un terme, l’âge d’une célébrité, la photo d’un monument historique, la citation d’un auteur célèbre, etc., rechercher de l’information sur Internet est devenu un réflexe de l’homme connecté, renvoyant aux oubliettes dictionnaires et encyclopédies papier en 20 volumes.

L’essor des smartphones et des connexions data permanentes amplifient aujourd’hui cette tendance en offrant des interfaces vocales qui facilitent l’interrogation des moteurs de recherche et la navigation sur Internet.

MYTHE N° 2 :
GOOGLE EST LE MEILLEUR MOTEUR DE RECHERCHE

Avec pratiquement 85% de part de marché au niveau mondial (source NetMarketShare), Google concentre la quasi-totalité des requêtes faites par les utilisateurs de moteurs de recherche. Très loin derrière, avec moins de 5% chacun, Yahoo et Bing se partagent la deuxième et troisième place du podium. Baidu se hisse à la quatrième place grâce à sa forte présence sur le marché chinois. Très loin derrière, les autres moteurs de recherche n’arrivent pas à décrocher le 1% qui leur permettraient de se distinguer du lot. Alors, faut-il en conclure que Google est le meilleur moteur de recherche ?

Google, au même titre que les moteurs cités ci-dessus, permet de retrouver des contenus non structurés qui véhiculent des informations en rapport avec la requête. Il ne fournit pas un accès direct à l’information mais un moyen de retrouver le document qui contient l’information. La recherche de données par requêtes en langage naturel et systèmes de question réponses constitue l’un des enjeux du Web Sémantique. Dans cette approche introduite par Tim Berners-Lee en 1994, l’information contenue dans les documents est exprimée sous forme de métadonnées formelles directement compréhensibles par la machine. Les ressources du Web ne sont pas uniquement des documents mais peuvent prendre la forme de concepts de classes ou de propriétés. Les moteurs de recherche s’apparentent à des systèmes de gestion de bases de connaissance et sont capables d’apporter des réponses à des questions précises comme « Qui est président de la république française en 2011 ? » Le projet DBpedia a pour objectif de concrétiser cette approche en extrayant automatiquement les informations sémantiques de Wikipedia. En 2010, la base de données décrivait 3,4 millions d’entités (312 000 personnes, plus de 413 000 lieux, 94 000 albums de musiques, 49 000 films, etc.). Aujourd’hui, les producteurs de contenus essaient, de plus en plus, d’enrichir leurs bases avec des métadonnées en s’appuyant sur des modèles sémantiques normalisés (ontologies). Il ne s’agit encore que de potentialités mais, dans le futur, une autre génération de moteur, à l’instar de ce qui est proposé par Yahoo Answers ou Wolfram Alpha, pourrait voir le jour et proposer une alternative intéressante à Google et ses concurrents.

En attendant, nous vous invitons à découvrir les fonctionnalités originales des autres moteurs de recherche comme la recherche phonétique proposée par Exalead. D’autres moteurs plus spécialisés, comme Wikiwix ou Yippy pour n’en citer que quelques-uns, proposent des approches intéressantes comme l’indexation des articles publiés dans l’encyclopédie libre et collaborative Wikipedia, le suivi temps réel des liens tweetés par les internautes du monde entier, ou bien encore la présentation des résultats de recherche en fonction des références géographiques des articles ou en fonction des proximités sémantiques qui existent entre les résultats. My Wikiwix vous propose même de créer votre propre moteur de recherche qui indexera les contenus que vous aurez préalablement sélectionnés et ainsi vous permettre de restreindre vos résultats de recherche à un ensemble de sites préalablement qualifiés.

On ne peut donc que vous conseiller de partir à la découverte de tous ces autres moteurs de recherche, de les expérimenter et d’apprendre à choisir le moteur adapté en fonction de la nature de votre requête du moment.

MYTHE N° 3 :
GOOGLE INDEXE TOUT LE WEB

Pendant longtemps, la guerre a fait rage entre les différents moteurs de recherche pour afficher la plus grosse taille d’index c’est-à-dire le plus gros nombre de nombre de pages indexées par le moteur de recherche. Principal argument marketing, cet indicateur a disparu en 2005 de la page d’accueil des moteurs de recherche. Cependant, des recherches sont toujours conduites pour estimer la taille du Web. A fin mars 2011, l’université de Tilburg a calculé qu’ils existent un peu plus de 40 milliards de pages Web indexées. Cependant, à côté de ces pages indexées, ils existent des milliards de pages Web non indexées, et donc inaccessibles depuis Google. Il s’agit entre autres des pages des sites nouvellement créés qui mettront quelques semaines avant de venir enrichir l’index de Google mais il s’agit également des mille milliards de milliards de pages du Web invisible (deep Web en anglais) qui ne seront jamais recensées par Google !

Car même les robots d’indexation les plus puissants ne peuvent recenser toutes les ressources du Web : absence de liens entrants (backlinks ou inlinks), pages générées dynamiquement en fonction du contexte dans lequel elles sont accédées, base de données en ligne interrogeables à travers une interface spécifique, contenus protégés par un login ou par un mécanisme permettant d’exclure les robots (web opaque), documents ou données dans des formats non supportés, inclusion de scripts exécutés à l’ouverture de la page, etc. En 2001, la taille du Web invisible était estimée entre 400 et 550 fois supérieure à celle du Web accessible par l’intermédiaire d’un moteur comme Google. Même si certains méta-moteurs permettent aujourd’hui, en interrogeant plusieurs autres moteurs plus ou moins spécialisés, d’aller un peu plus en profondeur dans l’exploration des ressources, le Web s’apparente à une sorte d’iceberg dont la partie immergée est gigantesque.

Stéphan Brunessaux et Patrick Giroux
Cassidian, an EADS company

 

Evénement Forum Atena – De la loi du silence à la nouvelle obligation légale de rendre publiques les failles de sécurité des SI

Jeudi 19 janvier – 18h00 – Iteanu Avocats (164 rue du Fbg St Honoré – Paris)

C´est en plein été 2011, le 24 août, et par Ordonnance, que le gouvernement français a intégré dans le droit français, l´obligation de notification des failles de sécurité à la Cnil et, éventuellement, aux personnes concernées par la fuite de leurs données personnelles.

Le texte crée également un nouvel article 226-17 du code pénal qui punit de 5 ans d´emprisonnement et de 300.000 euros la personne qui ne procèdera pas à cette notification alors qu´elle y était contrainte par la Loi.

D´où vient cette révolution en droit français, annonciatrice d´un changement radical des mentalités ? Qui est concerné ? Quelles sont les modalités de la notification ? Quelles conséquences à attendre sur la gestion du risque juridique en entreprise ? Et les Rssi et Dsi, quelle est leur propre responsabilité ?

Le Forum Atena vous convie à une session d´information sur le thème de l´obligation de rendre publicles les failles de sécurité des systèmes d´information, de la loi du silence à l’Ordonnance du 24 Août 2011.

Maître Olivier Iteanu, Avocat et animateur de l´atelier juridique du Forum Atena, exposera l´ordonnance du 24 Août 2011.

Le déroulé de la soirée sera le suivant :

  • 18h00 – ouverture de la session par Philippe Recouppé, Président du Forum Atena
  • 18h15 – présentation de l´ordonnance du 24 août 2011 par Me Olivier Iteanu
  • 19h00 – questions et débats animés par Gérard Peliks, Expert Sécurité Cassidian et Président de l´atelier sécurité du Forum ATENA

Inscription gratuite et obligatoire : http://www.forumatena.org/?q=node/336


L’adaptation constante de la justice aux nouveaux médias : diffusion du jugement par flux Rss

En matière de délit commis sur internet, il est fréquent que le demandeur réclame et obtienne la condamnation du défendeur à publier durant plusieurs semaines  la décision à intervenir par extrait ou entier sur la page d’accueil de son site internet et ce, sous astreinte d’un certain montant par jour de retard passé un certain délai à compter de la signification de la décision à intervenir.

Dans une affaire TGI d’Angers en date du 20 octobre 2011 (1), qui opposait un particulier à un site d’information sur internet (2), il a été ordonné au directeur de publication du site, au journaliste et à la société éditrice de supprimer, sous astreinte, l’article incriminé, d’insérer le dispositif de l’ordonnance sur le site pendant une durée de deux mois, mais surtout d’informer de l’ordonnance les abonnés du flux Rss et de justifier de cette information auprès des demandeurs (3).

Cette condamnation revient à tenir compte du fait qu’un propos à caractère diffamatoire peut être diffusé par un site d’information par le biais de sa page d’accueil, mais également via un flux Rss (4) qui ne nécessite pas que l’internaute se rende sur ladite page pour obtenir l’information.

Maitre Sadry PORLON
Avocat au Barreau de Paris

(1)  ord.réf., 20 octobre 2011 – P. J. et a c/,N. de La C. et a.
(2)  Rue 89.
(3)  http://www.rue89.com/2011/11/16/ordonnance-de-refere-du-tribunal-de-gran…
(4)  Fichier dont le contenu est produit automatiquement en fonction des mises à jour d’un site internet.


NetBrain, la nouvelle compétition des savoirs

Denis Ettighoffer, fondateur du think tank Eurotechnopolis Institut et auteur de nombreux ouvrages sur la netécono¬mie, part d’un constat : « Quelle sera la première puissance économique mondiale dans la prochaine décennie ? Qui bénéficie déjà du taux de croissance le plus important ? La Chine ? L’ Inde ? Erreur : c’est NetBrain, une planète numérique qui est la championne toutes catégories de cette croissance. C’est Internet qui crée le plus de richesses, le plus d’emplois, le plus d’entreprises, le plus de valeur ajoutée … et de loin ! » Ce constat n’est certes pas nouveau, mais ce qui pouvait être considéré comme exogène à l’entreprise doit être pris au sérieux par les DSI. L’un des points clés concerne la fracture qui s’établit entre les entreprises et leur environnement. « Si, il n’y a pas si longtemps, nous pouvions considérer ce qui se passait dans les entreprises comme précurseur des transformations en cours dans notre société, c’est bien fini aujourd’hui », observe Denis Ettighoffer. Autrement dit, volontairement ou non, les entreprises font de la résistance. « Les outils du lien social déjà largement utilisés dans notre société ne le sont pas dans trois entreprises sur quatre. Tout comme on a empêché pendant des décennies les salariés d’accéder au téléphone », déplore l’auteur.

De fait, les systèmes d’information en place ne sont guère adaptés à ce que Denis Ettighoffer appelle les « créatifs culturels ». Par exemple, explique-t-il, « les intranets dans les entreprises restent trop souvent considérés comme une facilité supplémentaire pour échanger des messages formels, des reportings et autres données structurées, sans comprendre que ce sont justement les échanges d’informations non structurées qui devraient être encouragés. » Résultat : les entreprises qui s’en sont le mieux sorties ces dernières années sont celles qui avaient écouté leurs « créatifs culturels. » Les entreprises les plus en avance « ont découvert, avec les organisations en réseaux, de nouvelles façons de réaliser des gains de productivité et vont maintenant inventer de nouveaux modes de valorisation de la matière grise et d’échange des savoirs. Elles vont se " cross fertiliser " », assure l’auteur. Cette valorisation du capital immatériel dépasse le cadre de l’entreprise : c’est l’enjeu de la « bataille des nations savantes ». Pour Denis Ettighoffer, « il faut cesser de mener la guerre des biens immatériels comme on dirige une administration ». Et mobiliser la recherche/développement. « La France dispose pour sa part d’un capital scientifique et de ressources de savoirs considérables. Mais, conduisons-nous les bonnes stratégies pour commercialiser des biens numériques qui incarnent désormais ce potentiel ? Les réponses sont dans la commercialisation croissante de la formation (des contenus) et de la R & D, devenues des leviers économique de premier plan. Mais en France la formation n’est pas censée relever du secteur marchand et la R & D n’est pas considérée comme du business, ce qui fait le bonheur de nos concurrents », souligne l’auteur.

Les idées à retenir 

1. L’économie des objets est différente de celle des idées. L’une est physique, finie, consommatrice de ressources et débouche sur la pénurie. L’autre, immatérielle, ouvre un champ inimaginable et inépuisable. 

2. La part informationnelle d’un bien s’est accrue dans de telles proportions qu’elle représente fréquemment plus que la valeur physique d’un bien. 

3. Les entreprises doivent pouvoir se constituer des banques d’idées et de savoirs ou y accéder aux meilleurs coûts et à la demande (en temps réel), afin d’innover pour se distinguer sur leurs marchés. 

4. Alors que le taux d’échec des alliances ou des partenariats constitués sur de simples analyses économiques reste généralement élevé (certaines études évoquent 70 %), les alliances fondées sur des échanges d’idées et de savoirs, qui présentent l’avantage de constituer une communauté professionnelle cohérente, semblent mieux résister. 

5. La loi du Web est à l’inverse de celle des médias traditionnels, la valeur est créée par la pertinence de chaque connexion. 

6. La société numérique passe lentement d’une logique de propriété à une logique d’usage. Les contenus prennent plus d’importance que les tuyaux. 

7. La réussite de la mise en place d’un intranet ne relève pas de la qualité technique du réseau, même si cela reste indispensable, mais plutôt de l’intérêt du collectif pour communiquer et collaborer au travers d’un projet. 

8. Les réseaux restent encore considérés comme un investissement pour améliorer en efficacité les organisations plutôt que pour favoriser les échanges d’idées et l’innovation : une seule entreprise sur dix pense que les réseaux deviennent des vecteurs de fertilisation de son capital immatériel.

NetBrain, planète numérique, les batailles des nations savantes, par Denis Ettighoffer, Dunod, 2008, 326 p.

Ce livre a reçu le Prix de Livre de l’Economie Numérique, à lire si ce n’est déjà fait ! 

Philippe Recouppé, Président du Forum ATENA


Les nouvelles root de l’internet

Abstract

Malgré les critiques de tous bords, y compris de congressistes américains, l’ICANN s’est obstiné dans son projet de lancement de centaines, voire d’un millier, de nouvelles extensions. Les remarques sur la sélection par l’argent, sur le respect des Marques, sur l’explosion du nommage n’y ont rien fait.

Travaillant sur le multilinguisme et la gouvernance de l’internet depuis de nombreuses années, des membres d’Eurolinc se sont penchés sur la question et ont décidé d’ouvrir vraiment le root à tous.

Et si tout le monde pouvait s’approprier les réseaux, de l’individu chasseur de papillons à l’entreprise n’ayant pas les ressources lui permettant d’entrer dans le moule étasunien ?

C’est ainsi qu’Open-Root, dont le Président est Louis Pouzin, tout en respectant les protocoles d’un internet trentenaire, propose un modèle différent.

Le 12 janvier, l’organisme californien en charge de la gestion des noms de domaine de l’Internet a ouvert les extensions de premier niveau à tous. Enfin, presque.

Considéré comme l’un des précurseurs d’Internet, le français Louis Pouzin a lancé, avec Chantal Lebrument, l’initiative Open-Root de “création d’extensions personnalisées dans le respect des normes de base de l’internet“. Dans une tribune à charge qu’ils ont fait suivre à OWNI, ils expliquent tout le mal qu’ils pensent de la soi-disant “ouverture” des noms de domaines (de type .com ou .fr, NDLR) que vient de lancer l’ICANN.

Dès son origine l’internet introduisait une ségrégation des utilisateurs par les langues. Seul l’ASCII (American Standard Code for Information Interchange) était utilisable. C’est un alphabet de type latin réduit aux lettres sans accent, ne convenant qu’à l’anglais. Trente ans plus tard l’usage des scripts d’un grand nombre de langues est devenu possible avec les IDN (Internationalized domain name), ces noms de domaine sont codés en xn-- et contiennent lettres accentuées et/ou alphabets non latins. Mais en maintenant l’ASCII dans le rôle d’alphabet de référence cela risque d’être une source supplémentaire et inépuisable de confusions visuelles, notamment avec les langues possédant des caractères communs ou proches comme le cyrillique, le grec, le turc etc.

Un besoin, mais pour qui ?

Lancé lors du congrès ICANN (Internet Corporation for Assigned Names and Numbers) de Paris en juin 2008 l’argument de l’ouverture à tous des extensions de l’internet était de répondre à la critique sur la pénurie de GTLDs (Generic Top-Level Domain ou extension de 1er niveau) et la rigidité de leur gestion. Mais pour de nombreux observateurs c’était uniquement une manœuvre de l’ICANN pour augmenter ses revenus.

Le but de l’opération était également une tentative de supplanter l’OMPI (Organisation Mondiale de la Propriété Intellectuelle) dans la gestion des Marques. Maintenant, c’est clairement devenu une façon d’affirmer un monopole et un pouvoir de contrôle sur l’internet et ce en dépit des protestations de nombreux pays.

Une ouverture tamisée et très politique

Les tarifs prohibitifs – non justifiés – des nouvelles extensions introduisent une ségrégation par l’argent, et les montants exigés et décidés par l’ICANN vont accroitre la ségrégation entre les PME et les Marques qui peuvent investir près de 500K€. Cela a conduit à une première aux États-Unis, la levée de bouclier par des lobbies d’annonceurs soucieux de protéger les Marques et qui ont décidé de lutter contre l’unilatéralisme de l’ICANN. Désavoué par les sphères des lobbyistes américains avec, à court terme, une déstabilisation de cet organisme décrié et décrédibilisé… réclament une emprise gouvernementale étasunienne plus forte sur l’internet.

L’idée de l’ICANN d’ouvrir l’internet est-elle bonne ?

Mais l’internet est déjà ouvert et c’est l’ICANN qui rend invisibles les TLDs existants. Il existe actuellement des centaines de domaines indépendants de l’ICANN qui fonctionnent depuis le début des années 2000. L’initiative de l’ICANN, qui a plus de trois ans de retard sur les prévisions initiales, a suscité de nouveaux besoins qu’il n’est pas possible de satisfaire dans les conditions tarifaires et calendaires proposées.

Dans une économie mondialisée l’utilisation d’une Racine unique gérée par un monopole étasunien est une impasse technique et commerciale. Les usages sont trop diversifiés pour entrer dans le moule d’une solution monolithique conçue il y a plus de trente ans. Les Racines, qui ne sont que des annuaires, doivent se diversifier selon les usages actuels et futurs.

En fait, il y a autant de Racines Ouvertes utilisables que d’adresses IP (Internet Protocol) disponibles (versions v4 et v6). La légende de la Racine Unique est un dogme assené par l’ICANN depuis 1998. En fait, de nombreux sites utilisent cette possibilité qui leur apporte une souplesse inconnue dans le système ICANN:

Un modèle économique qui casse la chaîne alimentaire

C’est la fin du monopole ICANN et de son arbitraire pour l’enregistrement des TLDs. Certains exclus du système ICANN comme le .бг (la Bulgarie, .BG en cyrillique) ou le .el (Grèce) qui n’arrivent pas à avoir une extension dans la Racine ICANN existent maintenant dans les Racines Ouvertes. Le système de Racine Ouverte met à l’abri des saisies administratives de TLDs par le gouvernement étasunien. WikiLeaks et le Parti Pirates allemand l’ont bien compris, tout comme des communautés linguistiques ou culturelles

Les Racines Ouvertes permettent l’accès à l’ensemble de l’internet et pas seulement à leur propre Racine. Le fonctionnement est à rapprocher du système de fonctionnement des Classes, utilisées pour les Marques, qui permet la coexistence d’homonymies dans des Racines différentes.

Certains opérateurs proposent des tarifs et un modèle économique basé sur la vente et non plus sur la location de TLD, ce qui montre que la proposition de l’ICANN est aberrante. Enfin on peut ouvrir l’internet à tous, individus, entreprises et communautés incluses, tout en rendant la ressource TLD inépuisable et peu coûteuse, c’est la fin de la course à l’armement pour les Marques et l’aube de nouveaux usages : par centre d’intérêt, pour les familles dispersées, pour des projets à court terme…

Un choix d’utilisation

La visibilité des TLDs en Racine Ouverte est un choix, on peut rester invisible et fonctionner en extranet ou être rendu public et communiquer sur le nom de son produit, de sa communauté. Sur la problématique du référencement, Google – qui indexe moins de 10% de l’internet ! – a les moyens techniques d’accéder à l’ensemble des contenus publiés dans la zone publique et est libre d’indexer les sites de son choix. En pratique, sont indexés les sites jugés les plus rentables pour Google.

L’internet étant très réactif, on peut imaginer que des Modules (Add-ons) de Mozilla permettront d’entrer une fois pour toutes ses préférences de racine ou encore qu’un FAI (Fournisseur d’Accès à Internet) les mettra à disposition de ses clients. Le surf serait alors totalement transparent et sur la totalité de la Toile.

Précisions

La proposition d’Open-Root est la vente d’extension ou TLD sans coût de réabonnement et avec un hébergement dans une infrastructure de serveurs basés sur l’Open Source (BIND), répartis dans les 5 continents. Les extensions ainsi créées restent la propriété du client qui peut en disposer selon ses besoins.

Dans l’actuelle conception du DNS de l’Icann un TLD est unique dans la racine. Cette contrainte est la même dans tous les systèmes basés sur BIND. Pour permettre l’existence d’homonymes Open-Root utilise plusieurs racines. Dans l’internet, ICANN et racines ouvertes, il n’y a aucun moyen d’empêcher la création d’homonymes. La création de 1000 extensions supplémentaires par l’ICANN ne peut que banaliser cette pratique. Seul le dépôt d’une Marque peut protéger dans un cadre légal.

Open-Root n’est pas un Registre mais un Registrar qui propose l’usage, l’enregistrement et l’exploitation de noms de domaine de 1er niveau (l’équivalent des .COM, .NET ou .FR).

Open-Root a été créé par Louis Pouzin et Chantal Lebrument et est un des produits de la société Savoir-Faire SAS (RCS Paris 535 199 228)

Quelques exemples de Racines Ouvertes existantes:

http://правителство.бг (= Gazette du gouvernement bulgare) – http://sachsen.pirates (= Parti Pirate allemand) – http://gov.linna (= Ligue des nations indiennes d’Amérique du nord) – http://ducadicastro.2sc (= Maison royale des Bourbons des deux Siciles) – http://wikipedia.ku (= Wikipedia en kurde) – http://namgyallhamo.ti (= Chanteuse tibétaine) – http://uyghurensemble.uu (= Ensemble musical ouighour londonien)

Pour accéder à ces sites, il faut ajouter des Racines (n°IP) dans les préférences "réseau" de son poste, ou le routeur de son entreprise. Email :contact@open-root.eu

Email :contact @ open-root.eu

Chantal Lebrument et Louis Pouzin


Le strip du mois

Un protocole est un ensemble de règles et de procédures à respecter pour émettre et recevoir des données/informations entre deux ou plusieurs systèmes (ordinateurs, applications, programmes, etc.). Il définit uniquement la façon par laquelle ces systèmes doivent communiquer. Il en existe plusieurs selon ce que l’on attend de la communication. Certains protocoles la structure de navigation sur le Web (comme le HTTP), d’autres sont définis pour la téléphonie sur Internet ou VoIP (c’est le cas du protocole SIP).

 

Agenda

Jeudi 19 janvier
Iteanu Avocats (164 rue du Fbg St Honoré – Paris)
De la loi du silence à la nouvelle obligation légale de rendre publiques les failles de sécurité des SI
Inscrivez-vous

 


Mardi 24 janvier
Restaurant Misia (5 – 7 rue du Commandant Rivière – Paris)
Diner de l’innovation : le marché de la e-réputation


Lundi 30 janvier
Mairie d’Issy les Moulineaux
8ème Voeux de l’Internet + conférence : l’impact des TIC sur les modèles socio-économiques


Du 13 au 15 mars
Parc des Expos, Porte de Versailles (Pavillon 4)
Salon CoIP


 

Retrouvez nos publications sur la boutique Lulu :   

  

 brancheolivier Pour soutenir Forum ATENA brancheolivier