Newsletter n°58 – mars 2013
Depuis plus de 10 ans, le marché de l’accès fixe en France est concurrentiel. Cela a été possible par la mise en place du dégroupage, sous la pression et les actions successives de l’Autorité de la Concurrence, des gouvernements et de l’ARCEP.
Si cette régulation a permis l’émergence de quelques acteurs (trop peu aujourd’hui) elle a aussi permis la pérennisation de petits opérateurs de services, leur permettant d’accéder à des offres de revente, et d’innover dans les services.
Ces acteurs ont été innovants sur les offres entreprise, ce sont eux qui ont ouvert les premières offres IP Centrex, puis les offres de Cloud Computing, de stockage, sous des multiples formes (et sans subvention !)
Parallèlement, mais avec retard, des offres de gros se sont progressivement (et difficilement) développées dans le marché du mobile, avec les MVNO (Mobile Virtuel Network Operateur). Pour ces acteurs, la possibilité de revendre des offres 4G LTE semble être en cours, elle est la condition de la poursuite de l’ouverture sur ce marché.
Pourtant, ces avances significatives, sur plus d’une décennie, pourraient être remises en cause par l’arrivée du très haut débit, et plus particulièrement l’accès fibre. En effet, il n’existe pas aujourd’hui d’offre de gros de service, régulée, de la part des opérateurs d’infrastructure, dans les zones denses (un équivalent du dégroupage du cuivre). Or, dans les zones denses, dites AMII, seuls les opérateurs privés investissant pourraient vendre des offres. Plus ! Le régulateur ne paraît pas prévoir de "dégroupage” ! Par conséquent, nous pourrions revenir à une situation d’oligopole, qui limiterait la concurrence et le choix aux consommateurs.
Au moment où certains voudraient restreindre les prérogatives du régulateur sectoriel (ARCEP), je crois nécessaire de réaffirmer la nécessité d’une régulation forte de ce secteur, pour lutter contre le risque de reconstruction d’un oligopole, et la nécessité de réinterroger la régulation du secteur, pour une meilleure prise en compte des offres de services, ainsi que pour la mise en place d’un marché unique dans les télécoms au niveau de l’Europe entière.
Philippe Recouppé & Samir Koleilat, Président et Vice-président de Forum ATENA.
En pourçent, c’est la part du livre numérique dans le marché global du livre. Ce très faible résultat est à comparer aux 15 % des États-Unis. Peut-être est-ce lié à la distribution ? Avec quelque 3 000 établissements la France détient avec l’Allemagne le record du nombre de librairies par habitant, auxquels on peut ajouter 20 000 points de vente non dédiés. … un peu comme si une offre xDSL de bonne qualité bridait l’engouement pour le très haut débit ?
Zones AMII, le cauchemar des opérateurs locaux
La richesse de notre société marchande réside dans la concurrence des acteurs, c’est ce principe qui a prévalu lors de la promulgation de la loi de 1996 qui consacre l’ouverture à la concurrence du secteur des télécommunications, auparavant en situation de monopole légal, en dehors du secteur de la téléphonie mobile.
Les pouvoirs publics et l’autorité de régulation des télécoms (ART puis ARCEP) ont alors appelé de leurs vœux la création d’opérateurs de services souvent locaux pour favoriser cette concurrence, qui permet l’innovation, la baisse des prix et en général le dynamisme économique.
Sur tout le territoire français, des femmes et des hommes entreprenants ont entendu cet appel et ont créé plusieurs centaines de fournisseurs d’accès Internet, alors que l’opérateur historique était englué dans l’expérience du minitel. Les grandes salles de réunion dans les locaux de l’ART avaient du mal à contenir les représentants de ces sociétés que l’autorité de régulation réunissait régulièrement.
Qu’il était doux de se voir choyé par les pouvoirs publics et l’autorité de la régulation !
L’éclatement de la bulle Internet en 2001 d’un côté, les investissements nécessaires au passage de l’accès commuté (modem) au DSL et à la fibre optique de l’autre ont clairsemé les rangs de ces entrepreneurs passionnés par le progrès technologique dans le secteur des télécoms. Pourtant, ce sont eux, qui ont portés les nouveautés de la VOIP, des hébergements d’applications, des réseaux MPLS…Ils ont pris une place non négligeable sur le marché télécoms aux entreprises et aux collectivités publiques en s’appuyant notamment sur les réseaux d’initiative publique portés par les collectivités territoriales et ceci en répondant là encore à l’appel des pouvoirs publiques, nationaux, régionaux et locaux.
Cependant, alors que se met en place l’énorme chantier du déploiement généralisé de la fibre optique (FTTH, FTTB, FTTO…), il semble que les pouvoirs publics et l’autorité de régulation (ART devenu ARCEP), au nom du réalisme économique tournent le dos à ce qui a prévalu jusqu’alors et oublient les partenaires d’hier.
En effet, au mépris des principes de la concurrence et des conseils de la communauté européenne (Bilan intermédiaire THD décembre 2012) qui préconise que lors de l’ouverture d’un nouveau segment de marché, les opérateurs d’infrastructure proposent des offres de gros aux opérateurs de service, les dispositions qui prévalent aujourd’hui dans le cadre du déploiement de la fibre dans les zones AMII semblent consentir aux 2 principaux opérateurs, un monopole sur ces zones, puisque aucune disposition ne leur impose de proposer une offre de gros de liens FTTH activées aux opérateurs de services.
Comment les opérateurs locaux tant chéris hier par les pouvoirs publics vont-ils pouvoir continuer à proposer à leur client des réseaux homogènes alors que dans les régions, ils n’auront pas accès aux principales villes qui auront été monopolisés par les deux grands opérateurs d’infrastructure.
Que c’est dur de se voir oublier aujourd’hui dans le paysage télécom français, alors que les pouvoirs publics, les autorités de la régulation et de la concurrence nous ont tant aimé et reconnu hier.
Il faut que cela se sache : si aucune disposition réglementaire n’est prise pour imposer aux opérateurs d’infrastructures une offre très haut débit activée pour les opérateurs de service, plus d’une centaine d’opérateurs locaux devront changer d’activité, s’ils le peuvent.
Pourtant qu’on ne s’y trompe pas, nous, les opérateurs locaux, nous avons porté depuis plus 15 ans l’innovation dans le secteur des télécommunications, notre disparition et la duopolisation du marché qui en découlerait n’aurait probablement pas l’effet escompté et le déploiement des réseaux risquerait de se faire alors au détriment de l’esprit d’entreprise, de l’innovation de services et de contenus.
Philippe LAREDO, Président d’Option Service Télécom – Opérateur local en Picardie, Champagne Ardenne
Administrateur de Forum Atena – Président de l’atelier « régions » de Forum Atena
Quels sont les risques d’usage du Cloud ? Et qui est responsable de quoi ?
Quels sont les défis à relever par les professionnels ? La sécurité proposée sur chaque offre est-elle suffisante ? Comment évaluer les services disponibles autour des offres, la réversibilité pour le client, ou encore la pérennité de l’offre ?
Autant de questions que le client se pose (parfois inconsciemment) qui freinent le développement des ventes du Cloud, rendent les consultants assez sceptiques et les usagers frileux…
Essayons d’y voir plus clair en définissant les défis des prestataires, des éditeurs, des assureurs et des usagers.
En matière de sécurité du Cloud, un simple clic sur Google génère une avalanche d’offres… plus de mille, faites directement par les éditeurs eux-mêmes ou par des prestataires multi-produits. Toutes s’affirment successfull “différentes et innovantes” toutes promettent de générer du chiffre et d’optimiser la productivité, mais l’analyse laisse perplexe car aucune ne détaille les conditions de la sécurité et de la sauvegarde, ou encore la répartition des ventes entre serveur et logiciel, bref les offres cloud restent souvent… nuageuses !
Les meilleures ventes aujourd’hui sont celles d’Amazone, Azur, IBM, OVH et Acropolis. Toutes sont faites majoritairement par la vente de serveurs virtuels, ce qui est assez compréhensible car ce sont des ventes qui s’adressent à des utilisateurs avertis techniquement et qui savent mettre en œuvre eux-mêmes tous les instruments nécessaires leur permettant de compenser les manques dont souffrent les offres.
Exemple type : le prix d’une VM vendue en “offre de base ” peut sembler à priori attractif. Mais le contenu réserve des surprises : l’offre n’est pas sécurisée, ce qui signifie clairement qu’elle est sans protection : les informations ne sont pas protégées par un pare feu. De plus, cette VM “au meilleur prix” ne bénéficie pas d’une répartition de charge ni de sauvegarde intégrés… A ce prix de base “compétitif” il faut donc rajouter toutes les options, si tant est qu’elles soient disponibles, faciles à comprendre, faciles à approvisionner et à mettre automatiquement en place sur le site… Ce qui n’est pas gagné!
Or ces éléments font -ou devraient faire- partie de l’offre comme la ceinture de sécurité fait désormais partie de la voiture. Et il ne faut pas attendre des incidents pour imposer des protections.
Il a fallu des décennies pour que les constructeurs automobile rajoutent la ceinture de sécurité en série sur les voitures (et non plus comme accessoire) et aux états pour la rendre obligatoire car -c’est le paradoxe du progrès- plus on a limité la vitesse moins la ceinture de sécurité semblait nécessaire. Ce sont les chocs frontaux qui ont donné aux ingénieurs l’idée d’attacher le conducteur à son siège.
Le défi des prestataires, Le Cloud est natif d’internet et des réseaux sociaux. Un monde dans lequel les incidents sont immédiatement décelés et les sanctions, elles aussi, immédiates : le moindre incident génère instantanément une critique qui se propage comme une trainée de poudre sur la toile forçant les éditeurs et les prestataires à réagir pour la sauvegarde de leur e-réputation.
De plus, le buzz n’est pas toujours maîtrisable, car avant de choisir, les usagers ont pris la fâcheuse habitude de lire les avis de ceux qui les ont précédés… Et même si aujourd’hui tous les sites n’ont pas tous une rubrique “avis” demain tous seront contraints de la proposer.
De même, on peut parier que dans moins de deux ans, les sites seront contraints de préciser où se trouvent les bases de données de chacun des clients, quels sont les garanties qu’ils offrent et qui en est responsable? Mais comme dans l’automobile, plus les offres avancent et se concurrencent, plus elles contiennent des options, offrent des sécurités et fournissent une transparence sur les technologies.
Conclusion : Les éditeurs de logiciels dans le Cloud doivent être irréprochables tant pour la qualité de leur logiciel que dans le choix de leur prestataire.
Les défis des éditeurs sont multiples car la plupart n’ont pas encore adapté leur logiciel à un usage mutualisé, permettant l’accès à plusieurs sociétés en même temps et pour chacune à un nombre différent d’utilisateur. Autre incertitude : ceux qui ont engagé cette adaptation ne savent pas encore vraiment quels sont les problèmes de charge qu’ils vont rencontrer… hormis quelques éditeurs -les plus avertis- qui ont trouvé des laboratoires leur permettant de faire les tests nécessaires avant de mettre leurs solutions en vente, partant du principe qu’il vaut mieux éviter les bugs plutôt que de les réparer…
Le défi des assureurs, Bien qu’il soit entièrement responsable, le client ignore encore le plus souvent l’importance de sa responsabilité. Par exemple, nous avons constaté que de nombreux clients ignoraient si leur contrat d’assurance prévoyait la couverture des modes d’utilisation en ligne des logiciels (avec pare feu et sauvegarde) acquis et installés au sein de leur entreprise…
Dans le cas du Cloud, quel recours le client peut-il avoir contre son prestataire ? La réponse est: ” rien ne le précise”. Les polices d’assurance n’ont en effet pas encore assez de sinistres à couvrir (et donc d’expérience) pour répondre à cette question. Plus les accidents se multiplieront sur les routes du Cloud (parsemées d’embuche), plus les assureurs feront la course pour devenir celui qui couvre -mieux que ses confrères- les risques d’accidents dans les nuages du Cloud…
Les défis des usagers, Bien que protégé par les lois, les états et les institutions, l’usager reste le premier responsable des usages du Cloud, comme l’automobiliste reste le premier responsable de sa conduite: ce n’est pas parce qu’il va mettre sa ceinture de sécurité et respecter la limite de vitesse qu’il n’est plus responsable de sa conduite ou qu’il ne faut pas qu’il fasse attention aux dangers qui l’entourent y compris ceux provoqués par les autres usagers.
Le problème est que dans le Cloud le risque de l’entreprise ou de l’individu est nouveau et touche à des données sensibles. Le particulier peut mettre sur la place publique ses informations personnelles à travers les réseaux sociaux, et en assumer seul les conséquences. Dans une entreprise, un utilisateur ne peut pas en faire autant avec des informations qui sont la propriété de son entreprise et par conséquent qui ne lui appartiennent pas. Et s’il manipule des données même si elles ne lui appartiennent pas, il est responsable de ses actes.
Par ailleurs, il faut rappeler que le dirigeant porte la responsabilité de ses employés ainsi que du choix des prestataires et des éditeurs. Par exemple, chaque employé peut avoir -selon les instructions données par l’entreprise- une ou plusieurs identités numériques lui permettant d’accéder à un ou plusieurs sites de services en ligne. Si ces identités ne sont pas protégées dans un des sites, elles peuvent faire l’objet d’usurpation provoquant un risque d’intrusion par des pirates dans le cœur des données de l’entreprise.
Le principal défi à relever par la communauté consiste à assurer à l’usager ou à l’entreprise la possibilité de changer de prestataire ou de changer de logiciel. La plupart des offres Cloud prétendent proposer une souplesse d’utilisation tant dans la location que dans la durée d’engagement, mais il faut s’assurer que les conditions ne soient pas contraignantes et que l’on puisse effectivement la quitter facilement. Or dans ce domaine, il faut être vigilant car il y a des promesses mensongères et nous n’en sommes qu’au début, des plateformes existent tel que le open stack ou open Cloud mais elles ne sont pas encore généralisées et nous ne savons rien sur leur efficacité ou leur limite, les développements sont en cours, les bugs encore inconnus … le seul paramètre connu est l’absence total d’expérience de ces plateformes.
Les défis de la sécurité, les scientifiques nous le promettent : l’homomotique (le nom choisi par les scientifiques pour décrire la prochaine génération de chiffrement des données…) devrait être la meilleure sécurité pour le transit des informations sur le Cloud. Mais elle est encore à l’étude et ne sera proposée par les scientifiques des centres de recherche et développement que dans trois ans… Promis…
Dans le domaine de la sécurité comme dans d’autres, on peut avoir le sentiment que l’on sait éviter les pièges ou que “les problèmes n’arrivent qu’aux autres”… mais pour ceux qui regardent la réalité en face, Acropolis the Cloud Company a mis en place une Hot Line gratuite qui vous permet de poser vos questions et dans la mesure du possible d’obtenir des réponses par des spécialistes sur l’adresse suivante : http://risque.acropolistelecom.net
Samir Koleilat – Président d’Acropolis
Conférence Forum ATENA – Soirée sur “Le cloud souverain”
Le Cloud souverain, tout le monde en parle, certaines entreprises disent qu’elles en font, le Gouvernement français a indirectement financé à grands coups de millions deux entreprises sur ce thème. Le Cloud souverain existe-t-il seulement ?
Quelle est la part du mythe et de la réalité dans l’USA Patriot Act de 2001 qui autorise le FBI à capter des données dans le nuage ? Quels sont les risques et enjeux du Cloud computing quant à la souveraineté liée à la perte de contrôle sur nos données ?
Nous vous proposons d’échanger sur ce sujet dans le cadre d’une soirée organisée par le Forum Atena le 25 avril de 18h30 à 20h, animée par Maître Olivier ITEANU, Avocat à la Cour et Chargé d’enseignement de l’Université de Paris I Sorbonne, responsable de la commission juridique du Forum Atena.
Inscription préalable obligatoire, nombre de places limitées
Lieu de la réunion:
ITEANU AVOCATS, 164 rue du Fbg Saint- Honoré, Paris 8 (Métro St Philippe du Roule)
Escalier A – 5ème étage.
Olivier ITEANU, Avocat à la Cour
Conférence Forum ATENA – Hébergement: quel(s) métier(s) pour quel(s) droit(s) ?
15 ans après la première affaire Altern, bientôt 10 ans après la Lcen, le web n’en finit pas de trembler autour de la notion très mal définie d’hébergeur. Les plaintes et les maux se multiplient, la Hadopi, nouvelle autorité (une de plus ?) n’en finit pas d’être contestée que voici venir le dernier rapport de la commission “Lescure”. Dès janvier de cette année le président de la commission a fini par remettre en cause la théorie de l’hébergement 2.0 qui voit se confondre les opérateurs de serveurs et les éditeurs/diffuseurs de contenus.
Mais derrière ce capharnaüm juridique se cache peut-être une réalité moins brillante: l’absence d’intérêt pour les métiers qui compose “l’internet” contemporain au premier rang desquels figure celui d’hébergeur. Que recouvre-t-il exactement ? Quels sont les enjeux de la fusion proclamée avec les éditeurs/diffuseurs ?
Forum Atena propose d’en débattre autour de plusieurs spécialistes techniques, juridiques, universitaires lors d’un après-midi en juin prochain.
Jean Claude PATIN, responsable Internet – Stratégie JURITEL
L’Hadopi remet en cause le statut d’hébergeur
En fait. Le 25 février, Mireille Imbert-Quaretta, présidente de la Commission de la protection des droits (CPD) de l’Hadopi, a remis à la présidente de cette dernière son rapport sur « les moyens de lutte contre le streaming et le téléchargement direct illicites ». Elle y critique le statut d’hébergeur.
En clair. « Le statut d’hébergeur a (…) favorisé le développement des actes de contrefaçon à grande échelle. Il est ainsi devenu un espace de protection pour les sites qui fondent leur activité sur la mise à disposition non autorisée de contenus. Cet espace a été préservé par la jurisprudence, qui a consacré une acception large de la notion d’hébergement mais une appréciation stricte de l’obligation de retrait », critique Mireille Imbert-Quaretta, dans son rapport daté du 15 février (http://lc.cx/MIQ).
Si la Cour de cassation a reconnu le 17 février 2011 la qualité d’hébergeur à Dailymotion (1) et à un site d’hébergement de liens hypertextes (à l’époque Bloobox/Fuzz), elle a en revanche écarté le 3 mai 2012 le bénéfice de ce statut protecteur au site d’enchères eBay et au site musical Radioblog. « (…) C’est l’existence d’une capacité d’action sur les contenus ou d’un rôle actif du site de nature à lui donner une connaissance effective des contenus illicites qui peut permettre d’écarter le régime limitatif de responsabilité de l’hébergeur. La présence d’un contenu illicite sur un site ne suffit pas à engager sa responsabilité, mais les sites qui ont un rôle actif sur les mises à disposition de contenus illicites ne peuvent pas se retrancher derrière le statut d’hébergeur ». Ainsi, pour lutter contre le streaming et le téléchargement direct illicites, la magistrate estime que les sites web concernés devraient généraliser la pratique volontaire de la suppression définitive (« take down and stay down ») des contenus piratés. Or, pour l’instant, les hébergeurs ne doivent retirer ou empêcher l’accès aux contenus illicites que s’ils en ont eu effectivement connaissance (2). Les outils d’empreintes numériques, tels que Content ID de YouTube, permettent pourtant ce retrait systématique et définitif.
Or, le rapport « MIQ » rappelle que la directive européenne de 2000 sur le commerce électronique donne la possibilité aux Etats membres de « prévoir une série d’obligations à la charge des intermédiaires [hébergeurs, fournisseurs d’accès Internet, fournisseurs de «cache», publicitaires, financiers, …], destinées à faire cesser ou prévenir les atteintes liées à des contenus illicites ». Selon Mireille Imbert-Quaretta, si la législation peut l’imposer contre le blanchiment d’argent sale, alors elle devrait pouvoir le faire contre le piratage en ligne.
(1) – Lire « Le statut d’hébergeur protège YouTube et Dailymotion », EM@59, p. 3 et EM@65, p. 3.
(2) – Procédure de notification des contenus illicites prévue par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), article 6-I-5.
Edition Multimédi@ – editionmultimedia@sfr.fr
Jeudi 25 avril Organisé par Forum Atena Soirée "Le cloud souverain" |
Mardi 21 mai Organisé par Forum Atena Les cybermenaces, quels risques pour les entreprises ? |
Mercredi 22 mai Organisé par Forum Atena Soirée networking (réservée aux Membres) « Big Data » |
Vendredi 29 mars
La Plaine Saint-Denis
Conférence Media4D
Pour soutenir Forum ATENA