Pistes de réflexion et d’actions : Pourquoi et comment agir dès aujourd’hui ?
Interdire… Je n’entends que ce mot, interdire, interdire : interdire les réseaux sociaux. Interdire les smartphones. Interdire Internet… interdire, est-ce réellement une solution? Est ce qu’on a interdit l’imprimerie quand elle s’est développée ?
Et pourtant elle a bien bouleversé le monde, dès son arrivée.
Au moment de l’apparition de l’écriture, nul trace archéologique des réactions’ à ces moments, mais sans doute a-t-elle provoqué bien des hésitations, certaines sociétés, comme les Celtes, ont beaucoup hésité à l’adopter quand elle est apparue, car l’écriture, comme l’imprimerie, comme le Net ou les réseaux sociaux permettent le meilleur comme le pire, à l’image de l’homme …
Les réseaux sociaux, l’Internet, les smartphones, ce sont des inventions formidables, mais les réglages sont à chaque fois difficiles à trouver pour amplifier les atouts, minimiser les dangers, et pour les réseaux sociaux, voir l’Internet, ces réglages ne sont pas encore trouvés.
Alors que faire ? Réguler est difficile, cela demande du temps.
Les réseaux sociaux sont des outils formidables pour échanger à l’échelle de l’humanité comme d’une classe de collège : débattre, comprendre, s’informer, connaître l’autre, découvrir, faire société. L’atout maître des réseaux sociaux : le vivre ensemble, l’échange, la possibilité de débat entre opinions différentes, la perception des points de vue nouveaux, leur confrontation. Mais tout cela pourraient disparaître au nom du profit de ces plateformes et des publicitaires qui les alimentent.
Les réseaux sociaux ont profondément transformé nos modes de communication et d’information. Pourtant, derrière l’apparente gratuité et simplicité de ces plateformes se cache une mécanique sophistiquée : des algorithmes de recommandation conçus pour maximiser le temps d’utilisation et l’engagement des utilisateurs, dans l’unique but de vendre de la publicité, de vendre nos données personnelles, de faire des profits, peu importe le prix social. Les grands acteurs de l’internet qui se sont emparés de ces outils ont complètement dénaturé le potentiel de ces outils.
Cette logique économique entraîne des conséquences non acceptables, particulièrement pour les publics fragiles et soulève des questions éthiques et juridiques majeures.
- Comment concilier la liberté d’expression, la libre entreprise et la protection des utilisateurs ? La survie de notre société ?
- Quels cadres réglementaires permettraient de responsabiliser ces géants du numérique sans verser dans la censure ?
- Que pouvons-nous faire, que devons-nous faire ?
Un outil qui pourrait être formidable
pour construire le vivre ensemble.
Des élections sous influence, truquées, ou pour le moins fortement influencées, des jeunes déboussolés, certains poussés au suicide, des adultes dépendants, la valeur économique considérable ainsi récupérée est captée par quelques acteurs dominants mondialement, par un profilage généralisé des consommateurs, afin de les soumettre à une exploitation sans limite de notre société de consommation.
Les réseaux sociaux sont devenus des acteurs centraux de la vie sociale, culturelle et politique. Leurs algorithmes, conçus pour maximiser l’engagement, les interactions (likes, partages, commentaires), définir les profils de navigation de chacun, amplifient les contenus polarisants, addictifs ou nocifs, fake news, infox, ils ne sont pas neutres.
Comment protéger tous les publics, et particulièrement les plus fragiles (jeunes, personnes en détresse psychologique, etc.) sans censurer à tout va, sans interdire les plateformes ? Les smartphones ?
Quels leviers juridiques et réglementaires ? => Responsabiliser !
Les algorithmes sont au cœur du fonctionnement des réseaux sociaux, ils façonnent l’expérience des utilisateurs en sélectionnant et amplifiant les contenus les plus susceptibles de retenir leur attention, sans que leurs utilisateurs puissent intervenir sur le réglage de leurs algorithmes, ou les désactiver (sauf une exception hypothétique).

Voyons cela plus en détail : Les algorithmes de recommandation (par exemple ceux utilisés par Facebook, TikTok, Instagram, YouTube, et quelques autres…) exploitent les biais cognitifs : informations sensationnelles, à caractère violant, sexuel, récompenses aléatoires, pour maximiser le temps passé sur la plateforme, définir pour vendre les profils des utilisateurs et pousser des publicités dont certaines peuvent en plus être dangereuses, et parfaitement illégales et identifiées comme telles.
Privilégier les contenus émotionnellement chargés, polarisants ou sensationnalistes génère davantage d’engagement que les contenus nuancés ou factuels. Les études montrent que la colère, l’indignation ou la peur sont des émotions particulièrement virales. Ainsi, sans nécessairement avoir des intentions malveillantes, ces systèmes amplifient algorithmiquement les contenus les plus clivants pour mieux vendre les données personnelles, afin d’afficher les publicités les plus personnalisées possible, et gonfler les chiffres d’affaires, quitte à afficher des publicités interdites, à diffuser des informations nocives, dangereuses.
En classant l’information par affinité supposée, les algorithmes créent des bulles informationnelles. Les opinions se cristallisent ; les usagers fragiles ou isolés se retrouvent enfermés dans des cercles fermés de désinformation ou d’extrémisme, sans confrontation saine aux idées divergentes. Exposition accrue aux contenus néfastes, sensationnalistes, polarisants ou choquants, à caractère violent, sexuel, privilégiant l’affrontement, l’insulte, car ils génèrent plus d’engagement, ils incitent à réagir, et donc à rester plus longtemps dans le réseau social, pour consommer plus de publicité, pour générer plus de chiffre d’affaires.
Ils reposent sur une analyse comportementale fine, personnalisée : à partir du temps passé sur un contenu, l’objectif est de proposer les contenus qui maintiendront l’utilisateur le plus longtemps possible sur la plateforme. Cette logique de l’engagement maximum crée une boucle de rétroaction : plus un type de contenu capte l’attention, plus il sera proposé, créant des “bulles de filtre” qui enferment progressivement les utilisateurs dans des univers informationnels homogènes mais restreints, appauvris.
Les jeunes sont particulièrement vulnérables, avec des risques de surconsommation de contenus toxiques, de normalisation du harcèlement, d’encouragement involontaire à la violence ou à la dépression.
Parce qu’ils enferment les utilisateurs dans des bulles les algorithmes renforçent les opinions extrêmes et la méfiance envers les institutions. Ils bloquent les échanges d’idées, les échanges vrais, les dialogues argumentés, contradictoires, pour privilégier les oppositions, l’invective, la violence verbale, les menaces, entraînant les échanges vers des discours haineux, la radicalisation, et l’affaiblissement voire l’anéantissement du débat démocratique.
Quels sont les principaux dangers ?
Tout d’abord les jeunes adolescents, qui constituent la population la plus à risque. À un âge où la construction identitaire est en cours, où la validation par les pairs revêt une importance capitale, les réseaux sociaux peuvent devenir toxiques. Les algorithmes détectent rapidement les fragilités : troubles alimentaires, anxiété sociale, dépression. Un jeune qui consulte du contenu relatif à l’anorexie se verra proposer toujours plus de contenus similaires, créant une spirale de renforcement potentiellement mortelle. Les témoignages de parents ayant perdu des enfants après une exposition prolongée à des contenus pro-anorexie, automutilation, ou incitation au suicide, voir le rôle de TikTok dans la viralité du “Blackout Challenge” ou plus généralement les défis dangereux.
Mais les jeunes ne sont pas les seuls concernés. Les personnes âgées, moins alphabétisées numériquement, sont particulièrement vulnérables à la désinformation. Les algorithmes, détectant leur appétence pour certains types de contenus, peuvent les enfermer dans des univers complotistes ou radicaux. Les personnes souffrant de troubles psychologiques, les individus traversant des crises existentielles, tous peuvent être ciblés et piégés par ces mécaniques algorithmiques qui exploitent leurs faiblesses.
Quels sont les preuves ?
Il y a dix ou vingt ans, ce n’étaient que des intuitions, mais depuis quelques années, les données scientifiques s’accumulent :
- Frances Haugen, lanceuse d’alerte chez Facebook, a révélé que l’entreprise connaissait les effets néfastes d’Instagram sur la santé mentale des adolescentes mais continuait à optimiser l’engagement.
- Des études montrent une corrélation entre le temps passé sur les réseaux sociaux et l’augmentation de l’anxiété ou les troubles du sommeil, de la dépression. voire des comportements suicidaires chez les jeunes.
- Lors du procès intenté contre Meta en 2023, il a été démontré qu’ils avaient sciemment conçu des fonctionnalités addictives pour les adolescents.
- Au-delà de la santé mentale, ces algorithmes ont également été impliqués dans la radicalisation politique, la propagation de théories complotistes et même, dans certains contextes comme le Myanmar, à l’incitation à la violence ethnique.
- 30 états américains intente un procès contre Meta, pour addiction des adolescents (octobre 2024)
des études démontrent l’impact d’Instagram sur la santé mentale - le rôle de TikTok est démontré dans la diffusion de défis dangereux, causes de morts d’adolescents
annulation du premier tour des élections présidentielles en Roumanie
Les régulations actuelles sont-elles efficaces? Sont-elles suffisantes ?
Les chartes éthiques et les outils de modération (ex. : signalement de contenus) ont démontré leurs inefficacités. Les promesses de Meta ou TikTok pour limiter l’exposition des jeunes à certains contenus ne sont pas suivies d’effets concrets. Avant de réguler, il fallait essayer l’autorégulation, cela a été fait, sans aucun succès significatif. Aujourd’hui, la preuve est faite de l’inefficacité de l’autorégulation, il faut passer à autre chose.
Le droit européen, RGPD, DMA (Digital Markets Act), DSA, IA Act sont des avancées pour encadrer la collecte de données et les pratiques anticoncurrentielles, mais peu de mesures ciblent spécifiquement les algorithmes et elles ne sont pas basées sur la responsabilisation des acteurs. L’immunité juridique des plateformes est basée sur le principe de l’hébergement des contenus pour le compte des utilisateurs, et non pas sur l’édition, la publication de ces contenus. Ce principe a été admis de part et d’autre de l’Atlantique depuis un quart de siècle, c’est le frein majeur à leur responsabilisation.
À la fin des années 90, et au début des années 2000, la question s’était posée de savoir s’il fallait responsabiliser ces plates-formes pour les contenus qu’elles permettaient de mettre en ligne. Forum ATENA, qui à cette époque représentait une certaine influence sur le marché du numérique naissant, n’a pas compris qu’en favorisant leurs développements, nous allions favoriser à terme leur irresponsabilité.
Admettre que les plates-formes n’étaient pas responsables des contenus qui pouvaient y être déposés, c’est-à-dire ne pas appliquer les règles qui s’imposent aux médias, à la presse écrite, audiovisuelle, était leur donner un avantage concurrentiel trop important, qui a été essentiel pour assurer leur développement rapide et leur domination.
Cette position n’était pas erronée en elle-même, dans ce moment d’émergence, et alors que ces plateformes n’intervenaient pas ou très peu dans la visibilité des contenus déposés par les internautes. Aujourd’hui, cette position n’est plus tenable.
Réguler les réseaux sociaux sans tomber dans la censure ou l’atteinte
à la liberté d’expression constitue un défi démocratique majeur.
L’équilibre est délicat : il ne s’agit ni de laisser ces plateformes en totale liberté, ni de leur imposer un contrôle éditorial qui les transformerait en censeurs privés du débat public.
La clé réside dans la distinction entre le contenu lui-même
et son amplification algorithmique.
Aujourd’hui, les plateformes interviennent de façon massive pour pousser certains contenus, ou au contraire, minimiser la communication de certains autres. C’est sur ce point qu’il faut agir aujourd’hui !
Une plateforme qui pousse un contenu doit devenir responsable de ce contenu, puisqu’elle intervient dans sa diffusion, dans son édition.
Le principe directeur pourrait être le suivant : les plateformes ne sont pas responsables de tout ce que les utilisateurs publient (principe de l’hébergeur), mais elles sont responsables de ce qu’elles choisissent d’amplifier via leurs algorithmes. Cette distinction permet de préserver la liberté d’expression tout en imposant une responsabilité sur les choix éditoriaux implicites que représente toute recommandation algorithmique.
Un contenu amplifié par un réseau social, recommandé par lui, s’il pose problème, doit pouvoir entraîner sa condamnation pour cet acte, puisqu’elle est intervenue, a contrevenu à sa neutralité, a été au-delà de sa responsabilité d’hébergeur.
Je ne crois pas qu’on doive et qu’on puisse intervenir sur l’algorithme, il doit rester la responsabilité de la plate-forme, puisque c’est un élément essentiel de son existence et de sa viabilité économique. Pour autant, elle n’a pas à être considérée comme irresponsable sur les conséquences de l’utilisation de cet algorithme.
La réponse réglementaire doit être la responsabilisation des réseaux sociaux, sur la base non pas des contenus eux-mêmes mais de leur amplification algorithmique. Une plateforme, quand elle participe à l’édition en amplifiant sa diffusion d’une information par l’utilisation d’algorithme, devient à ce moment-là éditeur, et donc responsable de ce contenu, au même titre que les médias. Elle doit donc se voir appliquer les mêmes règles, être soumise aux mêmes juridictions, et sanctionnée en cas d’infraction.
Je crois qu’il faut responsabiliser les plates-formes sur les résultats de ces algorithmes. La non-responsabilité dont les plates-formes bénéficient depuis des décennies doit être corrigée.
Tant qu’un contenu est diffusé aux personnes qui sont directement abonnées à ce contenu ou à la personne qui le dépose sur la plateforme, celle-ci ne peut pas être considérée comme responsable de ce contenu, mais dès qu’elle amplifie la communication au-delà du cercle de ses abonnés, elle en devient co-responsable, elle devient co-éditeur de ce contenu, elle est condamnable si le contenu est condamnable, comme reste condamnable l’internaute qui a posté ce contenu illicite.
Tant qu’un internaute reçoit une information parce qu’il est abonné à une personne, à un groupe, pas de problème. Si l’information est extérieure à sa volonté explicite de la recevoir, la plateforme n’est plus neutre, elle devient responsable de l’information qu’elle diffuse, et si cette information est répréhensible, illégale, la plateforme doit être responsable de l’édition de cette information devant la justice, il doit être possible de porter plainte, de poursuivre et de condamner la plateforme pour l’information qu’elle a favorisée, qu’elle a mise en avant qu’elle a communiqué de manière délibérée, avec les conséquences néfastes que cela entraîne. Quand une plateforme relaie une information au-delà du strict abonnement, elle en devient responsable, c’est-à-dire éditeur.
D’autres acteurs pourraient également voir leur responsabilité reconnue, et condamnés : les manipulateurs de masse qui, avec des robots et la création de multiples comptes et alias, “poussent” leurs propres idées ou produits. Les réseaux sociaux sont tout à fait capables de les détecter, et de les bloquer. La justice devra déterminer les responsabilités de chacun, dans la logique de responsabilité de l’éditeur, pour l’un comme pour l’autre.
Cette responsabilité des plateformes doit être pensée comme un équilibre entre liberté d’expression, innovation et protection des utilisateurs.
C’est un changement culturel qui s’impose : reconnaître que ces plateformes ne sont pas de simples outils neutres mais des acteurs éditoriaux puissants, dont les choix techniques ont des conséquences politiques, sociales et psychologiques majeures. La responsabilité doit être à la hauteur du pouvoir exercé.
Pour les autres médias, presse, audiovisuel, ce serait un juste retour des choses. En effet, pourquoi eux seuls sont-ils responsables des contenus qu’ils publient ?
Il faut appliquer au monde d’internet
les mêmes règles que celles
qui s’appliquent au monde physique
L’enjeu dépasse la seule protection des utilisateurs vulnérables : c’est la qualité de notre débat démocratique, la santé mentale collective et la possibilité même d’un espace public numérique respectueux de la dignité humaine qui sont en jeu. La régulation des algorithmes n’est pas une entrave à la liberté, mais une condition de son exercice véritable dans un environnement qui ne soit pas structurellement toxique.
Quelles responsabilités ? Les réseaux sociaux doivent être responsables au civil comme au pénal.
Responsabilité civile
Les victimes ou leurs familles doivent pouvoir engager la responsabilité civile des plateformes lorsqu’un préjudice direct peut être établi. Le défi probatoire est réel : comment prouver qu’un algorithme a causé un dommage spécifique ? Des présomptions pourraient être établies dans certains cas : si une plateforme a amplifié des contenus à risque auprès d’un mineur qui a ensuite développé un trouble grave, une présomption de causalité devrait jouer, à charge pour la plateforme de prouver qu’elle avait pris toutes les mesures raisonnables, et que l’algorithme qu’elle a utilisé n’y est pour rien.
Responsabilité pénale
Dans les cas les plus graves (incitation au suicide amplifiée algorithmiquement auprès de mineurs, facilitation de réseaux pédocriminels, amplification d’appels à la violence, divulgation d’informations fausses, dangereuses), la responsabilité pénale des dirigeants devra pouvoir être engagée. Le droit pénal français connaît déjà la notion de “mise en danger délibérée de la vie d’autrui”. Elle pourrait s’appliquer lorsque des dirigeants persistent dans des pratiques algorithmiques dangereuses.
Une coordination est possible avec d’autres pays, en Europe bien sûr, mais également au-delà, je pense au Brésil, à l’Australie, et il y a d’autres pays qui ont montré leur intention de lutter contre les effets nocifs des réseaux sociaux.
Un mot encore, pour finir, tout utilisateur devrait avoir le droit d’accéder à une version chronologique des publications de ses contacts, sans aucune recommandation basée sur ses données comportementales. Ce “droit à la désalgorithmisation” existe déjà partiellement dans le DSA, mais il devrait être rendu plus accessible et visible. Il permettrait aux utilisateurs de reprendre le contrôle sur leur consommation d’information.
De même que l’internaute peut aujourd’hui refuser les cookies, l’internaute doit pouvoir désactiver complètement la fonction algorithmique du réseau social qu’il utilise, ce doit être son choix.
Dernière information, la semaine dernière, notre président de la République découvre une vidéo sur Facebook générée par IA annonçant « un coup d’Etat en France », au cours duquel « un colonel a pris le pouvoir » (séquence visionnée plus de 13 millions de fois, donc largement relayée), il demande via Pharos (Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements) le retrait de la vidéo. Réponse de Facebook : “Ça ne contrevient pas à nos règles d’utilisation. Refus de retrait” ». (info du 17 décembre 2025).
Tout est dit
Ce texte est là pour vous faire réagir, c’est une base de débat, donc n’hésitez pas à le commenter, à argumenter, ici, sur le site de Forum ATENA, où sur LinkedIn, sous forme de résumé.
Sources et quelques références
Études scientifiques : Rapports de l’American Psychological Association, études de l’Université d’Oxford sur l’impact des réseaux sociaux.
Textes juridiques : RGPD, Digital Services Act (DSA), Digital Markets Act (DMA), Section 230 (États-Unis).
Exemples concrets : Procès contre Meta, rapports de l’ARCOM, propositions de loi en Californie ou en Europe.
Ouvrages : “The Age of Surveillance Capitalism” de Shoshana Zuboff, “Algorithmes : la bombe à retardement” de Cathy O’Neil.
Laisser un commentaire