Romain SOHET  –  septembre 2024

Chers amis, 

Le Règlement européen sur l’Intelligence Artificielle (RIA) – communément appelé IA Act par les anglophones – a été publié au Journal Officiel le 12 juillet 2024. Il entre en vigueur vingt jours après, soit le 1er août 2024.

L’entrée en application se fera de façon échelonnée :

  • 2 février 2025 : Interdictions relatives aux systèmes d’IA présentant des risques inacceptables ;
  • 2 août 2025 : Applications des règles pour les modèles d’IA à usage général ; nomination des Autorités compétentes au niveau des Etats membres de l’UE ; 
  • 2 août 2026 : Toutes les dispositions du RAI deviennent applicables, en particulier les règles relatives aux systèmes d’IA à hauts risques, comme ceux traitant de la biométrie.

Nous n’allons pas ici faire une critique de la Loi sur l’Intelligence artificielle votée par le Parlement européen, mais le RAI a le mérite de mettre en exergue trois choses :

  • La première : l’IA est ici considérée comme portant en elle le risque de se transformer en agent d’influence, et non comme une simple prouesse technologique à l’utilisation et aux résultats purs et parfaits. Le problème aisément identifié par les experts de l’IA est l’accès à une information non maîtrisable, partielle, et donc partiale. Le Législateur européen prend bien conscience que, sous le vocable « d’Intelligence artificielle », peut se cacher le risque d’un habillage de tentative de manipulation des esprits.
  • La deuxième : sous couvert d’IA, le Législateur se rend compte que ces mêmes informations peuvent faire l’objet de transactions commerciales. Il y a donc des transactions appréciables et naturelles, et d’autres non souhaitables car manipulatoires, dangereuses et spéculatives.
  • Enfin, la troisième, et qui ne nous rend pas peu fiers : seules les autorités judiciaires et administratives auront la main sur le référentiel biométrique accessible via les requêtes effectuées dans l’IA.

Ceci a son importance : lorsque votre serviteur a été amené à être consulté en 2020 pour la rédaction de cette loi sur l’Intelligence artificielle, la problématique de l’époque ne considérait que deux aspects : l’aspect commercial (négoce de données que les outils IA arrivaient à acquérir) et l’aspect policier (reconnaissance faciale, surveillance des déplacements, accaparation de données biométriques par des acteurs privés, voire anticipation d’éventuels crimes par des critères statistiques et probabilistes). En bref, soit on vendait, soit on fliquait, et le tout dans un habillage quasiment transhumaniste, scientiste, mercantiliste. 

J’ai été le premier expert IT à introduire dans la consultation les arguments « d’inaliénation des libertés individuelles » et « d’inaltérabilité de la dignité humaine ». J’avoue que je n’ai rien inventé, nous trouvons là autant Saint-Augustin que Platon. La liberté individuelle est inaliénable, la dignité humaine est inaltérable. En mettant sur la table le concept « d’inaliénation des libertés individuelles », nous rappelons que le seul moyen connu et accepté d’aliéner une liberté est un moyen procédural et légalement encadré motivant  la décision du Juge. En effet, seul un Juge peut aliéner une liberté individuelle, le Politique se chargeant d’en définir le cadre. C’est le principe même de l’Etat de Droit. 

Nous avons donc ramené l’IA dans le giron de l’Etat de Droit (européen) : tout ce qui a trait à la dignité humaine dans le cadre d’une Intelligence artificielle et de son opportunité de marchandisation se doit de passer par le regard de l’autorité judiciaire ou administrative dont la personne concernée dépend. Donc, il faut qu’il y  ait saisine, justification, contradictoire, délibération, jugement et rendu de jugement.  En d’autres termes, il faut que les acteurs de l’IA ne proposent que des outils neutres pour la dignité et l’humanité d’une personne, et si ces outils doivent conduire à une réduction de liberté individuelle d’un quelconque ressortissant européen, il faut que l’autorité administrative compétente en soi alertée et seule la décision de celle-ci fera force de loi.

A l’inverse, cela entend qu’aucun outil d’Intelligence artificielle ne pourra se substituer au Juge et qu’aucun outil d’Intelligence artificielle ne doit priver par automatisme ou d’une façon algorithmique quiconque d’une liberté quelconque, rendant par-là même caduque cette éventuelle privation.

Et pour finir, le Juge reste un juge local (entendez ici, pour l’échelle européenne, un juge national), ce qui peut causer des frictions au regard de la Législation européenne par essence transnationale et supranationale. Le Juge se posera donc en contre-pouvoir local de la décision supranationale européenne.

Un résumé à haut niveau de ce RAI est consultable ici : https://artificialintelligenceact.eu/fr/high-level-summary/

Romain Sohet

Personne de contact Forum ATENA auprès du Parlement européen.