La soirée du 20 octobre animée par Zyed Zalila a été riche en informations sur l’Intelligence  Artificielle et notamment la version « floue » qu’il a développée.

Une des caractéristiques m’a interpellé : disposer d’un mécanisme auditable.

Classiquement, les réseaux de neurones artificiels génèrent leurs résultats en toute opacité après un long apprentissage. Un des atouts de l’IA de Zyed Zalila est la capacité de rendre les mécanismes de l’IA observables en substituant la logique neuronale (Deep Learning typiquement) à une logique symbolique, autrement dit les règles issues de l’apprentissage par des tests « SI » « ALORS ».

Intelligence : neuronale vs symbolique

Fort d’une approche statistique sur une grande quantité d’observations, l’Intelligence Artificielle propose des corrélations et des extrapolations à l’origine de performances impressionnantes en terme de reconnaissance et de prévision.

 

L’intelligence attend-elle le nombre des neurones ?

Selon Ray Kurzweil, directeur d’un des cinq cents laboratoires de Google, des milliards de neurones artificiels feraient jeu égal avec le cerveau humain avant 2050 ; pourtant trois cent deux neurones suffisent au Caenorhabditis elegans pour appréhender tout son environnement alors qu’une machine équipées de milliers de neurones artificiels détecte une tumeur mais, hyper spécialisée, pas un éléphant dans un magasin de porcelaine. Une petite pensée pour les blobs (bien connus des institutrices) qui élaborent des stratégies pour se nourrir … en l’absence du moindre neurone. Soyons humbles, le fonctionnement d’un neurone naturel reste un mystère. Comment son homonyme artificiel pourrait-il lui porter ombre ?

Et si au lieu de « neurone artificiel » on parlait de « comparateur à seuil » ? Les mots ont un sens.

Particularité liée au traitement statistique : le résultat n’est pas certain mais livré avec une marge d’incertitude. C’est avec une certaine probabilité qu’un visage est identifié, qu’une anomalie en imagerie médicale est soupçonnée d’être une tumeur, ou qu’il est quasi acquis qu’il fera beau demain. Ce n’est guère handicapant pour la plupart des applications, notamment quand les résultats sont interprétés par l’humain.

Le domaine des jeux n’échappe pas à l’incertitude. L’incroyable logiciel AlphaGo propriété de  Google écrase ses compétiteurs au jeu de Go grâce à des … sondages. L’heuristique est de mise face à la quantité démesurée de cas envisageables pour chaque configuration. Comme dans un sondage, un échantillonnage (représentatif ?) de positions arbitrairement élues sert de base au déroulement de centaines voire milliers de parties qui permettent d’attribuer une note à différentes stratégies lors du jeu. C’est ce qui a permis à AlphaGo de surprendre le maître du Go Lee Sedol avec un « coup » que trois millénaires de pratique n’avaient pas soupçonné.

 Lee Sedol face à AlphaGo

Cette méthode dite de Monte-Carlo relève de la force brute mais affirme une redoutable efficacité.

Encore plus f(l)ou : on ne sait pas ce qui pousse la boîte opaque vers une conclusion plutôt qu’une autre. C’est le gigantesque apprentissage qui forge sa propre opinion. Chaque neurone électronique trouve son réglage. À force de lui montrer un lion dans la savane, l’IA finit par reconnaître un lion dans la savane. Parfois même quand il n’y a que la savane, dit-on. Problème : on ne sait pas reproduire le raisonnement. Fâcheux.

Illustrons le propos par une question : peut-on sereinement accorder son permis de conduire à une boîte noire qui affirmerait qu’elle n’empruntera « probablement » jamais de ronds-points à l’envers ou d’autoroutes à contre-sens tout en étant incapable de stipuler quelles conditions pourraient se révéler critiques ?

Intelligences naturelle et artificielle

Deux constatations (tous les corps tombent à la même vitesse et la vitesse de la lumière est finie) et un postulat (équivalence accélération / gravitation) ont suffi à Albert Einstein lors d’une rêverie devant son café pour comprendre qu’une masse dévie la lumière. L’IA nourrie d’observations aurait trébuché dès la chute des corps.

Cette expérience de pensée illustre les limites de l’IA « statistique » construite sur l’apprentissage. Intuition et émotion lui font défaut. Ne sachant qu’extrapoler à partir de données pré-enregistrées, elle se cantonne à ce qu’elle a appris. L’imagination n’est pas de mise.

L’Intelligence Artificielle construite sur l’apprentissage peut-elle mener à l’Intelligence Naturelle ? On peut en douter.

Précision : le propos ne vise pas le dénigrement de l’apprentissage profond sur des neurones électroniques dont les applications sont proprement éblouissantes mais plus prosaïquement de caricaturer certaines limites sensibles pour peu que le déterminisme soit requis.

C’est là que la démarche de Zyed Zalila intervient. L’idée est d´observer un comportement et de le modéliser à l’aide de règles de type « SI ALORS ». Le résultat, que l’on peut rapprocher de celui obtenu par un groupe d’experts, présente un atout essentiel : l’humain peut comprendre la prise de décision de la machine. Le résultat est auditable.

Du flou dans la logique

Mathématiquement, Zyed Zalila construit l’observation comportementale sur le concept de « logique floue ».

Logique floue ?

On peut situer à l’aide de concepts tels que « jeune », « grand », « riche » ou « nombreux » que la vue logique va interpréter avec des valeurs arbitraires : « < 25 ans », « > 1,70 m », «  > 25 personnes » … À 24 ans et  364 jours on est jeune, à 25 ans et 1 jour on est vieux. Quel risque prend-on en consommant un yaourt le lendemain de la date limite de conservation ?

Le « flou » passe outre ces frontières rigides. On remplace le seuil des 25 ans par une pente qui va de 15 à 35 : en dessous de 15 ans 100 % de la population est classée jeune,  au dessus de 35 100% de la population n’est plus classée jeune et sur la pente on aura par exemple 37 % dans une catégorie et 63 % dans l’autre.

Le débat ne date pas d’hier. Pour Platon et la philosophie, la vérité est absolue. Descartes consolidera cette notion. Pour Aristote, élève de Platon, la mise en pratique se heurte aux limites humaines de la connaissance. Il propose l’exemple des affaires judiciaires qui s’appuient sur des témoignages tributaires de la mémoire et de l’émotion. Le vrai du maître face au vraisemblable du disciple.

Peut-on rapprocher ce flou du flou quantique ? À mon sens non car avec l’indétermination quantique c’est au moment de la mesure qu’une variable prend sa valeur alors qu’en logique floue la valeur est parfaitement déterminée mais approximativement connue.

Toujours est-il que l’observation du comportement au travers du flou est redoutablement efficace. Des biais probablement involontaires dans l’étude de curriculum vitae par l’humain sont ainsi révélés. La logique construite sur des neurones le ferait-elle ? Peut-être, mais de toute manière on n’en saurait rien car elle n’est guère loquace. Le biais est lisible par un test « SI ALORS » dans l’extraction par Zyed Zalila ; a contrario l’opaque boîte pleine de neurones artificiels reste désespérément muette. En gardant pour elle ses petits secrets, la logique neuronale affiche ses limites.

Du nouveau dans l’IA

On est loin d’avoir exploité toutes les voies de l’Intelligence Artificielle, et Forum ATENA est enthousiasmé par l’approche exposée par Zyed Zalila. Un renouveau qui pourrait être un atout dans la bataille sur la souveraineté.