Jean-Rémi King, entre I.A. et neurosciences

Découvrez les travaux de ce chercheur au département d'études cognitives

Jean-Rémi King, qui travaille au département d'études cognitives, intervient sur les relations complexes entre intelligence artificielle et neurosciences et revient sur ses recherches.
Jean-Rémi King
Jean-Rémi King

Jean-Rémi King est chercheur au CNRS, et travaille au sein du département d’études cognitives (DEC) de l’ENS-PSL. Spécialiste du fonctionnement de cerveau humain il cherche à comprendre comment celui-ci construit, manipule et communique ses représentations mentales. Son travail mobilise surtout des techniques de neuroimagerie non-invasives, afin de comparer les réponses cérébrales obtenues aux activations générées par des algorithmes dits "d'intelligence artificielle". Le but de cette recherche ? Déterminer ce qui nous permet, contrairement aux autres espèces animales, d'accumuler et de manipuler une grande quantité de connaissances.

 

L’étude de l’intelligence artificielle, des débuts mouvementés

Le département d’études cognitives de l’École normale regroupe un éventail de disciplines (neurosciences, psychologie, linguistiques, philosophie, machine learning1), toutes reliées autour d'une thématique commune : la cognition. Il comporte aussi plusieurs laboratoires, dont le Laboratoire des systèmes perceptifs, où Jean-Rémi King travaille. « Celui-ci regroupe des chercheurs et des chercheuses qui s'intéressent à un sous-ensemble de cette grande thématique, afin de comprendre comment notre cerveau transforme les impulsions nerveuses de nos yeux et nos oreilles en une représentation cohérente du monde », explique le scientifique.

Sa passion pour la recherche dans le domaine de l’intelligence artificielle nait dès son premier stage, dans un laboratoire de robotique spécialisé dans les algorithmes inspirés de l'évolution. Cette expérience le poussera à poursuivre un cursus universitaire en I.A. et psychologie quelques années plus tard. « L'I.A. me tient effectivement à cœur depuis un certain temps » confirme le chercheur, « et pourtant, comme beaucoup, elle s'est, de fait, plus imposée à moi que l'inverse. En effet, à la fin de mes études, le message qui m'est enseigné est clair : l'I.A. n'a pas d'avenir, les algorithmes ne sont tout simplement pas à la hauteur. Je décide donc de me ré-orienter vers l'intelligence "naturelle" : les neurosciences cognitives. »

Mais à la fin des années 2010 tout change. La reconnaissance automatique d'objets à partir d'images naturelles fait d'énormes progrès, notamment grâce aux travaux de Geoffrey Hinton et de Yann LeCun, pionniers de l’intelligence artificielle. Très vite, plusieurs champs computationnels sont également concernés : la reconnaissance de la parole et la traduction automatisée, pour ne citer qu'eux, s'améliorent considérablement. Selon Jean-Rémi King, c’est une période cruciale pour l’avenir de l’intelligence artificielle : « le secteur industriel prend soudain conscience de l'importance pratique de ces découvertes et investit massivement dans ces champs de recherche. La quasi-totalité des disciplines scientifiques bénéficie des développements techniques qui en résultent. »

Au-delà de la technique, pour les sciences cognitives c'est aussi une véritable révolution épistémologique : « pour la première fois, nous avons des modèles informatiques qui réalisent des tâches, jusqu'alors effectuées uniquement par des humains. Ces modèles informatiques ne font-ils que mimer superficiellement notre comportement, ou, à l'inverse, réalisent-ils les mêmes opérations cognitives que notre cerveau ? Peut-on mieux comprendre notre cerveau en disséquant ces algorithmes ? À l'inverse, peut-on améliorer ces algorithmes en y injectant les principes neuroscientifiques ? Ces questions, présentes dès la naissance de l'I.A. comme champs de recherche, deviennent maintenant opérantes, et ouvrent ainsi de formidables pistes d’étude à explorer ».

 

Des similitudes importantes entre le fonctionnement de nos cerveaux et celui des algorithmes

Aujourd’hui, le chercheur mêle ses recherches entre I.A. et sciences cognitives avec enthousiasme : « j'essaye d'identifier les convergences et les divergences entre les algorithmes et le cerveau humain. Je me concentre pour cela sur le langage. En effet, les algorithmes actuels bénéficient d'énormes bases de données de textes comme Wikipedia, et restent pourtant médiocres sur des tâches simples comme le résumer de texte. De plus, notre cerveau et les algorithmes apprennent différemment. » Le premier apprend sur plusieurs années, à partir de données bruitées, parcellaires mais sur lesquelles il peut intervenir. Les seconds apprennent en quelques heures, à partir d'une grande quantité de données bien organisées mais généralement statiques: beaucoup d'algorithmes ne peuvent agir sur le monde pour améliorer leur apprentissage. Les neurosciences restent donc essentielles pour espérer, un jour, développer des algorithmes qui comprennent réellement le langage. 
En revanche, les solutions computationnelles2 trouvées par nos cerveaux et par ces algorithmes - c'est à dire l'ensemble des opérations nécessaires pour transformer, par exemple, un groupe de pixels en une compréhension sémantique de scène visuelle - semblent être partiellement similaires entre elles. En effet, bien plus que le comportement, c'est bien la chaine de traitement de l'information entière qui semble, dans certains cas, être identique entre notre cerveau et les algorithmes.

1Le machine learning, ou apprentissage automatique, est une technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet. Plus un système machine learning reçoit de données, plus il apprend et plus il devient précis (source : bigdata.fr)
2La pensée computationnelle s’intéresse à la résolution de problèmes, à la conception de systèmes ou même à la compréhension des comportements humains, en s'appuyant sur les concepts fondamentaux de l'informatique théorique.