Karine Gentelet, nouvelle titulaire de la Chaire Intelligence artificielle et justice sociale

La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages

À l'automne 2020, Karine Gentelet est devenue la nouvelle titulaire de la Chaire Abeona – ENS-PSL, en partenariat cette année avec l'Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). Elle succède à Kate Crawford du AI Now Institute de New York. Rencontre.

Karine Gentelet
Karine Gentelet

Développer l’intelligence artificielle de manière collective, inclusive et démocratique

La Chaire Abeona – ENS-PSL – OBVIA permet à un(e) professeur(e) invité(e) de développer, pendant une année, des travaux sur l’intelligence artificielle (IA) et la justice sociale et d’interagir avec les chercheurs des écosystèmes parisien et québécois dans les secteurs de l’IA, des sciences humaines et sociales et de la santé.

Karine Gentelet, titulaire de la chaire pour l’année 2020/2021 est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et sera professeure invitée à l’Université Laval. Son projet de recherche propose une réflexion sur les modalités de la participation citoyenne dans la gouvernance des données, des systèmes d’intelligence artificielle et de l’usage de ces technologies à un niveau local mais aussi global.

« L'intelligence artificielle se développe sur un triptyque : données, algorithmes et puissance de calcul, et il est de plus en plus clair que de nombreux risques ou effets secondaires indésirables viennent des données, qui peuvent être incomplètes, biaisées, ne pas respecter la vie privée... » explique Anne Bouverot, présidente de la Fondation Abeona et membre du comité de sélection de la Chaire.

Pour cette dirigeante d’entreprise et docteure en intelligence artificielle, il est clair que nos vies deviennent de plus en plus numériques : « l’intelligence artificielle en est un ingrédient important, avec toutes les données que nous créons et laissons derrière nous lors de nos parcours sur internet : les recommandations d’achat, l’aide à la rédaction des emails avec des suites de phrases proposées, ou encore, l'aide à la reconnaissance de signes du SARS-Cov-2 sur des radios du poumon… »

Et comme toute nouvelle technologie, Anne Bouverot est consciente des enjeux bénéfices/risques. Des risques liés au respect de la vie privée mais aussi de désinformation, d’égalité notamment hommes-femmes, de justice, d’accès au numérique… sans compter la question de l’impact écologique avec la puissance de calcul nécessaire. « Ces risques, il est important de les regarder et d’avancer en les prenant en compte. Le développement de l'intelligence artificielle doit pouvoir être décidé de façon collective, inclusive et démocratique, pas uniquement par des experts. Nous souhaitons rendre ces sujets plus visibles et créer des lieux pour en parler, affirme-t-elle. Pour cela, le projet de Karine Gentelet nous a paru particulièrement pertinent, cohérent avec les objectifs à la fois de l'ENS, de PSL et de la Fondation Abeona, et sa motivation forte. Nous sommes ravis qu'elle porte cette chaire cette année ! »

Afin d’en savoir plus son projet de recherche et son parcours, nous avons posé quelques questions à Karine Gentelet.

 

 

Vous avez une formation en anthropologie et en sociologie : en quoi ce bagage transdisciplinaire vous arme-t-il pour comprendre l’IA ?

Karine Gentelet : En plus de ma double formation, mes thématiques de recherche portent sur des enjeux d’histoire, de droit et de science politique, je travaille donc à partir d’une perspective de sciences sociales et humaines. L’intelligence artificielle, ou plutôt en ce qui me concerne, les usages de l’intelligence artificielle ont des répercussions sur les sociétés, leurs choix collectifs et leurs représentations sur par exemple le lien social.

Les usages de l’IA ont globalement une incidence sur le rapport aux autres, à l’espace et au temps.

Cela mobilise des dimensions historiques, juridiques, économiques et politiques et met en action des processus et des structures. On a assigné à tort une neutralité à ces outils technologiques et donné une valeur universelle erronée aux algorithmes et aux données alors qu’on se rend compte qu’ils sont consubstantiellement définis à partir de leur contexte de développement, d’implantation et d’utilisation.

La perspective des sciences sociales permet d’appréhender les usages de l’IA dans le contexte sociétal au sein duquel ils sont déployés. Cela permet par exemple de mettre en exergue les relations de pouvoir, les enjeux systémiques de ces usages et l’intersectionnalité des impacts.

Une perspective aussi indispensable pour considérer le contexte historique, tel que la colonisation et ses incidences encore très marquées sur les représentations numériques des populations d’ascendance non européenne en ce qu’elles se trouvent peu ou pas représentées dans les données et subissent plus de discrimination suite aux usages de ces données par les algorithmes.

Cela permet également de travailler sur les représentations de la personne humaine et sur son rapport à ce nouvel environnement. Il est important de comprendre comment dans un contexte numérique est définie et représentée cette personne humaine, quelle agentivité (1) elle déploie ou peut déployer et comment elle interagit dans ce contexte dématérialisé où les données en constituent une extension essentialisée et objectivée.

 

En quoi consiste votre projet de recherche dans l’espace de la Chaire Abeona – ENS-PSL - OBVIA ?

KG : Mon projet est de proposer une réflexion sur les modalités de participation qui mettraient en mouvement des concepts tels que l’autonomie, l’agentivité et les droits humains des personnes qui sont affectées par les technologies d’IA.

Les études mettent rarement en avant les aspects de la participation citoyenne dans les modes de régulation qui sont souvent pensés top-down ou alors les conditions de la participation sont définies par avance et les groupes doivent souvent se conformer au cadre participatif de consultation qu’il leur est proposé, peu importe leurs enjeux et leurs besoins.

Peu d’études mettent également en avant la perspective de groupes sur le terrain. Or, il existe des groupes ou des communautés à travers le monde qui ont mobilisé l’IA pour répondre à des besoins spécifiques et qui ont développé des cadres effectifs de régulation de ces outils technologiques. 

Il est en effet très possible que le contrôle au niveau des États seuls ne soit pas le seul mode de gouvernance envisageable. Il est également possible qu’une solution unique et universelle ne soit pas non plus envisageable ou souhaitable. Ceci signifierait donc qu’il faudrait penser à une multiplicité de modes de régulation, par exemple, concomitants.

Le projet propose donc d’adopter une démarche inverse de ce qu’on connait habituellement, c’est-à-dire de développer une réflexion sur la gouvernance et la participation à partir de ce que souhaitent les acteurs de la société civile sur le terrain. Cela sera ainsi l’occasion d’analyser leurs pratiques et leurs modalités de gouvernance et de déterminer quels en sont les aspects structurants.

Cela nous permettra, à terme, d’en savoir un peu plus sur ce qui est important pour eux et ce qui ne l’est pas et de suggérer des modèles de gouvernance bottom-up, c’est-à-dire des modèles de gouvernance qui sont par et pour les groupes concernés. Et à ce titre, on peut parler de modèles qui renversent l’invisibilité et la discrimination puisqu’ils sont en contrôle du processus.

 

Le militant citoyen Aaron Swartz considérait que les algorithmes des moteurs de recherche comme Google entravaient l’idée d’un Internet libre, en nous guidant vers des sources et des contenus ciblés. Par extension, est-ce que selon vous l’intelligence artificielle est forcément à mettre en opposition avec l’idée d’une société libre ?

KG : Je ne crois pas que l’IA en tant que tel soit un problème. Ce qui est problématique, ce sont les usages de l’IA, bref ce qu’on en fait, qui l’utilise et dans quel objectif. À ce titre, il y a un potentiel énorme de limiter et de porter atteinte à un grand nombre de droits fondamentaux en utilisant l’IA d’une certaine manière.

En outre, il y a aussi des enjeux au niveau des incidences de ces usages. On commence à en parler et à les étudier un peu plus, mais c’est encore assez restreint, je trouve. Les enjeux de l’IA et de ses usages et des impacts de ses usages ne sont pas seulement informationnels ou en lien avec des libertés civiles. C’est beaucoup plus large en ce que cela modifie profondément nos rapports au temps, à l’espace et aux autres.

Cependant, et selon moi, l’IA représente aussi et surtout un autre outil mis à notre disposition. Et, comme société, c’est à nous de faire que cet outil soit développé et utilisé en conformité avec nos besoins et nos valeurs. De plus, on voit que, dans certains contextes et certains cas, l’IA est mobilisée pour soutenir les libertés, pour renforcer les capacités et de développer une plus grande autonomie de fonctionnement. Le potentiel d’induire des changements positifs fait donc partie du paysage actuel de ses usages.

C’est la raison pour laquelle, je trouve qu’il est important en tant que chercheure en sciences sociales d’étudier les usages et les impacts sociétaux de l’IA afin de les documenter de manière objective et de soutenir la réflexion collective sur les conditions d’usage et les modes de régulation de cette technologie.

 

Qui sont ces usagers, groupes ou communautés moteurs de solutions ou de stratégies, qui expriment le besoin d’être inclus dans les modes de gouvernance ?

KG : Ces usagers, groupes ou communautés sont celles et ceux qui sont affectés par les usages de l’IA et particulièrement les groupes qui sont déjà discriminés ou marginalisés. Ce sont eux qui sont visés par les outils d’aide à la prise de décision par exemple soit parce qu’ils ne sont pas représentés dans les données, soit parce que les catégories mises en place sont, à la base, discriminantes ou conçues avec des biais raciaux par exemple. Ces groupes-là vivent déjà avec les effets négatifs des usages de l’IA.

Une fois la recherche terminée, je pourrais vous en dire plus, mais pour l’instant on peut se référer au mouvement Black Lives Matter et à une initiative telle que Data 4 Black Lives qui s’attaquent au manque de représentativité et à la discrimination dans les données et dans les usages qui en sont faits. L’initiative milite aussi pour des processus de reddition de compte quant à l’usage des données.

 

La gouvernance du développement de l’intelligence artificielle se partage encore très majoritairement entre les États et entreprises privées. En 2017, l’Université de Montréal lançait les travaux de co-construction de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Où en sommes-nous ?

KG : Comme chercheure, je trouve qu’on a maintenant fait le tour des initiatives et des chartes d’éthique de l’IA ou encore d’une IA responsable. J’ai aussi du mal à voir ce que ça signifie concrètement et comment est-ce qu’on peut l’appliquer en fonction des contextes et des rapports de pouvoirs qui sont très inégalitaires entre les différents acteurs en présence. Et je ne parle même pas des enjeux Nord-Sud.

À l’instar de nombreux autres outils du même genre, la déclaration de Montréal représente donc un bon outil de départ, mais on doit maintenant développer des cadres pour opérationnaliser les principes de gouvernance de l’IA suggérés et les traduire dans des normes plus contraignantes. En effet, puisqu’il a un consensus clair sur le fait que les usages de l’IA entrainent des atteintes graves aux droits civils, politiques et économiques, culturels et sociaux, et ce de manière systémique, il faut aller de l’avant et mettre en place des structures garantissant un processus de reddition de compte quant aux usages de l’IA.

Alors oui, mettre en place des structures participatives de consultation est une étape effectivement très importante. Cependant la participation ne doit pas faire partie d’une liste à cocher pour faire approuver un projet. Participer pourquoi et à dans quel objectif ?

Dans les sociétés comme les nôtres, nous avons des processus de reddition de comptes et des instruments juridiques qui peuvent être très efficaces et qui permettent aux citoyens et aux organisations de la société civile de prendre des actions pour dénoncer et imposer des changements lorsqu’un certain nombre de droits sont affectés. Selon moi, la participation citoyenne devrait être pensée à ce niveau, c’est-à-dire au niveau de l’encadrement et du respect des normes et des instruments de droits humains. C’est ce que je vais essayer de faire dans le cadre des travaux de la chaire.

 

Pourquoi avoir postulé à la Chaire Abeona - ENS-PSL - OBVIA ?

KG : J’ai postulé à la chaire parce que je suis toujours à la recherche de nouvelles expériences pour mieux comprendre le monde dans lequel j’évolue et pour alimenter mes intérêts de recherche. Jusqu’à présent, du fait de mes sujets de recherche qui portent sur les enjeux des Peuples autochtones, j’ai principalement évolué dans un univers théorique nord-américain. Je travaille beaucoup à partir d’une perspective de décolonisation et de contre-hégémonie pour penser la justice sociale. À travers les travaux de la chaire, je vais donc pouvoir explorer ces dimensions à partir d’un autre angle et poursuivre la réflexion sur les modalités de la gouvernance participative et inclusive dans des contextes très différents desquels j’ai travaillé jusqu’à présent.

(1) En sciences sociales et en philosophie, l’agency, terme traduit par agentivité, notamment au Canada, est la faculté d'action d'un être ; sa capacité à agir sur le monde, les choses, les êtres, à les transformer ou les influencer.

 

À propos de Karine Gentelet

Karine Gentelet, Ph.D., est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et sera professeure invitée à l’Université Laval. Ses intérêts de recherche et ses publications portent sur la reconnaissance des droits des peuples autochtones, l’usage de la technologie numérique et l’intelligence artificielle au service de la justice sociale, l’éthique de la recherche en contexte autochtone et la responsabilité sociale des chercheurs.

Karine Gentelet est chercheure au Centre interuniversitaire de recherche et d’études autochtones (CIERA) de l’Université Laval, au Laboratoire de cyberjustice au sein duquel elle dirige un projet de recherche sur l’autonomisation par l’intelligence artificielle des populations marginalisées. Elle est également co-responsable de l’axe Relations internationales, action humanitaire et droits humains, au sein de l’Observatoire international des impacts sociétaux de l’intelligence artificielle et du numérique (OBVIA).
Enfin, Karine Gentelet est fortement engagée dans la promotion et la défense des droits de la personne auprès d’Amnesty International depuis 2007.

 

À propos de la Chaire Abeona - ENS-PSL

L’ENS-PSL et la Fondation de l’ENS ont inauguré en septembre 2019 une chaire de recherche en Intelligence Artificielle, imaginée pour une durée de trois ans, en partenariat avec la Fondation Abeona.
La chaire est portée par Gabriel Peyré (Directeur scientifique de la Chaire), chercheur CNRS au Département de mathématiques de l’École.

Elle est hébergée dans le nouveau Centre Sciences de Données de l’ENS-PSL et a pour vocation d’inviter à l’ENS chaque année une personnalité experte dans des domaines liés à l’intelligence artificielle et ses impacts sociologiques, éthiques et scientifiques. Les activités de recherche portent spécifiquement sur les biais et l’équité en intelligence artificielle et donnent lieu à des séries de séminaires destinés aux chercheurs comme aux étudiants et personnalités extérieures.