Channarong Intahchomphoo est professeur auxiliaire à l’École de conception et d’innovation pédagogique en génie de l’Université d’Ottawa. Ses recherches portent sur les répercussions concrètes de l’intelligence artificielle (IA) et de la robotique. Il a récemment été invité à faire une présentation sur le racisme et les préjugés raciaux de l’IA aux Nations Unies. Nous avons discuté avec lui de sa conférence intitulée AI Fairness, Bias and Discrimination (IA : équité, préjugés et discrimination), qui met en lumière le besoin vital d’équité des pratiques de l’IA dans notre monde de plus en plus numérique.
Question : Pour vous, quelle est la définition des mots « préjugés » et « discrimination » dans le contexte de l’IA et quelles en sont les conséquences sur la création et le déploiement des systèmes d’IA?
Channarong Intahchomphoo : Tout d’abord, les « préjugés » sont un problème à cause de l’iniquité qu’ils entraînent, car tous et toutes ne reçoivent pas le même traitement et certains groupes sont privilégiés, ce qui mène à de la discrimination. Dans mes recherches, j’ai travaillé avec différents groupes mal desservis par les technologies émergentes et j’ai appris que l’IA peut avoir des répercussions autant positives que négatives.
L’IA peut renforcer involontairement l’iniquité, les préjugés et la discrimination. Les ingénieures et ingénieurs qui doivent se dépêcher à inventer de nouveaux produits pour les commercialiser en premier peuvent introduire sans le savoir ces concepts dans les systèmes d’IA, puisque le temps manque souvent pour pousser la réflexion jusqu’au bout ou procéder à une mise à l’essai rigoureuse avant le déploiement.
Par conséquent, il est important de trouver rapidement des solutions et d’atténuer les risques et les torts associés à l’IA. Je pense que les ingénieurs et ingénieures, les décideurs et décideuses et les dirigeants et dirigeantes d’entreprises doivent posséder un sens de l’éthique pour déceler l’iniquité, les préjugés et la discrimination à toutes les étapes, de la création de l’IA à son déploiement.
Q : Lorsque vous observez l’IA et la race humaine, quelles sont vos principales conclusions et réflexions?
Channarong Intahchomphoo : Dans l’une de mes publications récentes, j’expliquais qu’il y a quatre aspects aux relations entre l’IA et l’humanité :
- L’IA n’offre pas les mêmes possibilités aux gens de certains groupes ethniques. Pensons par exemple aux décisions injustes qui sont prises pour accorder ou non un prêt hypothécaire aux personnes de couleur, ainsi qu’à la discrimination raciale de certaines applications d’IA contre les personnes de couleur lorsqu’elles cherchent un emploi en ligne.
- L’IA peut également aider à détecter la discrimination raciale. Comme on dit, il y a toujours deux côtés à la médaille, et c’est vrai aussi pour l’IA. Prenons par exemple un programme d’IA conçu pour détecter les sujets de discussion racistes et reconnaître les personnes qui ont fait l’expérience du racisme hors ligne et qui ont ensuite raconté leur histoire sur les médias sociaux. Dans ce cas, l’IA cherche à comprendre comment les communautés en ligne ont réagi et soutenu les victimes de racisme.
L’IA pourrait aussi détecter les discours haineux publiés sur Internet et les médias sociaux, puis bloquer les personnes qui tentent de partager des discours haineux et du contenu délétère avant qu’ils ne soient largement diffusés et hors de contrôle. - L’IA est appliquée à l’étude des problèmes de santé de populations ethniques particulières. Par exemple, dans le cas des maladies cardiovasculaires, l’IA peut aider les médecins à déterminer s’il faut choisir des traitements différents selon l’appartenance ethnique du patient ou de la patiente.
- L’IA sert à étudier les caractéristiques démographiques et les images faciales de personnes de différents groupes ethniques. Les outils de reconnaissance faciale par IA sont utilisés dans des enquêtes criminelles, lors d’opérations au visage et en réalité virtuelle.
Quand nous avons effectué ce projet de recherche en 2020, nous n’avions pas d’outils puissants d’IA générative comme ChatGPT, capables de raisonner et de traiter du texte, des images et du contenu audio. À l’époque, la recherche se concentrait principalement sur la vision artificielle, une composante essentielle des systèmes d’IA dans les véhicules autonomes.
À l’avenir, nous côtoierons des IA qui joueront le rôle d’assistants et de co-pilotes dans différents aspects de la vie, comme la navigation sur le Web, le magasinage, les études et les jeux vidéos. Les IA co-pilotes seront capables de voir, d’entendre et d’interagir avec nous en temps réel.
« Les IA co-pilotes seront capables de voir, d’entendre et d’interagir avec nous en temps réel. »
Channarong Intahchomphoo
— Professeur auxiliaire à l’École de conception et d’innovation pédagogique en génie
Q : Quelles politiques proposez-vous pour régler le problème des préjugés et de la discrimination des systèmes d’IA, et comment ces recommandations peuvent-elles être mises en œuvre à l’échelle mondiale?
Channarong Intahchomphoo : Lors de mon discours liminaire au bureau de l’ONU à Genève, j’ai formulé deux recommandations de politiques.
La première insiste sur l’importance de la sensibilisation. L’ONU doit sensibiliser les gouvernements locaux et nationaux pour qu’ils participent à l’élaboration de lignes directrices internationales qui fixeront les pratiques exemplaires garantissant l’équité, l’objectivité et la non-discrimination de l’IA, de même que son déploiement responsable.
Ma seconde recommandation concerne la nécessité d’accroître la collaboration entre toutes les parties prenantes. L’ONU doit promouvoir activement la collaboration entre les entreprises de technologie, les gouvernements locaux et nationaux, les ONG et les personnes qui représentent les communautés mal desservies. Cela est essentiel pour mettre l’équité, l’objectivité et la non-discrimination de l’IA au cœur même du cadre sociétal et industriel.
Fait important, ces deux recommandations doivent être mises en application à l’échelle mondiale et pas seulement dans certaines régions ou sur certains continents.
Q: En quoi la collaboration internationale et l’établissement de lignes directrices peut veiller à l’équité à l’objectivité et à la non-discrimination des technologies de l’IA et assurer qu’elles respectent les droits de la personne et la dignité humaine?
Channarong Intahchomphoo : La collaboration internationale peut nous aider à comprendre quelles pratiques et lignes directrices de développement de l’IA fonctionnent et lesquelles ne fonctionnent pas, en fonction de différentes régions, cultures et normes sociales. En rassemblant un large éventail de points de vue sur les technologies d’IA, nous pouvons établir des données de référence internationales utilisables pour toutes les régions. Cela assurera une approche uniforme et inclusive en vue de permettre à l’IA d’être équitable, exempte de préjugés et respectueuse des droits de la personne. De plus, la collaboration internationale peut faciliter l’échange d’expertise et de ressources.
Q : Comment les parties prenantes, y compris les gouvernements, les leaders de l’industrie et les organisations de la société civile, travaillent-elles ensemble pour encourager la transparence, la responsabilité et l’inclusion dans les systèmes d’IA?
Channarong Intahchomphoo : Les gouvernements pourraient organiser des conférences et des forums où toutes les parties prenantes peuvent discuter de conception responsable de l’IA et des politiques de déploiement, échanger des pratiques exemplaires et trouver des solutions aux problèmes. Ils pourraient aussi établir des règlements clairs et des lignes directrices qui obligent la conception et le déploiement responsables de l’IA.
De plus, les gouvernements devraient mettre en place des programmes d’éducation pour sensibiliser la population aux répercussions et aux effets de l’IA, de même qu’à son utilisation responsable. Les leaders du monde des affaires pourraient offrir de la formation et des ressources à leurs ingénieures et ingénieurs en IA pour les aider à comprendre les répercussions sociétales des produits d’IA qu’ils conçoivent.
Les organisations de la société civile pourraient monter des campagnes publicitaires pour informer les communautés des répercussions de l’IA et des façons de protéger leurs droits en tant que consommateurs et de consommatrices.
Chaque partie a un rôle à jouer, mais l’objectif demeure le même.
Le professeur Intahchomphoo a présenté en juin son travail sur le thème « Does AI Reinforce Racism and Racial Discrimination? » (L’IA renforce-t-elle le racisme et la discrimination raciale?) lors de la 10e séance du Groupe d’éminents experts indépendants sur la mise en œuvre de la Déclaration et du Programme d’action de Durban, au siège de l’ONU à Genève, en Suisse.
Les membres des médias peuvent communiquer directement avec :
Channarong Intahchomphoo (Ph.D.)
Professeur auxiliaire, École de conception et d’innovation pédagogique en génie
Faculté de génie, Université d’Ottawa, chercheur affilié au Canadian Robotics and AI Ethical Design Lab (CRAiEDL) de l’Université d’Ottawa
cintahch@uOttawa.ca
Pour plus de renseignements :media@uOttawa.ca