Quand l’intelligence artificielle hérite de nos préjugés : comprendre et agir
Événement : Mercredi 8 octobre de 12h15 à 13h45
Invitées
Genoveva Vargas Solar, CNRS, LIRIS (modératrice)
- Houleymatou Baldé, Association Yeeso
- Nelly Barret, INSA Lyon, LIRIS
- Aurélie Olivier, Université Lyon 1, Laboratoire ELICO
- Jey Puget Gil, University of Lyon 1, LIRIS
- John Samuel, CPE, Université de Lyon, LIRIS
Déroulé de l’événement
- 12h15 : Accueil et présentation de la mission égalité-diversité – Aurélie Olivesi
- 12h20 : présentation de l’événement et des intervenant·es – Genoveva Vargas-Solar
- 12h25 – 13h15 : Table ronde [Slides]
Pour ouvrir la discussion
- Avez-vous déjà entendu dire qu’une IA pouvait être “biaisée” ? Qu’est-ce que cela vous évoque ?
- Pensez-vous qu’un ordinateur ou un robot puisse être “injuste” ? Pourquoi ?
Comprendre simplement
- Est-ce que les machines pensent par elles-mêmes ? Ou est-ce nous qui leur apprenons ?
- Comment un algorithme peut-il apprendre un stéréotype sans qu’on le veuille ?
- Est-ce que ce sont les données, les programmeurs, ou la société qui sont à l’origine des biais ?
Rendre concret
- Peut-on donner des exemples de discriminations causées par l’IA dans la vraie vie ?
- Est-ce que ces erreurs touchent tout le monde de la même façon ? Pourquoi certaines personnes sont-elles plus concernées ?
Agir ensemble
- Que peut-on faire pour éviter ces injustices ? Est-ce que l’IA peut être “corrigée” ?
- Quelles sont les bonnes idées ou projets qui cherchent à rendre l’IA plus équitable ?
- En tant que citoyennes et citoyens, que pouvons-nous revendiquer ou surveiller ?
13h15 – 13h45 : Questions de la salle
