53 minutes
On s’intéresse notamment aux dilemmes moraux que posent l’intelligence artificielle quand par exemple les voitures sans conducteurs décideront de sauver ou non un individu sur leur chemin. Vous verrez que les algorithmes posent des questions éthiques vertigineuses.
...
Mais le vrai danger c’est peut-être les biais algorithmiques, l’équivalent des biais cognitifs pour les humains. Des biais algorithmiques qui peuvent conduire à des erreurs et des discriminations. Quand par exemple les premiers outils de reconnaissance faciale ne prenaient pas en compte les peaux noires.
On s’intéressera également aux vertigineux dilemmes moraux que posent les algorithmes des voitures sans conducteurs qui devront privilégier la sécurité des passagers ou celles des piétons ?
Avec
- Aurélie Jean, docteure en sciences et entrepreneure formée à l'ENS, Mines Tech et au MIT, auteure de "De l’autre côté de la machine (édition L'observatoire)
- Jean-François Bonnefon, docteur en psychologie cognitive et directeur de recherche à TSE, auteur de "La voiture qui en savait trop" (édition HumenSciences)
...
Connu / l'April transcription https://wiki.april.org/w/Faut-il_avoir_peur_des_algorithmes_-_Grand_bien_vous_fasse_-_France_Inter#15.E2.80.9938
dont
"
...
La psychologie morale c’est comprendre comment les gens décident de ce qui est bien ou ce qui est mal. C’est très différent, par exemple, de la philosophie morale qui essaie de déterminer ce qui est bien et ce qui est mal. La psychologie morale c’est une description de comment les gens arrivent à ce genre de jugement.
...
"