Fermer le menu mobile Fermer le menu mobile
Des questions ? Lien externe au site. Cet hyperlien s'ouvrira dans une nouvelle fenêtre.

L'intelligence artificielle va-t-elle trop loin?

Des systèmes d'intelligence artificielle (IA) sont mis en place dans des secteurs comme la santé, l'éducation, le recrutement ou encore la justice. Cependant, des chercheurs estiment que cette mise en place va trop vite, sans garde-fous ni structures de contrôles appropriés. 

D’après ces chercheurs, l'intelligence artificielle augmente les inégalités dans le monde et son déploiement devrait être soumis à une régulation stricte, notamment pour les technologies sensibles comme la reconnaissance faciale.

On estime que la technologie de reconnaissance faciale qui est formée et accordée sur les visages des personnes de race blanche identifie systématiquement de manière erronée les personnes racialisées. De nombreuses études signalent que la technologie de reconnaissance faciale est imparfaite et biaisée, avec des taux d'erreur nettement plus élevés lorsqu'elle est utilisée contre les personnes de couleur, particulièrement pour les Noirs, les Autochtones et les Asiatiques. Par exemple, le système de reconnaissance faciale du IPhoneX, qui permet de déverrouiller son téléphone, ne distinguait pas, au départ, les traits des visages des personnes d’origine asiatique.

Plusieurs personnes croient que cela porterait atteinte à l'individualité et à l'humanité des personnes racialisées, lesquelles seraient plus susceptibles d'être mal identifiées comme des criminels. La technologie - et les erreurs d'identification qu'elle commet - reflèterait et renforcerait des divisions sociales de longue date qui sont profondément enchevêtrées dans le racisme, le sexisme, l'homophobie, le colonialisme et d'autres oppressions connexes.

De plus, la grande majorité des études d'IA partent du principe que le genre humain est binaire. L’IA désigne généralement les personnes comme appartenant à la gente masculine ou féminine sur la base de leur apparence physique et des stéréotypes, oubliant ainsi toute autre forme d'identité sexuelle.

Selon l’auteure d’un rapport sur l’intelligence artificielle déposé aux Nations Unies, le plus grand danger posé par l’IA est de croire que ces systèmes sont plus objectifs. L’auteure affirme ne pas croire en la neutralité de la technologie. Selon ses dires, de nombreuses décisions humaines influencent l’élaboration d’un algorithme, à toutes les étapes.

Les grandes compagnies technologiques sont donc à revoir leur technologie de reconnaissance faciale. En juin 2020, IBM a déclaré qu'elle ne proposerait plus de technologie de reconnaissance faciale et qu'elle arrêterait ses activités de recherche et développement en ce sens. Microsoft, elle, a retiré son offre de solutions de reconnaissance faciale aux services de police des États-Unis. Amazon met aussi en place un moratoire d'un an sur l'utilisation de sa technologie par la police. Le géant du commerce électronique a déclaré qu'il souhaitait donner du temps pour que des lois fédérales soient initiées et protègent les droits de l'homme et les libertés civiles dans ce domaine.

 

Ce genre de sujet te passionne? Considère des études spécialisées en cultures numériques ou en pluralité humaine, des programmes uniques, offerts dès septembre 2021 à l’Université de l’Ontario français. Tu auras l’occasion d’explorer et de proposer des solutions à toute une variété d’enjeux comme celui-ci. Plus spécifiquement, dans le programme d’études des cultures numériques, tu seras pourra réfléchir aux nouvelles formes d’interaction humaine, de communication et de création, explorer l’intelligence artificielle, les médias sociaux, le jeu vidéo, la réalité virtuelle, les arts et la publicité. Dans le programme d’études de la pluralité humaine, tu étudieras les questions telles que la migration et les réfugiés, les relations interculturelles et intergénérationnelles, le plurilinguisme, les discriminations et l’exclusion sociale, le racisme et l’oppression, les genres et sexualités.