L’intelligence artificielle est présentée comme ayant le potentiel de remodeler notre horizon numérique. En vérité, de nombreuses personnes travaillant dans l’espace numérique, notamment des artistes et des créateurs de contenu, ont trouvé les outils d’IA générative utiles dans leurs processus de travail. Cependant, un nouvel aspect de la technologie apparaît, ce qui suscite des inquiétudes quant à l’équité de l’IA à l’avenir.

La question des biais dans l’IA

En étudiant les œuvres d’art assistées par l’IA de 15 artistes dans une exposition récente à la Ford Foundation Gallery intitulée « What Models Make Worlds : Critical Imaginaries of A.I. », les commissaires de l’exposition ont découvert que les outils technologiques de l’IA reproduisent les préjugés des humains qui les ont codés. En conséquence, les résultats de l’IA présentent souvent des biais qui peuvent être préjudiciables.

« L’IA générative. est au visage de Janus. D’une part, cela peut nous éloigner d’un modèle de créativité anthropocentrique ; de l’autre, elle opère souvent à travers des pratiques de travail extractivistes et des ensembles de données biaisés », a déclaré Mashinka Firunts Hakopian, co-commissaire de l’exposition, à Artnet News. 

Dans l’une des œuvres intitulée « Conversations avec Bina 48 », l’artiste a tenté de représenter une interaction avec un robot social. Le robot a été conçu pour imiter la conscience d’une femme noire, mais il n’avait aucune compréhension significative de la noirceur ou de la race.

Il y avait d'autres travaux, comme In Discriminate de Mandy Harris Williams et The Bend de Niama Safia Sandy, qui révélaient des biais algorithmiques et de la discrimination. 

Le travail vidéo Moon-faced de Morehshin Allahyari utilise l’IA. pour remédier au manque de représentation iranienne queer dans le canon occidental.

Inégalités en matière d’IA dans les soins de santé

Le problème des biais liés aux modèles d’IA touche également d’autres domaines dans lesquels la technologie est appliquée, comme les soins de santé. 

En août, des chercheurs du Massachusetts Institute of Technology (MIT) ont découvert que l’IA et l’apprentissage automatique avaient tendance à exacerber les inégalités en matière de soins de santé au sein de sous-groupes, souvent sous-représentés. Cela pourrait affecter la façon dont les groupes sont diagnostiqués et traités.

Le problème vient généralement de l’ensemble de données à partir duquel les modèles d’IA sont formés, et comme le problème est désormais révélé à ce stade, Hakopian pense qu’il peut être résolu.

« La trajectoire de l’A.I. n’est pas scripté à l’avance. Les technofuturs automatisés ne sont pas une fatalité », a ajouté Hakopian. « Il est possible d’intervenir dans ces futurs. »