Künstliche Intelligenz soll unseren digitalen Horizont neu gestalten. Tatsächlich haben viele Menschen im digitalen Raum, darunter Künstler und Content-Ersteller, generative KI-Tools für ihre Arbeitsprozesse als nützlich empfunden. Allerdings kommt auch eine neue Seite der Technologie ans Licht, die Zweifel an der Gerechtigkeit der KI in der Zukunft aufkommen lässt.

Das Problem der Voreingenommenheit in der KI

Durch die Untersuchung von KI-gestützten Kunstwerken von 15 Künstlern in einer kürzlich in der Ford Foundation Gallery ausgestellten Ausstellung mit dem Titel „Welche Modelle machen Welten: Kritische Vorstellungen von KI“ entdeckten die Kuratoren der Ausstellung, dass KI-Technologietools die Vorurteile der Menschen reproduzieren, die sie programmiert haben. Infolgedessen sind KI-Ergebnisse oft voreingenommen, was schädlich sein kann.

„Generative KI hat zwei Gesichter. Einerseits kann sie uns von einem anthropozentrischen Modell der Kreativität abbringen, andererseits operiert sie oft mit extraktivistischen Arbeitspraktiken und verzerrten Datensätzen“, sagte Mashinka Firunts Hakopian, Co-Kuratorin der Ausstellung, gegenüber Artnet News.

In einem der Kunstwerke mit dem Titel „Gespräche mit Bina 48“ versuchte der Künstler, eine Interaktion mit einem sozialen Roboter darzustellen. Der Bot wurde so konzipiert, dass er das Bewusstsein einer schwarzen Frau nachahmt, hatte jedoch kein sinnvolles Verständnis von Schwarzsein oder Rasse.

Es gab andere Werke, wie „In Discriminate“ von Mandy Harris Williams und „The Bend“ von Niama Safia Sandy, die algorithmische Voreingenommenheit und Diskriminierung aufdeckten.

Morehshin Allahyaris Videoarbeit mit dem Mondgesicht nutzt künstliche Intelligenz, um den Mangel an Repräsentation queerer Iraner im westlichen Kanon auszugleichen.

KI-Ungleichheit im Gesundheitswesen

Das Problem der Verzerrung von KI-Modellen reicht sogar bis in verschiedene andere Bereiche, in denen die Technologie angewendet wird, wie etwa das Gesundheitswesen.

Im August stellten Forscher am Massachusetts Institute of Technology (MIT) fest, dass KI und maschinelles Lernen dazu neigen, die Ungleichheiten in der Gesundheitsversorgung zwischen Untergruppen, die oft unterrepräsentiert sind, zu verschärfen. Dies könnte Auswirkungen darauf haben, wie diese Gruppen diagnostiziert und behandelt werden.

Das Problem liegt normalerweise im Datensatz begründet, mit dem KI-Modelle trainiert werden. Da das Problem nun in diesem Stadium ans Licht kommt, glaubt Hakopian, dass es behoben werden kann.

„Die Entwicklung der KI ist nicht im Voraus festgelegt. Automatisierte technologische Zukunftsszenarien sind keine ausgemachte Sache“, fügte Hakopian hinzu. „Es gibt Möglichkeiten, in diese Zukunft einzugreifen.“