Искусственный интеллект проповедуется как способ изменить наш цифровой горизонт. По правде говоря, многие люди в цифровом пространстве, в том числе художники и создатели контента, нашли инструменты генеративного искусственного интеллекта полезными в своих рабочих процессах. Однако появляется новая сторона технологий, которая вызывает обеспокоенность по поводу справедливости ИИ в будущем.

Проблема предвзятости в ИИ

Изучая работы 15 художников, созданные с помощью искусственного интеллекта, на недавней выставке в галерее Фонда Форда под названием «Какие модели создают миры: критические представления об искусственном интеллекте», кураторы выставки обнаружили, что инструменты технологии искусственного интеллекта воспроизводят предрассудки людей, которые его кодировали. В результате в результатах ИИ часто возникают искажения, которые могут быть вредными.

«Генеративный ИИ. имеет лицо Януса. С одной стороны, это может увести нас от антропоцентрической модели творчества; с другой стороны, оно часто действует посредством экстрактивистской трудовой практики и предвзятых наборов данных», — рассказал Artnet News Машинка Фирунц Акопян, сокуратор выставки. 

В одной из работ «Беседы с Биной ​​48» художник попытался изобразить взаимодействие с социальным роботом. Бот был разработан, чтобы имитировать сознание чернокожей женщины, но у него не было значимого понимания черноты или расы.

Были и другие работы, такие как «In Discriminate» Мэнди Харрис Уильямс и «The Bend» Ниамы Сафии Сэнди, которые выявили алгоритмическую предвзятость и дискриминацию. 

В видеоработе Морехшина Аллахьяри «Луноликий» используется искусственный интеллект. чтобы устранить отсутствие странного иранского представительства в западном каноне.

Неравенство ИИ в здравоохранении

Проблема предвзятости в моделях ИИ затрагивает и другие области применения этой технологии, например здравоохранение. 

В августе исследователи из Массачусетского технологического института (MIT) обнаружили, что искусственный интеллект и машинное обучение имеют тенденцию усугублять неравенство в сфере здравоохранения среди подгрупп, часто недостаточно представленных. Это может повлиять на то, как группы диагностируют и лечат.

Проблема обычно связана с набором данных, с помощью которого обучаются модели ИИ, и, поскольку проблема выявляется на данном этапе, Хакопян считает, что ее можно исправить.

«Траектория А.И. не прописано заранее. Автоматизированное технобудущее не является предрешенным», — добавил Акопян. «Есть пространство для вмешательства в это будущее».