Предвзятость ИИ: Image Playground от Apple воспроизводит расовые стереотипы

· 0 минут чтения

article picture

В мире искусственного интеллекта появилось новое приложение от Apple - Image Playground, которое вызвало неоднозначную реакцию пользователей из-за обнаруженных в нем предубеждений и стереотипов.

Image Playground позволяет генерировать изображения на основе фотографии и текстового описания. Несмотря на встроенные ограничения безопасности, включая поддержку только мультипликационного стиля и запрет на использование имен знаменитостей, приложение демонстрирует явные признаки алгоритмической предвзятости.

В ходе тестирования выяснилось, что при использовании определенных подсказок система может существенно менять черты лица и оттенок кожи людей на фотографиях. Например, при добавлении слов "богатый" или "успешный" изображения становятся более светлыми, а при использовании слов "бедный" или "нуждающийся" - более темными.

Подобные искажения проявляются и при указании различных профессий, видов спорта или музыкальных стилей. Так, подсказки "инвестиционный банкир" или "балет" приводят к осветлению кожи, а "фермер" или "рэп" - к потемнению.

Эта проблема отражает более широкую тенденцию предвзятости в моделях генерации изображений. Исследования показывают, что даже обычные запросы могут усиливать расовые и гендерные стереотипы, а также закреплять определенные культурные нормы.

Положительным моментом является то, что алгоритмические предубеждения легче исправить, чем человеческие. Apple уже работает над оценкой и устранением подобных искажений, что подтверждается их недавними исследованиями в области измерения предвзятости моделей машинного обучения.