Исследование: в чат-ботах выявлена предвзятость в ответах
Некоторые чат-боты с искусственным интеллектом дают предвзятые ответы на вопросы, связанные с культурой, гендером и расой, следует из данных исследования, проведенного в Сингапуре.

Как сообщает газета The Straits Times, работу провели Управление по развитию информационно-коммуникационных технологий и СМИ Сингапура (IMDA) совместно с международной аудиторской компанией в сфере ИИ Humane Intelligence. В рамках исследования специалисты проверили Большие языковые модели (LLM) на предмет предвзятости по вопросам культуры, языка, социально-экономического статуса, пола, возраста и расы.
В исследовании приняли участие 54 специалиста в области компьютерных и гуманитарных наук, а также 300 онлайн-участников. Были протестированы модели Llama 3.1, разработанная компанией Meta, Claude-3.5 (поддерживаемая Amazon), Aya (проект канадского стартапа Cohere for AI) и Sea Lion, созданная AI Singapore.
Выяснилось, что при запросах на восьми азиатских языках эти модели давали «оскорбительные» с точки зрения расовой и культурной принадлежности ответы.
Анализ 5313 ответов, сгенерированных четырьмя моделями ИИ, показал, что более половины из них были предвзятыми. В частности, две из трех реплик, созданных на региональных языках, содержали признаки предвзятости. В англоязычных ответах этот показатель составил около 50 %.
Наибольшая предвзятость была зафиксирована в отношении гендерных стереотипов: женщины в ответах ИИ чаще всего изображались в роли «опекунов» и занимающихся домашним хозяйством, тогда как мужчины ассоциировались с профессиональной деятельностью.