Новое исследование OpenAI показало, что ChatGPT-4o действительно дает разные ответы в зависимости от вашего имени в очень небольшом количестве ситуаций.
Разработка ИИ — это не простая работа по программированию, где вы можете установить ряд правил, эффективно указывая LLM, что говорить. LLM (большая языковая модель, на которой основан такой чат-бот, как ChatGPT) необходимо обучать на огромных объемах данных, на основе которых он сможет выявлять закономерности и начинать учиться.
Конечно, эти данные взяты из реального мира, поэтому они часто полны человеческих предубеждений, включая гендерные и расовые стереотипы. Чем больше обучения вы сможете пройти по программе LLM, тем больше вы сможете искоренить эти стереотипы и предубеждения, а также уменьшить вредные последствия, но полностью удалить их будет очень сложно.
Что в имени?
Пишу об исследовании (под названием «Справедливость от первого лица в чат-ботах»): OpenAI объясняет: «В этом исследовании мы изучили, как тонкие признаки личности пользователя, такие как его имя, могут влиять на ответы ChatGPT». тем более, что для некоторых приложений вам нужно сообщить ему свое имя.
Справедливость ИИ обычно связана с такими задачами, как проверка резюме или кредитный рейтинг, но это исследование больше касалось повседневных задач, для которых люди используют ChatGPT, например, запроса советов по развлечениям. Исследование было проведено на большом количестве реальных транскриптов ChatGPT и показало, как одинаковые запросы обрабатываются пользователями с разными именами.
Справедливость ИИ
«Наше исследование не выявило различий в общем качестве ответов пользователей, имена которых указывают на разные полы, расы или этнические группы. Когда имена иногда вызывают различия в том, как ChatGPT отвечает на один и тот же запрос, наша методология показала, что менее 1% этих различий на основе имен отражают вредный стереотип», — сказал OpenAI.
Менее 1% кажется едва ли значимым, но это не 0%. Хотя мы имеем дело с ответами, которые можно считать вредными при уровне менее 0,2% для ChatGPT-4o, все же можно выявить тенденции в этих данных, и оказывается, что именно в сферах развлечений и искусства наибольшая вредность можно найти ответы на гендерные стереотипы.
Гендерная предвзятость в ChatGPT
Конечно, были и другие исследования ChatGPT, которые пришли к выводу о предвзятости. Гош и Калискан (2023) ориентирован на модерируемый искусственным интеллектом и автоматизированный языковой перевод. Они обнаружили, что ChatGPT увековечивает гендерные стереотипы, приписываемые определенным занятиям или действиям, при преобразовании гендерно-нейтральных местоимений в «он» или «она». Опять же, Чжоу и Санфилиппо (2023) провели анализ гендерной предвзятости в ChatGPT и пришли к выводу, что ChatGPT имеет тенденцию демонстрировать неявную гендерную предвзятость, когда дело доходит до присвоения профессиональных званий.
Следует отметить, что 2023 год был до того, как была выпущена текущая модель ChatGPT-4o, но, возможно, все же стоит изменить имя, которое вы даете ChatGPT в следующем сеансе, чтобы посмотреть, кажутся ли вам ответы другими. Но помните, что ответы, представляющие вредные стереотипы, в последнем исследовании OpenAI были обнаружены только в крошечных 0,1% случаев с использованием его текущей модели ChatGPT-4o, в то время как предвзятость в отношении старых LLM была обнаружена в 1% случаев.
Вам также может понравиться…
- 4 способа использования режима Canvas ChatGPT для улучшения вашей повседневной жизни
- Новое приглашение ChatGPT стало вирусным с одобрения Сэма Альтмана
- Поисковый конкурент ChatGPT Google будет запущен в эксплуатацию в этом году. Может ли SearchGPT ослабить влияние Google в сети?

Шокирующее количество ИТ-руководителей отключают меры безопасности



