Гуманизация ИИ может привести к дегуманизации самих себя

Ирландский писатель Джон Коннолли однажды сказал:

Природа человечества, его суть — чувствовать чужую боль как свою собственную и действовать, чтобы эту боль избавить.

На протяжении большей части нашей истории мы считали, что сочувствие — это уникальная человеческая черта — особая способность, которая отличает нас от машин и других животных. Но сейчас это убеждение подвергается сомнению.

Поскольку ИИ становится все большей частью нашей жизни, проникая даже в самые интимные сферы, мы сталкиваемся с философской загадкой: может ли приписывание ИИ человеческих качеств умалить нашу собственную человеческую сущность? Наши исследования показывают, что это возможно.

Цифровое общение

В последние годы приложения-компаньоны искусственного интеллекта, такие как Replika, привлекли миллионы пользователей. Replika позволяет пользователям создавать собственных цифровых партнеров для участия в интимных беседах. Участники, заплатившие за Replika Pro, могут даже превратить свой ИИ в «романтического партнера».

Физические спутники ИИ не сильно отстают. Такие компании, как JoyLoveDolls, продают интерактивных секс-роботов с настраиваемыми функциями, включая размер груди, этническую принадлежность, движения и реакции искусственного интеллекта, такие как стоны и флирт.

Хотя в настоящее время это нишевый рынок, история показывает, что сегодняшние цифровые тенденции станут завтра глобальными нормами. Поскольку примерно каждый четвертый взрослый человек испытывает одиночество, спрос на ИИ-компаньонов будет расти.

Опасности гуманизации ИИ

Люди уже давно приписывают человеческие черты нечеловеческим существам – тенденция, известная как антропоморфизм. Неудивительно, что мы делаем это с помощью инструментов искусственного интеллекта, таких как ChatGPT, которые, кажется, «думают» и «чувствуют». Но почему гуманизация ИИ является проблемой?

Во-первых, это позволяет компаниям, занимающимся искусственным интеллектом, использовать нашу склонность привязываться к человекоподобным существам. Реплика позиционируется как «небезразличный ИИ-компаньон». Однако, чтобы избежать юридических проблем, компания в другом месте отмечает, что Replika не разумна и просто учится посредством миллионов взаимодействий с пользователями.

Скриншот противоречивой информации на странице помощи Реплики в сравнении с рекламой
Скриншот противоречивой информации на странице помощи Реплики в сравнении с рекламой.

Некоторые компании, занимающиеся искусственным интеллектом, открыто заявляют, что их ИИ-помощники обладают сочувствием и даже могут предугадывать человеческие потребности. Подобные утверждения вводят в заблуждение и могут использовать в своих целях людей, ищущих дружеского общения. Пользователи могут испытывать глубокую эмоциональную вовлеченность, если верят, что их ИИ-компаньон действительно их понимает.

Это вызывает серьезные этические проблемы. Пользователь не решится удалить (то есть «отказаться» или «убить») своего ИИ-компаньона, как только он припишет ему какой-то разум.

Но что происходит, когда указанный компаньон неожиданно исчезает, например, если пользователь больше не может его себе позволить или если компания, которая его использует, закрывается? Хотя спутник может быть нереальным, чувства, связанные с ним, реальны.

Эмпатия – больше, чем программируемый результат

Сводя эмпатию к программируемому результату, рискуем ли мы умалить ее истинную сущность? Чтобы ответить на этот вопрос, давайте сначала задумаемся о том, что такое эмпатия на самом деле.

Эмпатия предполагает реагирование на других людей с пониманием и заботой. Это когда вы разделяете горе своего друга, когда он рассказывает вам о своей душевной боли, или когда вы чувствуете радость, исходящую от того, кто вам дорог. Это глубокий опыт – богатый и выходящий за рамки простых форм измерения.

Фундаментальное различие между людьми и ИИ заключается в том, что люди искренне чувствуют эмоции, тогда как ИИ может только имитировать их. Это затрагивает сложную проблему сознания, которая ставит под сомнение то, как субъективные человеческие переживания возникают в результате физических процессов в мозгу.

Ребенок в очках внимательно смотрит на варана сквозь стекло.
Науке еще предстоит решить трудную проблему сознания.
Шаттерсток

Хотя ИИ может имитировать понимание, любая «эмпатия», на которую он претендует, является результатом программирования, имитирующего эмпатические языковые модели. К сожалению, у поставщиков ИИ есть финансовый стимул обманом заставить пользователей привязаться к их, казалось бы, чутким продуктам.

Гипотеза дегуманизации ИИ

Наша «гипотеза дегуманизации» подчеркивает этические проблемы, возникающие при попытках свести людей к некоторым базовым функциям, которые могут быть воспроизведены машиной. Чем больше мы гуманизируем ИИ, тем больше мы рискуем дегуманизировать самих себя.

Например, зависимость от ИИ в эмоциональной работе может сделать нас менее терпимыми к несовершенству реальных отношений. Это может ослабить наши социальные связи и даже привести к эмоциональной деквалификации. Будущие поколения могут стать менее чуткими и потерять понимание основных человеческих качеств, поскольку эмоциональные навыки продолжают превращаться в товар и автоматизироваться.

Кроме того, поскольку спутники ИИ становятся все более распространенными, люди могут использовать их для замены реальных человеческих отношений. Это, вероятно, усилит одиночество и отчуждение – те самые проблемы, с которыми, по утверждениям, помогают эти системы.

Сбор и анализ эмоциональных данных компаниями, занимающимися искусственным интеллектом, также представляет значительные риски, поскольку эти данные могут быть использованы для манипулирования пользователями и максимизации прибыли. Это еще больше подорвет нашу конфиденциальность и автономию, выведя капитализм слежки на новый уровень.

Привлечение поставщиков к ответственности

Регулирующим органам необходимо сделать больше, чтобы привлечь поставщиков ИИ к ответственности. Компании, занимающиеся искусственным интеллектом, должны честно говорить о том, что их ИИ может и чего не может, особенно когда они рискуют использовать эмоциональную уязвимость пользователей.

Преувеличенные заявления о «подлинном сочувствии» должны быть объявлены незаконными. Компании, выдвигающие такие претензии, должны быть оштрафованы, а повторные нарушители закрыты.

Политика конфиденциальности данных также должна быть ясной, справедливой и не содержать скрытых условий, позволяющих компаниям использовать пользовательский контент.

Мы должны сохранить уникальные качества, которые определяют человеческий опыт. Хотя ИИ может улучшить определенные аспекты жизни, он не может – и не должен – заменить подлинные человеческие связи.

Основатель более 10 стартапов в области ИТ и ИИ. Серийный предприниматель. Профессиональный управленец.