Ирландский писатель Джон Коннолли однажды сказал:
Природа человечества, его суть — чувствовать чужую боль как свою собственную и действовать, чтобы эту боль избавить.
На протяжении большей части нашей истории мы считали, что сочувствие — это уникальная человеческая черта — особая способность, которая отличает нас от машин и других животных. Но сейчас это убеждение подвергается сомнению.
Поскольку ИИ становится все большей частью нашей жизни, проникая даже в самые интимные сферы, мы сталкиваемся с философской загадкой: может ли приписывание ИИ человеческих качеств умалить нашу собственную человеческую сущность? Наши исследования показывают, что это возможно.
Цифровое общение
В последние годы приложения-компаньоны искусственного интеллекта, такие как Replika, привлекли миллионы пользователей. Replika позволяет пользователям создавать собственных цифровых партнеров для участия в интимных беседах. Участники, заплатившие за Replika Pro, могут даже превратить свой ИИ в «романтического партнера».
Физические спутники ИИ не сильно отстают. Такие компании, как JoyLoveDolls, продают интерактивных секс-роботов с настраиваемыми функциями, включая размер груди, этническую принадлежность, движения и реакции искусственного интеллекта, такие как стоны и флирт.
Хотя в настоящее время это нишевый рынок, история показывает, что сегодняшние цифровые тенденции станут завтра глобальными нормами. Поскольку примерно каждый четвертый взрослый человек испытывает одиночество, спрос на ИИ-компаньонов будет расти.
Опасности гуманизации ИИ
Люди уже давно приписывают человеческие черты нечеловеческим существам – тенденция, известная как антропоморфизм. Неудивительно, что мы делаем это с помощью инструментов искусственного интеллекта, таких как ChatGPT, которые, кажется, «думают» и «чувствуют». Но почему гуманизация ИИ является проблемой?
Во-первых, это позволяет компаниям, занимающимся искусственным интеллектом, использовать нашу склонность привязываться к человекоподобным существам. Реплика позиционируется как «небезразличный ИИ-компаньон». Однако, чтобы избежать юридических проблем, компания в другом месте отмечает, что Replika не разумна и просто учится посредством миллионов взаимодействий с пользователями.

Некоторые компании, занимающиеся искусственным интеллектом, открыто заявляют, что их ИИ-помощники обладают сочувствием и даже могут предугадывать человеческие потребности. Подобные утверждения вводят в заблуждение и могут использовать в своих целях людей, ищущих дружеского общения. Пользователи могут испытывать глубокую эмоциональную вовлеченность, если верят, что их ИИ-компаньон действительно их понимает.
Это вызывает серьезные этические проблемы. Пользователь не решится удалить (то есть «отказаться» или «убить») своего ИИ-компаньона, как только он припишет ему какой-то разум.
Но что происходит, когда указанный компаньон неожиданно исчезает, например, если пользователь больше не может его себе позволить или если компания, которая его использует, закрывается? Хотя спутник может быть нереальным, чувства, связанные с ним, реальны.
Эмпатия – больше, чем программируемый результат
Сводя эмпатию к программируемому результату, рискуем ли мы умалить ее истинную сущность? Чтобы ответить на этот вопрос, давайте сначала задумаемся о том, что такое эмпатия на самом деле.
Эмпатия предполагает реагирование на других людей с пониманием и заботой. Это когда вы разделяете горе своего друга, когда он рассказывает вам о своей душевной боли, или когда вы чувствуете радость, исходящую от того, кто вам дорог. Это глубокий опыт – богатый и выходящий за рамки простых форм измерения.
Фундаментальное различие между людьми и ИИ заключается в том, что люди искренне чувствуют эмоции, тогда как ИИ может только имитировать их. Это затрагивает сложную проблему сознания, которая ставит под сомнение то, как субъективные человеческие переживания возникают в результате физических процессов в мозгу.

Шаттерсток
Хотя ИИ может имитировать понимание, любая «эмпатия», на которую он претендует, является результатом программирования, имитирующего эмпатические языковые модели. К сожалению, у поставщиков ИИ есть финансовый стимул обманом заставить пользователей привязаться к их, казалось бы, чутким продуктам.
Гипотеза дегуманизации ИИ
Наша «гипотеза дегуманизации» подчеркивает этические проблемы, возникающие при попытках свести людей к некоторым базовым функциям, которые могут быть воспроизведены машиной. Чем больше мы гуманизируем ИИ, тем больше мы рискуем дегуманизировать самих себя.
Например, зависимость от ИИ в эмоциональной работе может сделать нас менее терпимыми к несовершенству реальных отношений. Это может ослабить наши социальные связи и даже привести к эмоциональной деквалификации. Будущие поколения могут стать менее чуткими и потерять понимание основных человеческих качеств, поскольку эмоциональные навыки продолжают превращаться в товар и автоматизироваться.
Кроме того, поскольку спутники ИИ становятся все более распространенными, люди могут использовать их для замены реальных человеческих отношений. Это, вероятно, усилит одиночество и отчуждение – те самые проблемы, с которыми, по утверждениям, помогают эти системы.
Сбор и анализ эмоциональных данных компаниями, занимающимися искусственным интеллектом, также представляет значительные риски, поскольку эти данные могут быть использованы для манипулирования пользователями и максимизации прибыли. Это еще больше подорвет нашу конфиденциальность и автономию, выведя капитализм слежки на новый уровень.
Привлечение поставщиков к ответственности
Регулирующим органам необходимо сделать больше, чтобы привлечь поставщиков ИИ к ответственности. Компании, занимающиеся искусственным интеллектом, должны честно говорить о том, что их ИИ может и чего не может, особенно когда они рискуют использовать эмоциональную уязвимость пользователей.
Преувеличенные заявления о «подлинном сочувствии» должны быть объявлены незаконными. Компании, выдвигающие такие претензии, должны быть оштрафованы, а повторные нарушители закрыты.
Политика конфиденциальности данных также должна быть ясной, справедливой и не содержать скрытых условий, позволяющих компаниям использовать пользовательский контент.
Мы должны сохранить уникальные качества, которые определяют человеческий опыт. Хотя ИИ может улучшить определенные аспекты жизни, он не может – и не должен – заменить подлинные человеческие связи.