ИИ — новейший технологический монстр, пугающий людей будущим. Законные опасения по поводу таких вещей, как этическое обучение, воздействие на окружающую среду и мошенничество с использованием ИИ, слишком легко превращаются в кошмары Скайнета и Матрицы. Перспектива того, что ИИ станет разумным и свергнет человечество, часто поднимается, но, как сказал руководитель ИИ Meta Ян ЛеКун Уолл Стрит Джорналидея — это «полная чушь» Лекун описал ИИ как менее умного, чем кошка, и неспособного замышлять или даже вообще чего-либо желать, не говоря уже о падении нашего вида.
ЛеКун прав в том, что ИИ не собирается строить планы по убийству человечества, но это не значит, что не о чем беспокоиться. Меня гораздо больше беспокоят люди, которые полагаются на ИИ, чтобы стать умнее, чем он есть на самом деле. ИИ — это просто еще одна технология, то есть это не добро и не зло. Но закон непредвиденных последствий предполагает, что полагаться на ИИ для принятия важных, изменяющих жизнь решений — не лучшая идея.
Подумайте о катастрофах и почти катастрофах, вызванных тем, что технологиям больше доверяют принятию решений человеком. Быстрая торговля акциями с использованием машин, гораздо более быстрых, чем люди, уже не раз приводила к краху части экономики. Гораздо более буквальный крах едва не произошел, когда советская система обнаружения ракет дала сбой и заявила, что приближаются ядерные боеголовки. В этом случае только отважный человек за штурвалом предотвратил глобальный Армагеддон.
Теперь представьте, что ИИ, каким мы его знаем сегодня, продолжает торговать на фондовом рынке, потому что люди предоставили ему более полный контроль. Затем представьте, что ИИ принимает ошибочное предупреждение о ракете и ему разрешается активировать ракеты без участия человека.
ИИ-апокалипсис предотвращен
Да, звучит надуманно, что люди доверяют технологии, известной своими галлюцинирующими фактами, ответственной за ядерное оружие, но это не так уж и сильно отличается от того, что уже происходит. Голос искусственного интеллекта по телефону из службы поддержки клиентов мог бы решить, получите ли вы возмещение, прежде чем у вас появится возможность объяснить, почему вы его заслуживаете, и никто не услышит и не сможет изменить свое мнение.
ИИ будет делать только то, чему мы его обучаем, и для этого он использует данные, предоставленные человеком. Это означает, что оно отражает как наши лучшие, так и худшие качества. Какая грань проявляется, зависит от обстоятельств. Однако передача слишком большого количества решений ИИ является ошибкой на любом уровне. ИИ может оказать большую помощь, но он не должен решать, будет ли кто-то принят на работу или будет ли страховой полис оплатить операцию. Нам следует беспокоиться о том, что люди случайно или иным образом будут неправильно использовать ИИ, заменив человеческое суждение.
Маркировка Microsoft ИИ-помощников как «вторых пилотов» хороша, потому что она привлекает кого-то, кто поможет вам в достижении ваших целей, но кто не ставит их и не проявляет больше инициативы, чем вы позволяете. ЛеКун прав в том, что ИИ не умнее кошки, но кошка, способная сбросить вас или все человечество с метафорического счетчика, — это не то, что мы должны поощрять.
Вам также может понравиться…
- Обзоры искусственного интеллекта Google выходят на глобальный уровень, надеюсь, без предложений по поеданию камней
- Сможет ли Meta наконец сломать проклятие Google Glass с помощью своих очков Orion следующего поколения?
- Проблема не в искусственном интеллекте, но, по мнению одного из крестных отцов искусственного интеллекта, регулирование может оказаться серьезной проблемой.

В Apple Pay добавлены новые способы оплаты, такие как вознаграждение по картам и рассрочка.


