Статья на arXiv рассматривает риски национальной безопасности, связанные с использованием искусственного интеллекта (ИИ) в военных целях, акцентируя внимание на системах, таких как «Евангелие», «Лаванда» и «Где папа», которые уже применяются в военной разведке и наблюдении. Авторы утверждают, что политическая дискуссия о распространении химического, биологического, радиологического и ядерного оружия не является самой актуальной. Вместо этого необходимо сосредоточить внимание на текущих угрозах, связанных с ИИ, включая их зависимость от личных данных и возможные уязвимости. В статье подчеркивается, что интеграция базовых моделей ИИ в существующие военные системы может привести к новым значительным рискам. Для безопасности военных технологий требуется создание отдельных систем ИИ, которые изолированы от коммерческих, а также устранение рисков, связанных с использованием персональных данных. Указанные в отчете политические меры, такие как вычислительные пороги и экспортный контроль, оказываются недостаточными. Авторы предлагают новый подход к обеспечению безопасности, подчеркивая необходимость изоляции военного ИИ и защиты данных как важные шаги для сохранения национальной безопасности.
В статье «Новый искусственный интеллект» подчеркиваются риски коммерческого использования искусственного интеллекта в военном контексте
ПОХОЖИЕ МАТЕРИАЛЫ
Общественное мнение США: Регулирование (или запрет) искусственного интеллекта экспертного уровня и суперчеловеческого интеллекта
Общественное мнение в США о регулировании ИИ
Согласно последним опросам, большинство американцев выступают за регулирование или даже запрет на использование высокоразвитого и суперинтеллектуального искусственного интеллекта (ИИ). Эта тема вызывает активные дискуссии в обществе.
Причины для беспокойства
...
Безопасность ИИ: Как мы защищаем будущее (с Эсбеном Краном)
Эпизод с Эсбеном Краном
Эсбен Кран присоединяется к подкасту, чтобы обсудить, почему безопасность генерального искусственного интеллекта (AGI) требует большего, чем традиционная кибербезопасность. Он исследует новые линии атаки, адаптивное вредоносное ПО и социальные изменения, необходимые для...
Что рынки говорят нам о сроках развития ИИ (с Басилом Халперином)
Базил Халперин и экономические индикаторы AI
Базил Халперин — доцент экономики в Университете Вирджиния. Он присоединяется к подкасту, чтобы обсудить, что экономические индикаторы говорят о сроках достижения искусственного интеллекта (AI). Мы исследуем, почему процентные ставки...
От Пика Лошади к Пику Человека: Как ИИ Может Заменить Нас (с Кэламом Чейсом)
Превосходство Искусственного Интеллекта
В этом эпизоде Кэлюм Чейс присоединяется ко мне для обсуждения трансформационного воздействия ИИ на занятость. Мы сравниваем современную волну когнитивной автоматизации с историческими технологическими революциями.
Таймкоды:
00:00:00 - Превью и...
Как подготовиться к AGI (с Бенджамином Тоддом)
Бенджамин Тодд на подкасте
В этом эпизоде Бенджамин Тодд обсуждает, как модели рассуждений изменили ИИ, почему агенты могут стать следующим шагом, где можно ожидать задержек, и какое значение может иметь цикл саморазвития в ИИ для...
Почему гонка ИИ заканчивается катастрофой (с Даниэлем Кокатаджло)
Эпизод с Даниэлем Кокатжьло: Искусственный интеллект и его влияние
В этом эпизоде подкаста Даниэль Кокатжьло обсуждает, почему искусственный интеллект (ИИ) может превзойти трансформационную силу Промышленной революции и как именно ИИ способен ускорять исследования в области...