Сингапур выпускает рекомендации по обеспечению безопасности систем искусственного интеллекта и запрету дипфейков на выборах

щит безопасности в окружении значков устройств

АлексСл/Getty Images

На этой неделе Сингапур сделал множество заявлений о кибербезопасности, включая рекомендации по обеспечению безопасности систем искусственного интеллекта (ИИ), маркировку безопасности для медицинских устройств и новое законодательство, которое запрещает дипфейки в рекламном контенте выборов.

Его новые рекомендации и сопутствующее руководство по обеспечению безопасности систем искусственного интеллекта направлены на внедрение безопасного подхода, разработанного специально для того, чтобы организации могли снизить потенциальные риски при разработке и развертывании систем искусственного интеллекта.

«Системы ИИ могут быть уязвимы для состязательных атак, когда злоумышленники намеренно манипулируют или обманывают систему ИИ», — заявило Агентство кибербезопасности Сингапура (CSA). «Внедрение ИИ может также усугубить существующие риски кибербезопасности для корпоративных систем. [which] может привести к таким рискам, как утечка данных, или привести к вредным или иным нежелательным результатам модели».

«Таким образом, ИИ должен быть безопасным по своей конструкции и безопасным по умолчанию, как и все программные системы», — заявили в правительственном агентстве.

Он отметил, что в руководящих принципах определяются потенциальные угрозы, такие как атаки на цепочки поставок, и риски, такие как состязательное машинное обучение. Разработанные с учетом установленных международных стандартов, они включают в себя принципы, которые помогут специалистам внедрить средства контроля безопасности, а также передовые методы защиты систем искусственного интеллекта.

Рекомендации охватывают пять этапов жизненного цикла ИИ, включая разработку, эксплуатацию и обслуживание, а также окончание срока службы, причем последний из них подчеркивает, как следует удалять данные и артефакты модели ИИ.

В CSA заявили, что при разработке сопутствующего руководства они работали с профессионалами в области искусственного интеллекта и кибербезопасности, чтобы предоставить «ресурс, управляемый сообществом», который предлагает «практические» меры и средства контроля. Это руководство также будет обновляться, чтобы идти в ногу с развитием рынка безопасности ИИ.

Он включает в себя тематические исследования, в том числе атаки на системы наблюдения с распознаванием изображений.

Однако, поскольку меры контроля в основном касаются рисков кибербезопасности для систем ИИ, в руководстве не рассматриваются безопасность ИИ или другие связанные компоненты, такие как прозрачность и справедливость. Однако некоторые рекомендуемые меры могут частично совпадать, заявили в CSA, добавив, что руководство не распространяется на неправомерное использование ИИ в кибератаках, таких как вредоносное ПО на базе ИИ, или мошенничество, такое как дипфейки.

Сингапур, однако, принял новое законодательство, запрещающее использование дипфейков и другого контента, созданного в цифровой форме или манипулируемого предвыборной онлайн-рекламы.

Такой контент изображает кандидатов, говорящих или делающих что-то, чего они не говорили и не делали, но это «достаточно реалистично», чтобы представители общественности «обоснованно полагали», что манипулируемый контент реален.

Дипфейки запретили использовать в предвыборной кампании

Законопроект о честности выборов в онлайн-рекламе (поправка) был принят после второго чтения в парламенте. Он также касается контента, созданного с использованием ИИ, включая генеративный ИИ (Gen AI), и инструментов, не связанных с ИИ, таких как сращивание, сказал министр цифровых технологий. Развитие и информация Жозефина Тео.

«Законопроект направлен на устранение наиболее вредных типов контента в контексте выборов, то есть контента, который вводит в заблуждение или обманывает общественность относительно кандидата посредством ложного представления его речи или действий, который достаточно реалистичен, чтобы в него можно было разумно поверить. некоторыми представителями общественности», — сказал Тео. «Условие реалистичности будет оцениваться объективно. Не существует единого набора критериев, подходящего всем, но можно сделать некоторые общие замечания».

Они включают в себя контент, который «тесно соответствует[es]«Известные черты лица, выражения и манеры кандидатов, — пояснила она. — В контенте также могут использоваться реальные люди, события и места, поэтому он выглядит более правдоподобным», — добавила она.

Большинству широкой публики может показаться немыслимым контент, показывающий, как премьер-министр дает инвестиционные советы в социальных сетях, но некоторые все же могут стать жертвами такого мошенничества с использованием искусственного интеллекта, отметила она. «В этом отношении закон будет применяться до тех пор, пока найдутся представители общественности, которые будут обоснованно полагать, что кандидат действительно сказал или сделал то, что было изображено», — сказала она.

Вот четыре компонента, которые должны быть соблюдены для того, чтобы контент был запрещен в соответствии с новым законодательством: была ли онлайн-реклама о выборах сгенерирована или обработана в цифровом виде, изображена ли кандидатура, говорящая или делающая что-то, чего они не делали, и достаточно ли реалистична, чтобы ее могли счесть некоторые в обществе быть законным.

По словам Тео, законопроект не запрещает «разумное» использование ИИ или других технологий в избирательных кампаниях, таких как мемы, созданные ИИ или анимированные персонажи, а также мультфильмы. Это также не будет распространяться на «незначительные косметические изменения», которые включают использование косметических фильтров и настройку освещения в видеороликах.

Министр также отметил, что законопроект не будет распространяться на частное или домашнее общение или контент, которым обмениваются отдельные лица или в закрытых групповых чатах.

«Тем не менее, мы знаем, что ложный контент может быстро распространяться по открытым каналам WhatsApp или Telegram», — сказала она. «Если будет сообщено, что запрещенный контент передается в больших групповых чатах, в которых участвует множество пользователей, которые незнакомы друг другу и находятся в свободном доступе для общественности, такие сообщения будут подпадать под действие законопроекта, и мы оценим, следует ли принять меры. взятый.»

Закон также не распространяется на новости, публикуемые уполномоченными информационными агентствами, добавила она, или на непрофессионалов, которые «небрежно» распространяют сообщения и ссылки, не осознавая, что их контентом манипулировали.

Правительство Сингапура планирует использовать различные инструменты обнаружения, чтобы оценить, был ли контент создан или обработан с использованием цифровых средств, пояснил Тео. По ее словам, к ним относятся коммерческие инструменты, собственные инструменты и инструменты, разработанные совместно с исследователями, например Центром передовых технологий онлайн-безопасности.

В Сингапуре соответствующим лицам, включая службы социальных сетей, будут даны корректирующие указания по удалению или отключению доступа к запрещенному онлайн-контенту предвыборной рекламы.

Поставщик социальных сетей, не соблюдающий корректирующие указания, может быть оштрафован на сумму до 1 миллиона сингапурских долларов. Штрафы в размере до 1000 сингапурских долларов или тюремное заключение на срок до года, или и то, и другое могут быть назначены всем остальным сторонам, включая отдельных лиц, которые не подчиняются исправительным указаниям.

«Произошло заметное увеличение количества случаев дипфейков в странах, где прошли или планируются выборы», — сказал Тео, ссылаясь на исследование Sumsub, согласно которому количество случаев дипфейков увеличилось в три раза в Индии и более чем в 16 раз в Южной Корее. по сравнению с годом назад.

«Дезинформация, создаваемая искусственным интеллектом, может серьезно угрожать нашим демократическим основам и требует столь же серьезного ответа», — сказала она. Новый законопроект обеспечит «правдивость представительства кандидатов» и честность выборов в Сингапуре, добавила она.

Достаточно ли защищено это медицинское устройство?

Сингапур также стремится помочь пользователям приобретать медицинские устройства, которые должным образом защищены. В среду CSA запустило схему маркировки кибербезопасности для таких устройств, расширив программу, охватывающую потребительские продукты Интернета вещей (IoT).

Новая инициатива была разработана совместно с Министерством здравоохранения, Управлением медицинских наук и национальным агентством медицинских технологий Synapxe.

По словам CSA, маркировка предназначена для обозначения уровня безопасности медицинских устройств и позволяет пользователям здравоохранения принимать обоснованные решения о покупке. Программа распространяется на устройства, которые обрабатывают личную информацию и клинические данные, с возможностью сбора, хранения, обработки и передачи данных. Это также относится к медицинскому оборудованию, которое подключается к другим системам и службам и может обмениваться данными через проводные или беспроводные протоколы связи.

Продукты будут оцениваться на основе четырех уровней рейтинга: медицинские устройства уровня 1 должны соответствовать базовым требованиям кибербезопасности, системы уровня 4 должны соответствовать повышенным требованиям кибербезопасности, а также должны пройти независимый бинарный анализ стороннего программного обеспечения и оценку безопасности.

Запуск произошел после девятимесячной фазы «песочницы», завершившейся в июле 2024 года, в ходе которой 47 заявок от 19 участвующих производителей медицинского оборудования подвергли свою продукцию различным испытаниям. К ним относятся диагностические анализаторы in vitro, бинарный анализ программного обеспечения, тестирование на проникновение и оценка безопасности.

Отзывы, полученные на этапе «песочницы», использовались для точной настройки операционных процессов и требований схемы, включая обеспечение большей ясности в процессах подачи заявок и методологии оценки.

Программа маркировки является добровольной, но CSA призвала принять «превентивные меры» для защиты от растущих киберрисков, особенно в связи с тем, что медицинские устройства все чаще подключаются к больничным и домашним сетям.

Медицинские устройства в Сингапуре в настоящее время должны быть зарегистрированы в HSA и подчиняться нормативным требованиям, включая требования кибербезопасности, прежде чем их можно будет импортировать и сделать доступными в стране.

CSA в отдельном заявлении сообщило, что схема маркировки кибербезопасности потребительских устройств теперь признана в Южной Корее.

Двусторонние соглашения были подписаны в кулуарах конференции Singapore International Cyber ​​Week 2024, которая пройдет на этой неделе, с Корейским агентством Интернета и безопасности (KISA) и Федеральным управлением информационной безопасности Германии (BSI).

Южнокорейское соглашение, которое вступит в силу с 1 января следующего года, обеспечит взаимное признание сертификатов KISA по кибербезопасности IoT и Сингапурского знака кибербезопасности в обеих странах. Это первый раз, когда рынок Азиатско-Тихоокеанского региона является частью такого соглашения, которое Сингапур также подписал с Финляндией и Германией.

Схема сертификации Южной Кореи включает три уровня — Lite, Basic и Standard — при этом для всех обязательны сторонние лабораторные испытания. Устройства, выпущенные с базовым уровнем, будут считаться соответствующими требованиям уровня 3 схемы маркировки Сингапура, которая имеет четыре уровня рейтинга. KISA также признает сингапурскую продукцию уровня 3 соответствующей сертификации базового уровня.

Этикетки будут применяться к потребительским интеллектуальным устройствам, включая домашнюю автоматизацию, системы сигнализации и шлюзы Интернета вещей.

Основатель более 10 стартапов в области ИТ и ИИ. Серийный предприниматель. Профессиональный управленец.