Подпишитесь на наши ежедневные и еженедельные информационные бюллетени, чтобы получать последние обновления и эксклюзивный контент о ведущих в отрасли технологиях искусственного интеллекта. Узнать больше
С каждым годом кибератаки становятся все более частыми, а утечка данных становится все дороже. Независимо от того, стремятся ли компании защитить свою систему искусственного интеллекта во время разработки или используют свой алгоритм для повышения уровня безопасности, они должны снижать риски кибербезопасности. Федеративное обучение может обеспечить и то, и другое.
Что такое федеративное обучение?
Федеративное обучение — это подход к разработке ИИ, при котором несколько сторон обучают одну модель отдельно. Каждый загружает текущий основной алгоритм с центрального облачного сервера. Свою конфигурацию они обучают самостоятельно на локальных серверах, загружая ее по завершении. Таким образом, они могут удаленно обмениваться данными, не раскрывая необработанные данные или параметры модели.
Централизованный алгоритм взвешивает количество выборок, полученных от каждой несопоставимо обученной конфигурации, и объединяет их для создания единой глобальной модели. Вся информация остается на локальных серверах или устройствах каждого участника — централизованный репозиторий взвешивает обновления вместо обработки необработанных данных.
Популярность федеративного обучения быстро растет, поскольку оно решает общие проблемы безопасности, связанные с разработкой. Он также пользуется большим спросом из-за своих эксплуатационных преимуществ. Исследования показывают, что этот метод может повысить точность модели классификации изображений до 20%, что является существенным увеличением.
Горизонтальное федеративное обучение
Существует два типа федеративного обучения. Традиционный вариант — горизонтальное федеративное обучение. При таком подходе данные распределяются по различным устройствам. Наборы данных имеют общие пространства объектов, но имеют разные выборки. Это позволяет граничным узлам совместно обучать модель машинного обучения (ML) без обмена информацией.
Вертикальное федеративное обучение
В вертикальном федеративном обучении все наоборот: функции различаются, но образцы одни и те же. Функции распределяются вертикально между участниками, каждый из которых обладает разными атрибутами одного и того же набора объектов. Поскольку только одна сторона имеет доступ к полному набору этикеток с образцами, такой подход сохраняет конфиденциальность.
Как федеративное обучение укрепляет кибербезопасность
Традиционное развитие подвержено пробелам в безопасности. Хотя для обеспечения точности алгоритмы должны иметь обширные и соответствующие наборы данных, участие нескольких отделов или поставщиков создает возможности для злоумышленников. Они могут использовать отсутствие прозрачности и широкую поверхность атаки для внесения предвзятости, проведения оперативного проектирования или кражи конфиденциальных данных обучения.
Когда алгоритмы используются в функциях кибербезопасности, их производительность может повлиять на состояние безопасности организации. Исследования показывают, что точность модели может внезапно снизиться при обработке новых данных. Хотя системы искусственного интеллекта могут показаться точными, они могут потерпеть неудачу при тестировании в другом месте, потому что они научились использовать ложные ярлыки для получения убедительных результатов.
Поскольку ИИ не может мыслить критически или искренне учитывать контекст, его точность со временем снижается. Несмотря на то, что модели МО развиваются по мере поглощения новой информации, их производительность будет стагнировать, если их навыки принятия решений будут основаны на ярлыках. Именно здесь на помощь приходит федеративное обучение.
Другие заметные преимущества обучения централизованной модели с помощью разрозненных обновлений включают конфиденциальность и безопасность. Поскольку каждый участник работает независимо, никому не нужно делиться служебной или конфиденциальной информацией для продолжения обучения. Более того, чем меньше передач данных, тем ниже риск атаки «человек посередине» (MITM).
Все обновления зашифрованы для безопасного агрегирования. Многосторонние вычисления скрывают их за различными схемами шифрования, снижая вероятность взлома или атаки MITM. Это улучшает сотрудничество, сводя к минимуму риски и в конечном итоге улучшая уровень безопасности.
Одним из упускаемых из виду преимуществ федеративного обучения является скорость. Он имеет гораздо меньшую задержку, чем его централизованный аналог. Поскольку обучение происходит локально, а не на центральном сервере, алгоритм может обнаруживать, классифицировать угрозы и реагировать на них гораздо быстрее. Минимальные задержки и быстрая передача данных позволяют специалистам по кибербезопасности легко справляться с злоумышленниками.
Рекомендации для специалистов по кибербезопасности
Прежде чем использовать эту методику обучения, инженеры ИИ и группы кибербезопасности должны учитывать несколько технических факторов, факторов безопасности и эксплуатации.
Использование ресурсов
Разработка ИИ стоит дорого. Команды, создающие свою собственную модель, должны рассчитывать на первоначальные расходы от 5 до 200 миллионов долларов США и более 5 миллионов долларов США в год на содержание. Финансовые обязательства значительны, даже если затраты распределены между несколькими сторонами. Руководители бизнеса должны учитывать затраты на облачные и периферийные вычисления.
Федеративное обучение также требует больших вычислительных ресурсов, что может привести к ограничениям пропускной способности, места для хранения или вычислительных ресурсов. Хотя облако обеспечивает масштабируемость по требованию, команды по кибербезопасности рискуют оказаться привязанными к поставщику, если не проявят осторожность. Стратегический выбор оборудования и поставщиков имеет первостепенное значение.
Доверие участников
Хотя разрозненное обучение является безопасным, ему не хватает прозрачности, что делает преднамеренную предвзятость и злонамеренное внедрение проблемой. Механизм консенсуса необходим для утверждения обновлений модели до того, как централизованный алгоритм объединит их. Таким образом, они могут минимизировать риск угроз, не жертвуя при этом конфиденциальностью и не раскрывая конфиденциальную информацию.
Безопасность обучающих данных
Хотя этот метод обучения машинному обучению может улучшить состояние безопасности компании, 100% безопасности не существует. Разработка модели в облаке сопряжена с риском внутренних угроз, человеческой ошибки и потери данных. Избыточность является ключевым моментом. Команды должны создавать резервные копии, чтобы предотвратить сбои, и при необходимости откатывать обновления.
Лицам, принимающим решения, следует пересмотреть источники своих наборов обучающих данных. В сообществах ML происходит интенсивное заимствование наборов данных, что вызывает вполне обоснованные опасения по поводу несогласованности моделей. В Papers With Code более 50% сообществ задач используют заимствованные наборы данных как минимум 57,8% времени. Более того, 50% наборов данных поступает всего из 12 университетов.
Применение федеративного обучения в сфере кибербезопасности
Как только основной алгоритм агрегирует и взвешивает обновления участников, его можно использовать повторно для любого приложения, для которого он был обучен. Команды кибербезопасности могут использовать его для обнаружения угроз. Преимущество здесь двоякое: в то время как злоумышленникам приходится гадать, поскольку они не могут легко украсть данные, профессионалы объединяют знания для получения высокоточных результатов.
Федеративное обучение идеально подходит для смежных приложений, таких как классификация угроз или индикатор обнаружения компрометации. Большой размер набора данных ИИ и обширное обучение формируют его базу знаний, накапливая обширный опыт. Специалисты по кибербезопасности могут использовать эту модель в качестве единого механизма защиты для защиты широких поверхностей атак.
Модели МО, особенно те, которые делают прогнозы, склонны со временем меняться по мере развития концепций или изменения переменных. Благодаря федеративному обучению команды могут периодически обновлять свою модель, добавляя различные функции или образцы данных, что приводит к более точной и своевременной информации.
Использование федеративного обучения для обеспечения кибербезопасности
Независимо от того, хотят ли компании защитить свой набор обучающих данных или использовать искусственный интеллект для обнаружения угроз, им следует рассмотреть возможность использования федеративного обучения. Этот метод может повысить точность и производительность, а также укрепить их безопасность, если они будут стратегически преодолевать потенциальные внутренние угрозы или риски взлома.
Зак Эймос — редактор функций в ReHack.
Лица, принимающие решения по данным
Добро пожаловать в сообщество VentureBeat!
DataDecisionMakers — это место, где эксперты, в том числе технические специалисты, работающие с данными, могут поделиться идеями и инновациями, связанными с данными.
Если вы хотите прочитать о передовых идеях и актуальной информации, передовом опыте и будущем данных и технологий обработки данных, присоединяйтесь к нам на DataDecisionMakers.
Возможно, вы даже захотите написать собственную статью!
Узнайте больше от DataDecisionMakers
*задумчиво* А если алгоритмы начинают ошибаться из-за старых данных? Это же может быть опасно. Надо следить за этим.
Федеративное обучение может увеличить безопасность, но как быть с тем что данные всё равно могут утекать? Много вопросов остаётся.
Научилса много нового! Не знал что ИИ может так помогать в безопаснсоти. Прям полезная статья!
…Но как быть с доверием участников? Если кто-то из них захочет обмануть систему, всё может пойти наперекосяк…
…Да, вопросы доверия очень важны. Нужно чтобы все участники были честными!
…Если нет прозрачности, то и модель может стать ненадёжной.
Согласен с тем, что федеративное обучение поможет избежать утечек данных. Это очень важно для кибербезопасности в наше время!
Федеративное обучение это интересно, но не понятно как оно работает. Зачем так сложно, когда можно просто делать всё в одном месте?
Всё это звучит круто, но я не уверен что все компании смогут осилить такие расходы на ИИ. Может лучше оставить это только для больших корпораций?