Red Hat раскрывает основные улучшения Red Hat Enterprise Linux AI

Red Hat Enterprise Linux ИИ

Красная шляпа

Ну, это было быстро. Лишь в начале сентября Red Hat выпустила Red Hat Enterprise Linux AI (RHEL AI) 1.0. Теперь Red Hat объявила об общедоступной версии RHEL AI 1.2. В этом последнем выпуске представлено несколько ключевых улучшений, направленных на оптимизацию разработки, тестирования и развертывания больших языковых моделей (LLM).

Прежде чем перейти к тому, что нового и улучшено, немного о том, что предлагает RHEL AI. Он предназначен для оптимизации разработки, тестирования и развертывания моделей генеративного ИИ (gen AI). RHEL AI также призван сделать обучение LLM доступным.

Эта новая платформа сочетает в себе семейство моделей больших языков Granite (LLM) IBM Research с открытым исходным кодом, основанные на методологии LAB инструменты выравнивания InstructLab и совместный подход к разработке моделей с помощью проекта InstructLab AI с открытым исходным кодом.

RHEL AI также использует поисково-дополненную генерацию (RAG), чтобы позволить LLM получать доступ к утвержденным внешним знаниям, хранящимся в базах данных, документах и ​​других источниках данных. Такой подход расширяет возможности RHEL AI давать правильный ответ, а не ответ, который звучит правильно.

Следующее поколение RHEL AI может похвастаться расширенной аппаратной поддержкой. Новая версия теперь поддерживает серверы Lenovo ThinkSystem SR675 V3, предлагая варианты заводской предварительной загрузки для более быстрого и простого развертывания. В предварительной версии технологии RHEL AI 1.2 представляет поддержку ускорителей AMD Instinct, включая графические процессоры MI300x для обучения и вывода и графические процессоры MI210 для задач вывода.

RHEL AI 1.2 также расширил сферу своей деятельности на основные облачные платформы — теперь пользователи могут развертывать RHEL AI в Azure и Google Cloud Platform (GCP) в дополнение к существующей поддержке AWS и IBM Cloud.

Программное обеспечение также претерпело значительные улучшения. Новая функция «Периодическая контрольная точка» позволяет экономить длительные тренировочные прогоны через регулярные промежутки времени во время точной настройки. Пользователи могут возобновить обучение с последней сохраненной контрольной точки вместо того, чтобы начинать заново, экономя драгоценное время и вычислительные ресурсы.

RHEL AI 1.2 поставляется с PyTorch Fully Sharded Data Parallel (FSDP). Представленный в качестве предварительной версии технологии, FSDP значительно сокращает время обучения при многоэтапном обучении моделей с синтетическими данными. Технология распределяет параметры модели, градиенты и состояния оптимизатора между параллельными рабочими процессами (например, графическими процессорами), значительно сокращая время обучения.

RHEL AI продолжает движение Red Hat, направленное на то, чтобы сделать обучение LLM более доступным для программистов и экспертов в предметной области, а не только для специалистов по обработке данных.

Как сказал Джо Фернандес, вице-президент Red Hat Foundation Model Platform: «RHEL AI предоставляет экспертам в предметной области, а не только специалистам по данным, возможность внести свой вклад в создание специализированной модели искусственного интеллекта поколения в гибридном облаке, одновременно позволяя ИТ-организациям масштабировать эти модели для производства с помощью Red Hat OpenShift AI».

Другими словами, благодаря RHEL AI сделать ИИ полезным для ваших конкретных нужд становится еще проще.

Наконец, с выпуском RHEL AI 1.2 Red Hat также прекращает поддержку версии 1.1, предоставляя пользователям 30 дней для обновления до последней версии. Эта быстрая итерация подчеркивает агрессивное продвижение Red Hat на корпоративный рынок искусственного интеллекта. К лучшему или к худшему, развитие ИИ ускоряется все более быстрыми темпами.

Основатель более 10 стартапов в области ИТ и ИИ. Серийный предприниматель. Профессиональный управленец.