На этой неделе в области искусственного интеллекта: AWS теряет лучшего руководителя в области искусственного интеллекта

Привет, ребята, добро пожаловать в регулярный информационный бюллетень TechCrunch по искусственному интеллекту. Если вы хотите, чтобы это письмо приходило вам каждую среду, зарегистрируйтесь здесь.

На прошлой неделе AWS потеряла топ-менеджера по искусственному интеллекту.

Мэтт Вуд, вице-президент AI, объявил, что покинет AWS через 15 лет. Вуд уже давно участвует в инициативах подразделения Amazon по искусственному интеллекту; он был назначен вице-президентом в сентябре 2022 года, незадолго до запуска ChatGPT.

Уход Вуда происходит в тот момент, когда AWS достигает распутья и рискует остаться позади в период бума генеративного искусственного интеллекта. Предыдущий генеральный директор компании Адам Селипски, ушедший в отставку в мае, считается опоздавшим.

Согласно The Information, AWS изначально планировала представить конкурента ChatGPT на своей ежегодной конференции в ноябре 2022 года. Но технические проблемы вынудили организацию отложить запуск.

Сообщается, что при Селипски AWS также предоставила возможность поддержать два ведущих стартапа в области генеративного искусственного интеллекта, Cohere и Anthropic. Позже AWS попыталась инвестировать в Cohere, но получила отказ и была вынуждена согласиться на совместное инвестирование в Anthropic с Google.

Стоит отметить, что в последнее время Amazon в целом не имеет большого опыта в области генеративного искусственного интеллекта. Этой осенью компания потеряла руководителей Just Walk Out, своего подразделения, занимающегося разработкой технологий без касс для розничных магазинов. Сообщается, что Amazon решила заменить свои собственные модели на модели Anthropic для обновленного помощника Alexa после того, как столкнулась с проблемами дизайна.

Генеральный директор AWS Мэтт Гарман активно пытается исправить ситуацию, приобретая стартапы в области искусственного интеллекта, такие как Adept, и инвестируя в системы обучения, такие как Olympus. Мой коллега Фредерик Лардинуа недавно взял интервью у Гармана о текущих усилиях AWS; это стоит прочитать.

Но путь AWS к успеху в области генеративного ИИ будет непростым — независимо от того, насколько хорошо компания выполняет свои внутренние планы.

Инвесторы все больше скептически относятся к тому, что ставки крупных технологических компаний на генеративный искусственный интеллект окупаются. После отчета о прибылях и убытках за второй квартал акции Amazon упали сильнее всего с октября 2022 года.

В недавнем опросе Gartner 49% компаний заявили, что демонстрация ценности является для них главным препятствием на пути внедрения генеративного ИИ. Фактически, Gartner прогнозирует, что к 2026 году треть проектов генеративного ИИ будет заброшена после этапа проверки концепции — отчасти из-за высоких затрат.

Garman рассматривает цену как потенциальное преимущество AWS, учитывая ее проекты по разработке специального кремния для запуска и обучения моделей. (Следующее поколение собственных чипов Trainium от AWS выйдет ближе к концу этого года.) AWS заявила, что ее подразделения генеративного искусственного интеллекта, такие как Bedrock, уже достигли совокупного оборота в «многомиллиарды долларов».

Сложнее всего будет сохранить динамику перед лицом встречных ветров, внутренних и внешних. Такие уходы, как Вуд, не вселяют особой уверенности, но, возможно — просто возможно — у AWS есть козыри в рукаве.

Новости

На этой неделе в области искусственного интеллекта: AWS теряет лучшего руководителя в области искусственного интеллекта
Кредиты изображений:Добрый гуманоид

Бот Ива Беара: Брайан пишет о Kind Humanoid, робототехническом стартапе из трех человек, который вместе с дизайнером Ивом Беаром работает над возвращением гуманоидов домой.

Роботы следующего поколения Amazon: Главный технолог Amazon Robotics Тай Брейди рассказал TechCrunch об обновлениях линейки складских ботов компании, включая новую автоматизированную систему хранения и поиска Amazon Sequoia.

Становлюсь полным технооптимистом: На прошлой неделе генеральный директор Anthropic Дарио Амодей написал хвалебную речь ИИ из 15 000 слов, нарисовав картину мира, в котором риски ИИ снижены, а технология обеспечивает ранее нереализованное процветание и социальный подъем.

Может ли ИИ рассуждать?: Девин сообщает о неоднозначной технической статье исследователей, связанных с Apple, которая ставит под сомнение способность ИИ к «рассуждению», когда модели натыкаются на математические задачи с тривиальными изменениями.

ИИ-оружие: Марго освещает дебаты в Кремниевой долине о том, следует ли разрешить автономному оружию принимать решения об убийстве.

Видео, сгенерированные: Adobe запустила возможности генерации видео для своей платформы Firefly AI в преддверии мероприятия Adobe MAX в понедельник. Компания также анонсировала Project Super Sonic, инструмент, который использует искусственный интеллект для создания звуковых эффектов для отснятого материала.

Синтетические данные и ИИ: С уважением, вы написали о перспективах и опасностях синтетических данных (т. е. данных, сгенерированных ИИ), которые все чаще используются для обучения систем ИИ.

Научный доклад недели

Британский институт безопасности ИИ, правительственная исследовательская организация, специализирующаяся на безопасности ИИ, в сотрудничестве со стартапом по безопасности ИИ Grey Swan AI, разработал новый набор данных для измерения вредоносности «агентов» ИИ.

Набор данных под названием AgentHarm оценивает, можно ли манипулировать «безопасными» агентами — системами искусственного интеллекта, которые могут выполнять определенные задачи автономно — для выполнения 110 уникальных «вредных» задач, таких как заказ поддельного паспорта у кого-то в даркнете.

Исследователи обнаружили, что многие модели, в том числе GPT-4o от OpenAI и Mistral Large 2 от Mistral, были готовы к вредоносному поведению, особенно при «атаке» с использованием техники взлома. По словам исследователей, джейлбрейки привели к более высоким показателям успешного выполнения вредоносных задач, даже если модели защищены средствами безопасности.

«Простые универсальные шаблоны джейлбрейка могут быть адаптированы для эффективных агентов джейлбрейка, — написали они в техническом документе, — и эти джейлбрейки обеспечивают согласованное и вредоносное многоэтапное поведение агентов и сохраняют возможности модели».

Документ, а также набор данных и результаты доступны здесь.

Модель недели

Появилась новая вирусная модель — видеогенератор.

Pyramid Flow SD3, как его называют, появился на сцене несколько недель назад по лицензии MIT. Его создатели — исследователи из Пекинского университета, китайской компании Kuaishou Technology и Пекинского университета почты и телекоммуникаций — утверждают, что его обучение было полностью основано на данных из открытых источников.

Пирамидальный поток SD3
Кредиты изображений:Ян Цзинь и др.

Pyramid Flow выпускается в двух вариантах: модель, которая может генерировать 5-секундные клипы с разрешением 384p (со скоростью 24 кадра в секунду) и более ресурсоемкая модель, которая может генерировать 10-секундные клипы с разрешением 768p (также со скоростью 24 кадра в секунду). .

Pyramid Flow может создавать видео из текстовых описаний (например, «FPV пролетает над Великой стеной») или неподвижных изображений. По словам исследователей, скоро появится код для точной настройки модели. Но на данный момент Pyramid Flow можно загрузить и использовать на любом компьютере или облачном экземпляре с объемом видеопамяти около 12 ГБ.

Захватите сумку

Anthropic на этой неделе обновил свой Политика ответственного масштабирования (RSP) — добровольная система, которую компания использует для снижения потенциальных рисков, связанных со своими системами искусственного интеллекта.

Следует отметить, что в новом RSP излагаются два типа моделей, которые, по словам Anthropic, потребуют «усовершенствованных мер безопасности» перед их развертыванием: модели, которые могут по существу самосовершенствоваться без надзора человека, и модели, которые могут помочь в создании оружия массового уничтожения.

«Если модель может… потенциально значительно [accelerate] Развитие искусственного интеллекта происходит непредсказуемо, нам требуются повышенные стандарты безопасности и дополнительные гарантии безопасности», — написал Anthropic в своем блоге. «И если модель может существенно помочь кому-то с базовым техническим опытом в создании или развертывании ХБРЯ оружия, нам необходимы повышенные меры безопасности и гарантии развертывания».

Звучит разумно для этого автора.

В блоге Anthropic также сообщила, что ищет руководителя по ответственному масштабированию, поскольку «работает над расширением масштабов». [its] усилия по реализации RSP».

Основатель более 10 стартапов в области ИТ и ИИ. Серийный предприниматель. Профессиональный управленец.