Транскрипция с помощью ИИ: проблемы и перспективы
Несколько месяцев назад мой врач показал мне инструмент транскрипции на основе ИИ, который он использует для записи встреч с пациентами. В моем случае резюме выглядело неплохо, однако исследования, упомянутые в Новости АВС, выявили, что это не всегда так с Whisper от OpenAI. Иногда он просто выдает вымышленные сведения.
Статистика использования Whisper
По данным компании Nabla, Whisper используется как медицинский транскрипционный инструмент, и, по их оценкам, он расшифровал 7 миллионов медицинских разговоров. Это оборудование применяют более 30 000 врачей и 40 систем здравоохранения. Nabla осведомлена о проблеме галлюцинаций в Whisper и активно работает над её решением.
- Whisper расшифровал 7 миллионов медицинских разговоров.
- Используется более 30 000 врачей.
- Применяется в 40 системах здравоохранения.
Результаты исследования
Исследователи из Корнеллского университета и Вашингтонского университета обнаружили, что Whisper галлюцинирует примерно в 1% транскрипций, создавая содержательные предложения, иногда содержащие жестокие или бессмысленные фразы, когда в аудиозапись попадает тишина.
Одним из примеров таких галлюцинаций является выработка вымышленных медицинских состояний или фраз, которые можно ожидать от видео на YouTube, таких как «Спасибо за просмотр!». Следует отметить, что OpenAI использовала расшифровку более одного миллиона часов видео с YouTube для обучения GPT-4. Исследование, представлено в июне на конференции FAccT в Бразилии, но не ясно, прошло ли оно рецензирование.
- Галлюцинации составляют 1% транскрипций.
- Генерируются фразы, не имеющие смысла.
- Некоторые примеры галлюцинаций связаны с вымышленными медицинскими состояниями.
Реакция OpenAI
Представитель OpenAI, Тая Кристиансон, отправила заявление, в котором говорится, что компания серьезно относится к проблеме галлюцинаций и постоянно работает над улучшением технологии. Они стараются снизить количество галлюцинаций. Что касается использования Whisper на их платформе API, то их политика запрещает использование в высокорисковых контекстах.
- OpenAI работает над снижением галлюцинаций.
- Запрещает использование в критически важных ситуациях.
- Необходимо соблюдать рекомендации по применению в высокорисковых областях.
Выводы
Использование ИИ в медицине – это перспектива, но она сопровождается и своими рисками. Важно обратить внимание на проблемы, возникающие при транскрипции. Исследователи и разработчики, такие как OpenAI, продолжают работать над улучшением этих технологий, чтобы обеспечить безопасность и надежность в области здравоохранения.