Писатель-призрак
Программа по переводу звука в текст от OpenAI придумывает целые абзацы. Несмотря на это, её используют даже в медицинских учреждениях. Из-за этого возможны серьёзные проблемы, сообщает AP.
Программа для транскрипции Whisper рекламируется как надёжный инструмент с точностью составления текста «на уровне человеческого». Однако, как отметил ряд экспертов, в статьях, которые пишет ИИ, появляются так называемые галлюцинации. Иногда они выгладят как грубые или расистские высказывания, а иногда — как рекомендация выдуманных методов лечения.
Искажения бывают серьёзными. Однажды вместо «он, этот мальчик, собирался — я точно не уверен — взять зонтик» в тексте было написано «он взял большой кусок креста, крошечный, маленький кусочек… Я уверен, что у него не было ножа для террора, поэтому он убил несколько человек».
Искажений много. Один инженер по машинному обучению сказал, что фрагменты текста, которых не было в оригинальном звуковом файле, появились примерно в половине из более чем ста часов изученных транскрипций Whisper. Ещё один разработчик нашёл галлюцинации почти во всех из 26 тысяч материалов, которых он создал с помощью этой программы.
Whisper — одна из самых популярных программ подобного рода: инструмент интегрирован в некоторые версии чат-бота ChatGPT и его можно выбрать для работы на вычислительных платформах Oracle и Microsoft, которые обслуживают тысячи компаний по всему миру.
Компания OpenAI, которая разработала Whisper, не советует использовать этот транскриптор в областях, связанных с высоким риском, но прислушались не все. Наибольшее опасение, пишут журналисты, вызывает то, что инструменты на основе Whisper используются в медицинских центрах для расшифровки консультаций пациентов с врачами. Таким образом этот инструмент использовали уже более семи миллионов раз во Франции и США.
Разработчики транскриптора объявили, что знают о проблеме, ценят позицию других экспертов и постоянно изучают способы уменьшить количество галлюцинаций. Когда она может быть решена, они не уточнили.