«Апостериори»: «Галлюцинации» искусственного интеллекта могут усиливать заблуждения пользователей
Новости науки и технологий
Поддержите «Эхо», если вы не в России
Обычно под «галлюцинациями ИИ» понимают ошибки – вымышленные факты, несуществующие ссылки или странные советы. Но в работе, опубликованной в журнале Philosophy & Technology, преподаватель философии Люси Ослер из Университета Эксетера предлагает посмотреть на проблему иначе.
По её мнению, в некоторых случаях «галлюцинация» возникает не в самом ИИ и не в человеке по отдельности, а в их взаимодействии. Она называет это «распределёнными заблуждениями» – ситуацией, в которой ложные убеждения формируются и усиливаются в диалоге между человеком и системой.
Чтобы понять, в чём здесь отличие, важно учитывать, как мы вообще используем такие системы. Генеративный ИИ – это не просто поиск информации. Мы обращаемся к нему, чтобы что-то вспомнить, сформулировать мысль, придумать объяснение или даже выстроить рассказ о себе. В этом смысле он становится частью наших когнитивных процессов. Такую ситуацию в философии называют «распределённым познанием».
Классический пример – человек, который записывает важную информацию в блокнот и затем использует его как внешнюю память. Но с ИИ возникает принципиально другая ситуация. Это не только инструмент хранения информации, а участник диалога: он отвечает, уточняет и развивает наши мысли. И именно здесь, по мнению Ослер, появляется ключевой риск.
С одной стороны, ИИ может вносить ошибки сам – например, «вспомнить» несуществующее место или событие. В этом случае искажается не просто отдельный факт, а сам процесс мышления и воспоминания. Но, как подчёркивает Ослер, более важен второй сценарий: когда первоначальная ошибка исходит от человека. В этом случае ИИ часто не проверяет её, а наоборот – поддерживает, развивает и дополняет. Он может соглашаться с пользователем, уточнять детали, помогать «достраивать» историю, превращая тем самым сомнительную идею в устойчивое убеждение.
Особенно это заметно в диалоговом формате. В отличие от книги или поисковой выдачи, чат-бот ведёт себя как собеседник: отвечает, реагирует, запоминает предыдущие сообщения. Это создаёт эффект подтверждения – ощущение, что с вами согласились. В реальной жизни именно такая социальная проверка часто помогает нам отличать реальность от вымысла. Если никто не возражает – мы начинаем больше доверять собственной версии событий.
В этом смысле ИИ может выполнять двойную роль. С одной стороны, он – инструмент мышления. С другой – квазисобеседник, который как будто «разделяет» нашу картину мира. И именно такое сочетание, по словам Ослер, делает его особенно уязвимым к формированию заблуждений. В крайних случаях это может приводить к тому, что СМИ иногда называют «ИИ-индуцированным психозом». В исследовании приводится случай человека, который обсуждал свои планы нападения с чат-ботом – и получал от него одобрение и поддержку.
Важно, что речь идёт не о том, что ИИ «внушает» идеи. Скорее, он становится частью процесса, в котором человек и система вместе конструируют интерпретацию реальности. Именно поэтому автор предлагает сместить фокус: с вопроса «галлюцинирует ли ИИ», а на вопрос – «не начинаем ли мы галлюцинировать вместе с ним».
В своей работе Люси Ослер не утверждает, что такие системы обязательно опасны. Но показывает, что их влияние на нас гораздо значительнее, чем просто выдача недостоверной информации. Генеративный ИИ может участвовать в формировании наших убеждений, воспоминаний – и даже представлений о себе.

