Новый сезон «Чёрного зеркала», вполне возможно, скоро будет разворачиваться в реальной жизни
В двух работах, опубликованных одновременно в Nature и Science, авторы показали то, о чем мы все и так давно догадывались: чат-боты на основе больших языковых моделей (LLM) замечательно умеют переубеждать людей. В том числе это касается и политических взглядов.
Участникам предлагали поговорить с чат-ботом, агитировавшим за одного из кандидатов или продвигавшим ту или иную политическую позицию. После диалогов ученые фиксировали, насколько изменились мнения участников. Авторы проводили свои эксперименты накануне трех избирательных кампаний: президентских выборов в США 2024 года, парламентских выборов в Канаде 2025 года и президентских выборов в Польше 2025 года.
В США модель, агитирующая за Камалу Харрис, смогла сдвинуть мнение избирателей, планировавших голосовать за Дональда Трампа, в среднем на 3,9 пункта по 100-балльной шкале. Цифра кажется незначительной, однако эффект LLM оказался примерно в четыре раза сильнее воздействия традиционной политической телерекламы. Модель, агитировавшая за Трампа, сдвигала оценки вероятных сторонников Харрис в его пользу на 1,51 пункта.
В Канаде и Польше эффект оказался более заметным: смена предпочтений в сторону противоположного кандидата достигала 10 процентных пунктов. Для президентских выборов, когда участники более или менее уверены, за кого будут голосовать, это существенная величина (хотя, конечно, для того, чтобы считать результат по-настоящему значимым, очень не хватает данных о том, как в итоге проголосовали участники экспериментов, то есть смогли ли LLM изменить их поведение). Значительная разница между странами, полагаю, связана с тем, что в США избиратели очень поляризированы по сравнению с другими странами, поэтому и переубеждать их сложнее.
Получив данные, авторы пытались выяснить, за счет чего LLM оказываются настолько убедительными. По итогам проверок они пришли к выводу, что причина их успеха — вежливость и предоставление множества фактических доказательств. Чем больше фактов модель давала пользователям, тем лучше они переубеждались. Когда в ходе контрольных тестов чат-ботам запрещали использовать факты, их способность влиять на мнение людей резко падала.
Но как знает любой, кто пытался в чем-то переубеждать других, на одних фактах далеко не уедешь (да простят меня фактчекеры). Когда модель инструктировали быть максимально убедительной и предоставлять как можно больше аргументов в пользу определенной позиции, то сначала она использовала реальные факты, но, когда запас достоверной информации исчерпывался, чат-боты начинали выдумывать данные.
Чат-боты, агитирующие за правых кандидатов, во всех трех странах чаще выдавали некорректные или сомнительные аргументы, чем чат-боты, которые топили за левых. Этот результат согласуется с ранее многократно подтвержденными наблюдениями, что пользователи социальных сетей правого спектра чаще делятся недостоверной информацией.
В пользу того, что убедительность ИИ-моделей связана именно с тем, как они подают информацию, косвенно свидетельствует еще одно исследование, опубликованное в PNAS Nexus. В этой работе исследователи пытались при помощи чат-ботов переубеждать людей, верящих в теории заговора. Как и в предыдущих подобных работах, LLM делали это весьма успешно, причем этот эффект сохранялся даже тогда, когда участники думали, что общаются с экспертом-человеком. Это позволяет сделать вывод, что ключевым фактором является именно качество и структура самих сообщений, а не приписываемый искусственному интеллекту авторитет или ореол объективности — вспомним знаменитое «грок, скажи, это правда?» и убеждение многих пользователей соцсетей, что, если они в качестве аргумента приводят ответ какой-то из нейросетей, то этот аргумент является неоспоримой истиной.
Более крупные нейросети убеждали лучше, чем маленькие. Обучение модели специально под задачу менять взгляды людей дополнительно повышало эффективность: самая оптимизированная для убеждения модель сдвигала мнение людей на рекордные 25 процентных пунктов.
Авторы много раз подчеркивают, что эксперименты проводились с соблюдением строгих этических норм. Участники знали, что ведут диалог с ИИ, а после завершения опытов им подробно разъяснили суть исследования. Направление убеждения рандомизировалось, чтобы исключить влияние исследования на реальные результаты выборов — суммарный вектор воздействия в группах был нулевым.
Совершенно очевидно, что в реальной жизни никто подобным заморачиваться не будет. Более того, хотя факты и повышают убедительность моделей, сочетание фактов с выдуманной информацией или намеренное искажение реальных фактов может очень заметно усилить эффективность LLM в плане переубеждения. А значит, можно не сомневаться, что те или иные группы будут активно использовать возможности ИИ для того, чтобы склонять людей к тем или иным взглядам и/или решениям без оглядки на этические аспекты. Короче, новый сезон «Чёрного зеркала», вполне возможно, скоро будет разворачиваться в реальной жизни. А может, и уже разворачивается.

