И пропаганда, и дезинформация, и очевидный конфликт интересов
Смотрите, какая занятная новость: в ней сразу всё — и пропаганда, и дезинформация, и очевидный конфликт интересов, и большие корпорации, которые ведут себя так как мы ожидаем от больших корпораций, и учёные, которые очень хотят опубликовать свои результаты в престижном журнале и поэтому старательно не замечают, как ведут себя большие корпорации, и конфликт интересов тоже не замечают. Отдельно меня эта новость радует еще и потому, что исследование, из которого она растёт, всегда вызывало у меня бооольшие сомнения. Теперь мы видим, что не зря.
«Эхо» объявило
срочный сбор
Поддержите команду
Итак, что произошло: в журнале Science опубликовано письмо-комментарий к исследованию, которое вышло в том же Science в июле прошлого года. Исследование наделало довольно много шуму, так как его авторы показали, что поглощение пропагандистской информации из соцсетей не увеличивает поляризацию в обществе. Вполне себе революционный результат, потому что он противоречит всему, что мы знаем о механизмах воздействия информации.
В работе, проведённой совместно с сотрудниками Meta, авторы модифицировали ленту части пользователей Facebook и Instagram: они получали не обычную ленту, сформированную по применяемым Meta алгоритмам – которые она, к слову, не раскрывает, – а ленту в обратном хронологическом порядке. И несмотря на то, что при такой подаче пользователи видели больше дезинформации и фейк-ньюс, чем пользователи, получающие обычную ленту, на политические взгляды тех, кто подвергся воздействию, это не повлияло.
Шах и мат вам, алармисты, утверждающие, что социальные сети с их алгоритмами усиливают эффекты эхо-камеры и информационных пузырей, углубляя раскол в обществе. И все многолетние исследования факторов, которые побуждают людей менять свои взгляды, можно спустить в унитаз. Или нет?
Письмо, опубликованное несколько дней назад, заставляет предположить, что отказываться от всего, что мы знаем по этому вопросу, и что было подтверждено множеством экспериментов, пока рановато. Потому что выяснилось, что ровно в момент проведения исследования Facebook очень активно применял алгоритмы, блокирующие посты с дезинформацией и фейк-ньюс. В общей сложности корпорация использовала 63 различные технологии, ограничивающие поток недостоверных сведений. Иными словами, пользователи в обеих группах получали гораздо меньше постов с дезинформацией, чем это происходит обычно.
Это очень важный фактор, который неминуемо должен сказаться на результатах исследования, но авторы оригинальной статьи ни разу не упоминают о специальных мерах, хотя, как выясняется из их ответов на письмо с критикой, они знали о них.
Один из авторов, комментируя ситуацию журналистам, сообщил, что, ну да, было очевидно, что Facebook будет использовать какие-то меры в такой чувствительный период. «Поэтому, – говорит он, – мы добавили в статью множество предостерегающих формулировок. Мы старались очень ясно дать понять, что изучали конкретное изменение алгоритмов на определённой платформе в конкретное время в одной стране».
На конкурсе общих слов и отговорок этот ответ определенно занял бы призовое место. Потому что мы в любой работе можем изучить только специфическое изменение в специфических условиях – отсюда все эти анекдоты и мемы про «ученый изнасиловал журналиста». Лишь когда такие специфические изменения воспроизводятся в других работах, плюс мы проверяем, что они не были вызваны какими-то еще неучтенными факторами, мы можем генерализовать наше наблюдение и говорить об общей тенденции. Ну и, кроме того, вся последняя часть раздела «Дискуссия» в статье посвящена ровно тому, что, несмотря на то, что это данные, собранные в Америке перед выборами 2020 года, наблюдаемый эффект можно распространить и на воздействие социальных сетей в целом. Классическая ситуация трусов и крестика.
Редакция журнала Science сообщила, что, несмотря на вскрывшиеся обстоятельства, не будет ретрагировать статью, но опубликует письмо с критикой, чтобы все интересующиеся могли с ним ознакомиться. Переводя с бюрократического языка на обычный: в редакции сказали, что, несмотря на очевидный конфликт интересов и сокрытие очень существенного фактора, который мог не только сказаться на результате работы, но, вообще говоря, мог сделать его полностью нерелевантным, снимать статью они не будут.
На всякий случай отдельно поясню про конфликт интересов. Работа написана совместно с сотрудниками Meta, которая не скрывает, что очень активно использует всевозможные алгоритмы манипуляции лентой. За это Meta регулярно обвиняют в создании информационных пузырей, которые способствуют поляризации общества. В статье, написанной совместно с Meta, делается вывод, что эти обвинения беспочвенны. То есть это примерно то же самое, как если бы в работе, написанной совместно с производителями табака, было показано, что курение безвредно.
Важно: сам по себе факт наличия конфликта интересов не означает, что результаты априори неверны. Но он означает, что к ним надо относиться критически, так как есть все основания полагать, что авторы не полностью нейтральны в отношении того, какой результат они хотят получить. А уж когда вскрывается, что в статье намеренно не сказано о важнейшем параметре, который благоприятствует нужным авторам результатам, – тут как-то сам собой вспоминается Винни-Пух с его «кажется, пчёлы что-то подозревают». Но, похоже, редакции Science, в отличие от пчёл, все нормально. И тем, кто верит, что новые технологии, крайне умело эксплуатирующие наши вечные баги мышления, влияют на всё, кроме мышления.