Купить мерч «Эха»:

Sapere Aude / Школа гражданского просвещения: Человек, искусственный интеллект и будущее

Юлия Тарковская
Юлия Тарковскаяжурналистка
Олег Грешнев
Олег Грешневархитектор искусственного интеллекта

Как было бы здорово, если бы ИИ мог быть медиатором конфликтов. Причем конфликтов именно серьезных, которые приводят либо к вооруженному противостоянию, либо к серьезному урону — это было бы очень здорово. Но здесь, если честно, даже в самом оптимистическом сценарии я пока слабо верю, что это будет востребовано…

Sapere Aude_podcast_Oleg Greshnev Скачать

Подписаться на канал Sapere Aude»

Ю. ТАРКОВСКАЯ: Здравствуйте! Это подкаст Sapere Aude, проект Школы гражданского просвещения о событиях, тенденциях и явлениях глобального мира. Меня зовут Юлия Тарковская.

О чем мы думаем, когда слышим про искусственный интеллект? Кто-то шутит про восстание машин, кто-то переживает, что искусственный интеллект лишит человека работы, а кто-то смотрит на эту технологию с оптимизмом и верит, что искусственный интеллект улучшит нашу жизнь, но для этого нам тоже стоит постараться.

К техно-оптимистам относит себя и мой сегодняшний собеседник, архитектор искусственного интеллекта и эксперт школы Олег Грешнев. Олег, здравствуйте! Спасибо большое, что вы присоединились к нам сегодня.

О. ГРЕШНЕВ: Спасибо, Юля! Спасибо за приглашение. Здравствуйте!

Ю. ТАРКОВСКАЯ: Я только что вас представляла, и мне кажется, нам не стоит это оставлять незамеченным, а наоборот, давайте раскроем, что значит быть архитектором искусственного интеллекта.

О. ГРЕШНЕВ: Искусственный интеллект, как любая сложная техническая система, собственно, как здание, как любая машина, требует человека, который представляет себе, как она работает вообще. На сегодняшний день системы искусственного интеллекта определяются как слово «искусственный интеллект», но на самом деле внутри они состоят из большого количества блоков, разных модулей, каждый из которых отвечает за свою часть логики: за выявление каких-то характерных частей изображения, за попытку проассоциировать комбинацию этих частей с каким-то объектом, то есть выделить объект, за помещение этого объекта в контекст, за то, чтобы, например, дать текстовое описание выявленного объекта, и прочее-прочее.

Таких блоков очень много. Алгоритмов, по которым они могут работать, также достаточно много. Каждый из них имеет свои плюсы и минусы. Поэтому нужен человек, который видел бы эту картину в целом и помогал бы состыковывать, определять удачные и неудачные комбинации, определять критерии. В общем, делать то же самое, что делает архитектор для здания — нарисовать что-то прежде, чем оно будет собрано.

Ю. ТАРКОВСКАЯ: Где нужно учиться, чтобы стать архитектором искусственного интеллекта? Или это совокупность профессий?

О. ГРЕШНЕВ: Это, несомненно, междисциплинарная история. Я бы сказал, что необходимо учиться в некоторой технической, естественнонаучной все-таки в первую очередь области. Это, несомненно, математика. Без математики практически ни в какой технической области нельзя. Это то, что называется computer science. По-разному могут специальности называться, но в общем это computer science.

Ну и я бы сказал, что архитектором… Так, наверное, скажу: невозможно, нет такого вуза, который выпускает архитекторов, неважно, искусственного интеллекта или зданий. Потому что архитектор — это еще и опыт. И люди, которые, владея алгоритмом и методами, и люди, которые уже получив опыт, понимают, как все это работает, прошли некоторую лестницу снизу вверх. И на каком-то моменте и образования, и опыта ты уже можешь сказать, что да, я понимаю, как это устроено, я готов проектировать, что-то делать дальше.

Ю. ТАРКОВСКАЯ: Мне кажется, мы сейчас очень правильно поступили, что уточнили, что это междисциплинарная история. Поэтому мой следующий вопрос хорошо вписывается в этот междисциплинарный контекст. Искусственный интеллект — это разум?

О. ГРЕШНЕВ: То, что я скажу, является моим мнением. Сразу скажу, я не претендую на то, чтобы оно было истинным, но это мнение, которое помогает мне работать. Искусственный интеллект — это набор алгоритмов, задача которых решать задачи, которые исконно, изначально были свойственны только людям, которые считались плохо исполнимыми для машин: распознавание изображений, осмысленная человеческая речь, способность вести диалог.

И второе, как раз если мы говорим про способность вести диалог и так далее — это набор алгоритмов, призванный имитировать наличие разума на другой стороне собеседника. Это набор алгоритмов, который имитирует то, как мыслят люди. Очевидно, что при этом сами алгоритмы отличаются от того, что происходит у нас в голове. Хотя многие идеи были взяты, почерпнуты именно из работы мозга, поэтому другое название вот этих сетей — это нейросети, нейронные сети, потому что они изначально брались по образу и подобию работы мозга, но они, конечно, не в полной мере, мягко говоря, его повторяют.

А дальше возникает вопрос: если вы, как человек, неспособны отличить, общается с вами разум или не разум, есть ли смысл в самом вопросе? И отвечая на этот вопрос, я скажу так: да, уже даже на сегодняшний день прогресс искусственного интеллекта такой, что вы не всегда сможете понять, что ваш собеседник не является биологическим разумом. А пройдет еще несколько лет, и эта грань сотрется совсем.

Ю. ТАРКОВСКАЯ: Ой, тут я в подтверждение ваших слов вспоминаю недавний пример. В Твиттере был большой тред. Я сразу оговорюсь, что я не знаю, на сколько процентов он правдив, я не проверяла, но тем не менее. Молодой человек описывал, как с помощью искусственного интеллекта он знакомился с девушками в Тиндере. Причем идея в том, чтобы с этими девушками от его имени общался именно искусственный интеллект, а он якобы свое время экономил до тех пор, пока не сработают нужные фильтры и алгоритмы, которые будут указывать на то, что найдена именно та самая девушка, которую он ищет — the one and only, что называется. И вот с ней дальше он уже общался сам.

И надо сказать, что он выкладывал скриншоты этих переписок тоже, и там в целом достаточно просто можно уловить, что это машинный слог. По разным деталям, но это понять можно. На это он, правда, сказал, что это его недоработка и в следующий раз нужно ее усовершенствовать.

О. ГРЕШНЕВ: Ну, конкретно про этот случай — да, я тоже про него читал. Если честно, с моей точки зрения, я не могу проверить, но если предположить, что это все правда, это говорит многое не только о совершенности технологий искусственного интеллекта, это еще и очень много говорит о том, какие отношения складываются сейчас между людьми, что возможно механистически одно другим подменить. Потому что там все-таки достаточно механистическая работа, несмотря на то, что она может быть продвинутой.

Это первая половина ответа. То есть все-таки в такой чувствительной области, я думаю, конечно, это много еще говорит об отношениях людей и друг к другу, и к тому, как они выбирают себе партнера. Но если говорить в более широком плане, что надо очень четко понимать? Если мы говорим про какие-то такие даже не то чтобы угрозы, но потенциальные риски, связанные с внедрением искусственного интеллекта, они лежат в том, что мы сами, как люди, очень склонны к эмпатии и очень легко на нее поддаемся.

Искусственный интеллект немножко вводит в заблуждение тем, что там присутствует слово «интеллект», и мы все время пытаемся его в области разума найти. Но с чем он очень эффективно уже сейчас справляется, и чем дальше, тем более эффективно будет справляться — это управление нашими эмоциями в попытке вызвать к себе эмпатию. Все алгоритмы социальных сетей, практически все — их единственная задача удержать ваше внимание как можно дольше на экране смартфона либо экране ноутбука, с которого вы читаете контент. И они очень хорошо умеют подбирать этот контент, и они учатся уже много лет фактически теперь уже на миллиардах пользователей. И то, насколько они совершенны в этом — я думаю, сейчас нет людей, которые бы лучше, чем вот эти сети, справлялись с удержанием нашего внимания. И это не что иное, как слабая или не слабая, но манипуляция.

Что интересно, проводился эксперимент, когда роботу, искусственному интеллекту, просто имеющему изображение девушки на экране, и как бы он проговаривал от ее имени — его задача была на выставке попросить людей принести стакан воды. При том, что очевидно, что это был просто монитор, и стакан воды даже, если честно, некуда было приставить. Но она была довольно убедительна. Она просила, она взывала к нашим человеческим качествам, говорила, что вы же люди, ну почему вы не можете просто принести стакан воды. 80% посетителей выставки приносили стакан воды, хотя очевидно даже некуда было его наливать. Мы достаточно легко…

Ю. ТАРКОВСКАЯ: Отзываемся.

О. ГРЕШНЕВ: Отзываемся, да. И вот именно эта манипуляция, как ни странно, более простая, чем такая полная подмена интеллекта. Она возможна и, более того, она есть. Если расположить ее злоупотребление, то тогда можно увидеть совершенно огромное пространство, начиная от фишинга, запоминания каких-то данных, развода и всего остального на деньги, а заканчивая манипуляциями политическими и прочими.

Учитывая, что сейчас это уже не только про текст, это еще и про генерацию достоверного изображения, то даже нельзя говорить о дипфейке. Если раньше могли сказать: «О’кей, не отзывайтесь, когда вам пишут текстом, перезвоните человеку и узнайте, он или не он», то, в общем-то, сейчас это тоже перестает работать. Нейросеть великолепно модулирует голос и изображение.

Ю. ТАРКОВСКАЯ: У нас, кстати, совсем недавно выходил об этом текст. Его можно почитать на сайте sapere.online. Текст называется «Как искусственный интеллект угрожает прошлому». Его авторы размышляли о том, как искусственный интеллект может менять наше прошлое.

То есть сейчас, когда мы живем в эпоху искусственного интеллекта и понимаем, что он никуда не денется, и в будущем он тоже будет всегда присутствовать, мы можем застраховать себя от фейков, дипфейков с помощью водяных знаков, например, которые будут указывать на подлинность изображения, и мы совершенно не можем сделать этого со всем прошлым материалом. Соответственно, отсутствие какой-то понятной маркировки, что это не фейк, может привести к тому, что прошлое можно легко менять и переписывать с помощью искусственного интеллекта, и, скорее всего, будет большой процент людей, которые будут этому доверять.

О. ГРЕШНЕВ: Честно говоря, манипуляция прошлым — это вещь, которая происходила на протяжении всей истории человечества. То есть я не могу сказать, что это что-то принципиально новое. Как, собственно говоря, и фальсификации. Конечно, объемы будут другие, но здесь интересный момент, что искусственный интеллект вмешивается даже в такую область, как человеческая память. Потому что то, что мы помним — это же не все, что с нами происходило. У человека есть механизм, совершенно избирательный, который затеняет определенную область нашей памяти, негативных или каких-то болезненных воспоминаний, оставляя только то, что нам полезно с точки зрения каких-то наших встроенных механизмов защиты мозга. И вот искусственный интеллект этот механизм довольно легко ломает.

Здесь же вопрос не в том, чтобы фальсифицировать. Мы можем не фальсифицировать, достаточно выборочно подсвечивать. И вот то, что сейчас происходит с теми же социальными сетями, с алгоритмами айфонов, Apple и других, когда они внезапно выкидывают вам «А вот помните, как вы с кем-нибудь что-нибудь», — с одной стороны, это понятная и управляемая история: «Посмотрите, а давайте мы вам распечатаем фотоальбом или что-то еще». Но уже довольно много известных случаев, когда это приводило, в общем-то, к совершенно негативным эмоциям. Я уж не говорю о том, что это могут быть отношения, которые закончились с людьми, но он иногда и подсвечивает, например, умерших людей. Вы помните, как в прошлом году вы отмечали, но у него уже нет этого представления, и он, даже не фальсифицируя историю как таковую, вполне в состоянии повлиять на то, что и как мы помним.

Ю. ТАРКОВСКАЯ: Как вы думаете, человек как-то сможет регулировать это в дальнейшем, или это область, где физические возможности человеческие заканчиваются?

О. ГРЕШНЕВ: Я думаю, что это область, где физические возможности человека заканчиваются. Есть такой сериал «Черное зеркало» на Netflix. Он очень интересен тем, что он начал выходить достаточно давно, и уже хорошо видно, как многое из того, что в нем было предсказано, начинает сбываться, причем довольно точно сбываться.

У них есть серия, где люди… Это действительно возможно, это даже сейчас технически возможно, но не так, как изображено в сериале, когда это делается через искусственную роговицу, которая записывает все изображение. Но если предположить, что мы всегда с собой носим камеру, вообще-то говоря, нам сейчас ничто не мешает иметь запись всей своей жизни. Вот ребенку, родившемуся вчера, можно повесить этот брелочек с камерой и сделать ему на 18-летие подарок: он может посмотреть всю свою жизнь до минуты, до секунды. Плюс давайте возьмем, что все-таки искусственный интеллект сейчас позволяет сильно систематизировать. Можно нарезать на ситуации, на людей, с которыми мы встречались, и так далее.

Вопрос только в том, что опять это вмешательство в работу с памятью. Там как раз в этой серии хорошо показано, почему это плохо, к чему это приводит — что люди могут не выкарабкаться из каких-то болезненных ситуаций, переживать их в своем прошлом снова и снова вместо того, чтобы двигаться вперед. То есть наша память неслучайно некоторые вещи закрывает и выбраковывает, от нас оставляя только какие-то тени.

И да, теперь возвращаясь к вопросу. То есть мы сейчас видим это на текущий момент, на настоящий. Вот, кстати, хороший вопрос про влияние искусственного интеллекта на настоящее, даже ни про какой не Chat GPT. Уже много лет то, как мы видим информацию, то, какую мы информацию получаем, определяется алгоритмом искусственного интеллекта. И это сделано не потому, что есть какие-то там злодеи, манипуляторы, или даже нам там хотят продавать рекламу — возьмем абсолютно честную историю: честная корпорация, которая не хочет зла, а хочет только добра своим пользователям. Google, например. Я сейчас с некоторой оговоркой, мы не знаем, но даже если предположить, что это так, то объем информации, которая выходит в мире — он огромный, он слишком большой. Его невозможно переварить никакому человеку. Каждый раз, когда мы ищем какую-то информацию, если бы Google выдавал нам все, что мы знаем, все, что есть по этому поводу, мы бы никогда не добрались до той информации, которая нам нужна. Нам бы пришлось постоянно уточнять наш запрос: что мы имели в виду, как мы это имели в виду и так далее.

Что делает Google? Он следит за вами, он знает всю историю ваших запросов, он давно уже отклассифицировал, определил, кто мы, что мы, что нас, скорее всего, интересует. И когда мы набираем слово «ключ», он в состоянии понять, имеем ли мы в виду гаечный ключ, потому что мы вообще очень увлечены велосипедами и машины, или мы имеем в виду ключ, потому что мы недавно въехали в новую квартиру и явно ищем, где сделать дубликаты ключей, или это ключ криптографический, и вообще я студент и я давно уже ищу. Мы даже не уточняем, что мы имеем в виду. Машина как будто бы за нас знает, что мы имели в виду, когда мы это говорили. И в этом смысле алгоритмы, конечно же, нам подсказывают и нас направляют. И они же создают «пузыри», о которых уже сказано очень много.

Ю. ТАРКОВСКАЯ: Мы сами не знаем, кто мы, а Google знает.

О. ГРЕШНЕВ: Да, по сути, так. И тоже одно из сбывающихся вот этих предсказаний: знает ли он, кто мы, или он делает нас такими, какие мы — начинает делать в какой-то момент? Это размытый край, но это действительность. Я сейчас не хочу, это не имеет смысла — сгущение красок, страшилок. Это некоторая новая реальность, когда наше пространство, в котором мы живем, перестало быть чисто реальным.

В общем-то, мы такие довольно кибернетизированные организмы. Мы не живем без телефона, мы не живем без интернета. У нас нет органов от рождения, которые позволили бы входить в интернет и общаться там. А значит, этим органом становится устройство, и это устройство становится неотъемлемой частью нас в каком-то смысле. И живем мы, соответственно, не только в реальном мире, но и — раньше бы это назвали астралом, — вот в этой виртуальности. Мы уже в ней живем. И реальность этого виртуального мира в том, что в нем мы не можем существовать без помощников. Другие объемы информации, это не то, что человек может осилить сам. В любом случае нужен навигатор.

Теперь вопрос: вот этот навигатор — кто он? Это сервис, который предоставляется корпорацией, либо это что-то, что сделано сообществом open source, и насколько человек в состоянии это контролировать и понимать это — это вопрос. Вопрос в том, что такой сервисный навигатор нужен — это даже не вопрос, по-моему, сейчас уже.

Ю. ТАРКОВСКАЯ: Только сейчас, с появлением искусственного интеллекта и гаджетов на любой вкус и любой бюджет, стали говорить о том, что мы находимся в мире алгоритмов, которые нас ведут куда-то, куда им выгодно нас приводить. Но если мы вспомним каких-нибудь нейробиологов, которые изучают человека и человеческий мозг, ведь некоторые из них довольно давно говорят о том, что объективной реальности не существует, и все, что нас окружает и что мы про этот мир и про себя в нем понимаем — это контролируемые галлюцинации. Соответственно, если мы переносимся в мир алгоритмов и искусственного интеллекта, это, в общем, не то чтобы сильно что-то новое.

О. ГРЕШНЕВ: Я думаю, изменился один-единственный момент, и он является принципиальным. Да, очевидно, что мы не воспринимаем реальность объективно. Мы воспринимаем ее всегда субъективно, через органы чувств. Но вроде как все эти искажения до последнего момента лежали внутри нашей головы. То есть все эти искажения, все то, как мы правильно или неправильно, даже если это было некоторым научением внешним, все равно находились у нас в голове и были под нашим контролем.

Все, что случилось сейчас — вот этот наш цифровой альтер эго не является нашей частью. Хуже того, чаще всего для большинства людей он является чем-то, что создал не сам человек, и он даже не понимает, как он работает. Это нечто, что вам дано от одно или многих корпораций. Я думаю, что именно иллюзия контроля, которая существовала, пока все это находилось у вас в голове (иллюзия, подчеркиваю, потому что реального контроля там в большинстве случаев не было) и которая потеряна в случае, когда это внешнее — вот это разделение, вынос этого за пределы человека, это то, что вызывает такую, может быть, не всегда осознанную, но тревожность. Что вроде как не я этим распоряжаюсь больше.

Ю. ТАРКОВСКАЯ: Интересно, а как искусственный интеллект может улучшить нашу жизнь? Вот если общими фразами говорить? На самом деле я, конечно, под этими фразами понимаю гораздо более важный вопрос: может ли искусственный интеллект обучая нас, менять наше мышление? Скажем, уводить нас от идеи решать конфликты военным способом, то есть привести нас к мирной жизни.

О. ГРЕШНЕВ: Я техно-оптимист. Я считаю, что несомненно да, может. Но как бы он может и то, и другое. Я бы вообще всю историю с искусственным интеллектом разделил на два взгляда, перпендикулярных друг другу. Искусственный интеллект как некий объект, как некий инструмент, у которого нет собственного целеполагания и который используется так, как он задуман кем-то, кто его необязательно создал, но, по крайней мере, кто его применяет, и искусственный интеллект как нечто, что имеет свою субъектность, агентность; как нечто, чему дано право самостоятельно принимать какие-то решения и действовать, исходя из каких-то — во-первых, тут тоже интересный вопрос, до какой степени целеполагание, ставить самому себе цели, исходя из чего, дальше возникает вопрос, но, тем не менее, уже не преследуя цели, конкретные указания конкретных людей, корпораций и прочее.

Понятно, что до сих пор все, о чем мы говорим — мы говорим про объектный искусственный интеллект, у которого есть совершенно конкретные задачи, которые он может какими-то очень сложными, sophisticated методами решать, не всегда предсказуемыми для того, кто ему ставит цель, но, тем не менее, стремится к той цели, которую ему четко поставили.

И здесь, как я уже говорил, цель продавать рекламу — искусственный интеллект станет лучшим психологом, знатоком душ и маркетологом. Если цель лечить человека, то искусственный интеллект уже сейчас во многих областях лучше, чем врачи, и уж точно дешевле, чем врачи, может ставить диагноз, а в ближайшее время, я думаю, сможет назначать и лечить. Там скорее вопрос опять психологический: нам трудно пока довериться искусственному интеллекту. Нам нужен человек, который за это формально отвечает, по крайней мере. Но он все это сможет.

Если жить в этой же парадигме, то ответ такой: искусственный интеллект даже сейчас мог бы очень сильно помогать искать точки соприкосновения людей, убирая некоторый человеческий фактор. Потому что мы эмоциональны, и хотя я говорил, что искусственный интеллект в состоянии вызывать эмпатию, все-таки настоящую бурю эмоций вызывают у нас другие люди, которые с нами в чем-то не согласны. Я думаю, что искусственный интеллект способен был бы как минимум к медиации подобных конфликтов. Но здесь важный вопрос: нужен кто-то, кто скажет, что он должен это делать. То есть такая задача должна быть, по сути, сформулирована и поставлена.

Ю. ТАРКОВСКАЯ: То есть пока все-таки задачи искусственному интеллекту ставит человек.

О. ГРЕШНЕВ: Да, то есть искусственный интеллект подбирает методы решения этой задачи, но задачу ставит человек. В какой-то момент — и он, я думаю, может быть не за горами, это неизбежно, более того, — люди будут переходить к тому, что будут ставить задачи все более высокого уровня. Эти задачи уже будут звучать как задачи, как цели, вспоминая Стругацких «Пикник на обочине», «чтобы никто не ушел обиженным». «Счастье всем и каждому, чтобы никто не ушел обиженным».

Я бы сказал, здесь есть два вызова. Я не знаю, как мы их пройдем. Вызов первый: я не уверен, что действительно есть сейчас люди с ресурсами — они есть, но я не говорю, что их достаточное количество, — которые способны поставить задачу в таком контексте: счастье всем и каждому, а не счастье лично мне. А второй вопрос — что такое счастье и какими путями его можно исследовать. Искусственный интеллект сейчас учится на человеческих знаниях, полученных за предыдущие эпохи. Я не совсем оптимистичен относительно того, чему там можно научиться.

Но, тем не менее, это не означает, что… Ну, шансы есть всегда. Я думаю, что все-таки во многом это будет зависеть от того, кто и как будет им управлять. Очень хороший пример: искусственный интеллект типа Chat GPT или подобный ему создается не только в Америке и в Европе — он создается в разных странах, в том числе в Китае. Принципы того, что такое хорошо, что такое этично, задавать такой вопрос — а его можно задавать и Chat GPT китайскому (я забыл, честно говоря, как называется, у них тоже есть своя подобная модель), — если сравнить их картину мира о том, что хорошо, что такое плохо, она будет просто принципиально несовместимой. Потому что Китай — это своя культура, свои приоритеты того, что общественное, личное, что важнее, личность или благополучие группы. В Китае сильное смещение в пользу группы, то есть личность имеет намного меньше ценности, чем успех группы. В Европе, наоборот, это сверхиндивидуализм, то есть личность — всё, а группа вторична. Уже на этом месте там будет полное несовпадение.

Плюс не надо забывать, что над искусственным интеллектом стоят корпорации и государства, которые уже сейчас регламентируют, нормируют его деятельность. То есть когда создавался Chat GPT, больше ресурсов было потрачено не на его обучение, а на его отучение от тех областей, которым он научился и которые признаны неэтичными. То есть из-за того, что на входе у него был огромный корпус текстов, понятно, без разбора, он вместе со всеми знаниями человечества впитал и все его пороки. И для того, чтобы исключить вот эти неэтичности и попытаться заставить его забыть или как-то исключить расизм, исключить какие-то политически ангажированные вещи и так далее — вот на это тратится ресурсов больше, чем на то, чтобы его научить. С китайским искусственным интеллектом там все еще сильнее. То есть у них там есть специальные алгоритмы, которые прямо вынуждают сеть забывать. То есть ее прямо реально наказывают и бьют, чтобы она забыла. Ну, в фигуральном смысле слова: чтобы она просто забыла, из нее выкорчевать определенные знания.

Но это в свою очередь приводит к тому, что, как и с человеком, когда человек начинает исключать часть реальности, у него в голове возникают несостыковки и несовпадения в картине мира. А это, в свою очередь, ведет к аномалиям и к некорректному, неправильному толкованию, неправильному поведению, неправильной интерпретации.

Вот такого уровня проблемы только сейчас… Они правда сейчас решаются, но решения для них пока нет. То есть получается, что мало того, что он научится на том, что было — потом ему объяснят, что это надо забыть, а потом, учитывая вот эти выкушенные куски реальности, ему предложат построить счастье для всего человечества. Я чувствую, что здесь совершенно неожиданные моменты могут возникать и, скорее всего, будут возникать. Но это большой такой путь. Что я точно понимаю, что человечество на него ступило и уже сейчас с него не сойдет. Его так или иначе человечество пройдет.

Ю. ТАРКОВСКАЯ: Олег, вот вы говорили о вызовах, с которыми человечество может столкнуться в связи с развитием искусственного интеллекта. Но не менее интересно поговорить о том, как изменится сам человек. То есть когда мы говорим о том, что искусственный интеллект возьмет на себя часть человеческих профессий, во всем этом многообразии, мне кажется, это самое простое, а чем дальше, тем больше будет сфер, где искусственный интеллект будет опережать человека. И что в это время будет делать человек? Как он будет перенастраивать себя в соответствии с этим изменившимся миром?

О. ГРЕШНЕВ: Это очень интересный вопрос. Я бы сделал буквально полшага назад и задался еще одним вопросом. Потому что помимо вопроса такого, я бы сказал, экзистенциально-философского, что делать человеку, когда его быт полностью улажен и все, что связано с его физическим существованием, обеспечивается искусственным интеллектом, еще задался бы вопросом, что в текущей парадигме экономических отношений исключение человека из процесса производства автоматически означает, что он перестает получать деньги. То есть он лишается средств к существованию. При том, что искусственный интеллект действительно может стать и, я думаю, станет в ближайшее время основным производственным ресурсом. То есть чем дальше, тем меньше во всех областях будет нужен человек. Я не скажу, что в ближайшее время он совсем будет не нужен, но будет нужен все меньше. Это означает, что все большее количество людей окажется в ситуации, когда их труд не нужен. Какой бы он ни был, он просто не нужен. И в ситуации таких классических капиталистических отношений это автоматом означает, что они будут исключены вообще из экономического цикла.

Дальше это будет вопрос социальный и вопрос государств, как они будут решать эту проблему. Ее решать совершенно точно будет нужно, и я думаю, что это очень интересный и вообще отдельный вопрос. Это может быть обязательный вмененный доход, это может быть еще что-то, но вопрос, как будет делиться тот добавочный продукт, который производит искусственный интеллект.

В текущий момент искусственный интеллект не субъект, он объект. А будучи объектом, он является собственностью корпораций, а значит, и продукт его труда является собственностью корпораций. Причем корпораций обычно транснациональных, даже не замкнутых в одном государстве. И это действительно очень большой и интересный вызов, с которым надо будет работать.

Понятно, что решения есть — была бы воля решать эту проблему, но решений здесь довольно много. Предположение, что эта проблема будет решена — я вспоминаю фильм нашего детства про Электроника, что «вкалывают роботы, счастлив человек». А вообще-то говоря, что плохого в том, что человек будет избавлен от необходимости рутины, рутинной работы? И фактически чем дальше, тем больше человеку будет предоставлена воля заниматься самореализацией в любой сфере. Ведь если ты обеспечен всем, и твой сосед обеспечен всем, то у тебя нет забот и ты можешь рисовать картины не для того, чтобы их продавать; ты можешь сочинять музыку не для того, чтобы продавать пластинки, а просто потому что тебе это доставляет удовольствие и кому-то еще. Ну да, это сильно поменяет характер людей, но и характер их отношений друг с другом в том числе.

Ю. ТАРКОВСКАЯ: Это похоже на один из способов, как решить проблему неравенства — экономического, например. То есть получается, что искусственный интеллект вполне может с этим помочь.

О. ГРЕШНЕВ: Он либо закрепит абсолютное неравенство в ситуации, когда минимальное количество людей, 1% людей будет пользоваться всеми плодами работы искусственного интеллекта, а 99% людей будут исключены из этого процесса так или иначе. Также он может быть и некоторым уравнителем, распределяя эти блага равномерно.

Правда, здесь надо помнить, что есть еще одна проблема, связанная с тем, что даже если предположить, что действительно все блага распределены равномерно, то не факт, что на Земле есть достаточно ресурсов, чтобы обеспечить достойное существование всему населению Земли. Там вопрос технологий, но и, скорее всего, вопрос расселения — что это не только Земля.

В общем, там еще будет много вопросов, про которые интересно подумать, но решение которых будет связано не только с техническими, за что я могу достаточно легко говорить — опять-таки, это очень интересно, и ими можно заниматься, — но и этическими и философскими дилеммами о том, что такое справедливость и что значит сделать всем людям хорошо.

Тут как раз очень интересный пример, опять если вернемся к примерам с алгоритмами социальных сетей. По большому счету, социальная сеть — казалось бы, ее задача удержать ваше внимание на экране. Как ни странно, ее задача сделать вам хорошо. Потому что если вам плохо, она же не может вас заставить смотреть в экран. Если вам плохо, вы не будете смотреть в экран. Тем более, что есть много других вариантов, куда еще сходить. А значит, ее задача сделать вам хорошо.

Но сделать вам хорошо — в том числе, например, это убедить вас, что о чем бы вы ни думали, вы всегда правы, и очень много людей считают точно так же, как вы. А значит, все, кто с вами не согласен, полные идиоты. А значит, мы получаем невиданную ныне поляризацию общества, неспособность людей договариваться друг с другом. Потому что информацию-то они потребляют из тех самых социальных сетей, где они видят только то, что им приятно видеть, то есть только то, что поддерживает их точку зрения. И более того, они в друзьях видят только тех, которые разделяют их точку зрения, и они понимают, что эта точка зрения абсолютно верна. Они не видят в виртуальном пространстве тех, кто считает иначе — от этого расстройства их отгородили. Но при этом растет их полная уверенность, что их точка зрения единственно верная и единственно возможная.

Таким образом алгоритмы, делая людям хорошо, вообще-то говоря, делают плохо. И чем больше искусственный интеллект смешивается, тем больше будет дилеммы в том, что делать человеку хорошо — это такой сложный процесс. Потому что чтобы человек развивался, ему, как ни странно, должно быть в чем-то немного плохо — чтобы он задавал вопросы, чтобы он хотел куда-то идти вообще, к чему-то стремиться. Люди, у которых и так все хорошо, и чтобы они начали стремиться — это люди с недюжинной силой воли. Такое, возможно, нужно воспитывать, но это нужно воспитывать, скорее всего, с детства.

Ю. ТАРКОВСКАЯ: Конечно, опасность жить в парадигме, где ты всегда и во всем прав, заключается в том, что встречаясь с противоположной точкой зрения, совершенно ни о чем договориться невозможно, потому что просто навык договариваться исчезает за ненадобностью.

О. ГРЕШНЕВ: Мое мнение: это то, что мы сейчас наблюдаем на самом деле. Мы уже сейчас это наблюдаем. Нам все сложнее договариваться. Никакой пропаганде было бы не под силу… То есть в чем особенность искусственного интеллекта? Мы можем вещать… Первые средства массовой информации — радио, телевидение, — уже получилась возможность вещать одну и ту же идею на большое количество населения. Но вещалась одна и та же картинка, то есть одна и та же идея, а мы-то все-таки индивидуальные, каждый из нас по-своему видит. Вот особенность искусственного интеллекта в том, что он в состоянии одну и ту же идею каждому донести так, чтобы именно для него она была привлекательной.

Или даже если мы уберем вопрос донесения идеи, опять уберем злодеев и теории заговора, даже достаточно просто взять человека в текущем его моменте, взять все его убеждения и сделать их максимально привлекательными для самого же человека, и мы построим вокруг каждого совершенно непробиваемую капсулу, в которой он просто не захочет… Зачем ему общаться с кем-то, когда он и так прав? То есть что он должен выяснить? Для него все понятно.

Ю. ТАРКОВСКАЯ: Олег, мы уже в сегодняшнем нашем разговоре вспоминали сериал «Черное зеркало» и то, как сценаристы довольно давно придумали вещи, которые, как мы сейчас видим, оказались довольно точными. Давайте предположим, что мы сейчас можем пофантазировать о будущем искусственного интеллекта и хотим что-то предложить человечеству. Что бы это могло быть и как бы оно работало?

О. ГРЕШНЕВ: Это очень хороший вопрос. В этом смысле я постараюсь быть оптимистом, а не сценаристом «Черного зеркала», потому что у них такие все сценарии, я бы сказал, слишком реалистичные. Давайте мы куда-нибудь про оптимизм больше. Я думаю, что здесь есть несколько проблем, которые просто необходимо решить.

Вопрос первый — это решить все-таки, кто и каким образом будет пользоваться плодами искусственного интеллекта. То есть тот факт, что сейчас искусственный интеллект — это собственность больших корпораций, и это по понятной причине, потому что на самом деле он требует огромных ресурсов и для создания, и для обучения. Это некоторая проблема, но, возможно, которая решится через то, что любая технология после того, как она единожды была освоена, удешевляется и становится доступной для большего количества людей. В принципе, мы это тоже наблюдаем. Есть сейчас такие помельче, конечно, чем Chat GPT, но модели, которые энтузиасты могут разворачивать даже у себя и пользоваться ими. В меньшем объеме, но, тем не менее, пользоваться.

Второй вопрос — это, я уверен, просто инертность нашего мышления. Как вот есть, по-моему, китайская поговорка, что когда ветер меняется, кто-то строит стены, а кто-то строит мельницы. Все-таки мы очень часто в силу консерватизма пытаемся строить стены. Это, я думаю, однозначно проигрышная сейчас позиция. Против того, что происходит, стену не построить. И чем больше людей будет понимать, как это работает и как этим можно пользоваться, и будут придумывать, более того, как этим можно пользоваться… Потому что инструмент есть. Я уверен, что он сейчас используется процента на 3 от тех сценариев, в которых он реально мог бы быть использован. Это востребованная интересная тема, и чем больше люди будут понимать, как это работает, тем больше шансов, что мы найдем хорошее решение.

В целом, если строить такой среднеутопический сценарий, я бы хотел видеть сценарий, в котором искусственный интеллект взял на себя как минимум большую часть рутинной работы. Сделал более доступным, например, то же образование, что очень важно. Причем индивидуальное образование с учетом особенностей, доступное для людей с ограниченными возможностями. В общем, образование, доступное для всех, медицина, доступная для всех, и какой-то базовый набор товаров, возможно, опять-таки, доступный для всех.

И второй вопрос, как было бы здорово, если бы он мог быть медиатором конфликтов. Причем конфликтов именно таких серьезных. Я не говорю про конфликты на уровне людей — это нормально, там нет никакой проблемы. А вот конфликтов, которые приводят в итоге либо к вооруженному противостоянию, либо к какому-то серьезному урону — это было бы очень здорово. Но здесь, если честно, даже в самом оптимистическом сценарии я пока слабо верю, что это будет востребовано.

Ну и, наконец, наверное, то, что в итоге люди, получив доступ ко всем этим ресурсам, не пойдут по пути Хаксли в «дивный новый мир», когда у тебя уже все есть, и поэтому один путь в сторону деградации, а найдут в себе силы и вдохновение двигаться вперед при этом.

Ю. ТАРКОВСКАЯ: Это был подкаст Sapere Aude. Слушайте его на всех платформах и подписывайтесь на наш телеграм-канал. Ссылка на него будет в описании к этому эпизоду. А еще у нас есть рассылка. На нее тоже стоит подписаться, чтобы не пропускать наши материалы. Раз в неделю мы присылаем вам письмо с самыми важными текстами и выпусками. Тоже по ссылке к этому эпизоду вы сможете подписаться на рассылку и оставаться в курсе событий, тенденций и явлений глобального мира. Удачи и до встречи!



Боитесь пропустить интересное? Подпишитесь на рассылку «Эха»

Это еженедельный дайджест ключевых материалов сайта

Напишите нам
echo@echofm.online
Купить мерч «Эха»:

Боитесь пропустить интересное? Подпишитесь на рассылку «Эха»

Это еженедельный дайджест ключевых материалов сайта

© Radio Echo GmbH, 2024