Три закона и одна переводческая ошибка
Представьте себе альтернативную вселенную. Вы едете «за рулем» своего беспилотного автомобиля по хорошо известному вам маршруту. Подъезжаете к мосту. В салоне неожиданно звучит сигнал предупреждения. Машина набирает скорость, выезжает на пешеходную часть и сбивает человека, который только что достал из спортивной сумки автоматическую винтовку. Потенциальный стрелок госпитализирован, вы отделались вывихнутым плечом, автомобиль нуждается в косметическом ремонте. Среди людей под мостом, бегущих в этот день городской марафон, пострадавших нет. Бегуны даже не поняли, что им грозило.
Вы, конечно, очень рады за них. Но все же хотелось бы получить ответ — почему ваш собственный автомобиль решил стать героем новостей. Да и плечо побаливает.
На запрос вашего юриста (вероятно, тоже робота) компания-производитель отвечает, что нужно было внимательнее читать пользовательское соглашение. Автомобили уже давно связаны в единую сеть, постоянно находятся в контакте с полицией и в критический момент алгоритм — без всякой санкции со стороны человека — может принять «решение о вмешательстве» на основании документа, известного как «Robot Ethics Charter» (2007). А в основу этой Великой Этической Хартии Роботов положены три закона робототехники Айзека Азимова.
Нет, вот это уже не моя фантазия. Такой документ действительно разрабатывали в 2007-м. И правительство Южной Кореи, например, искренне продвигало идею трех законов робототехники в качестве «категорического императива» для беспилотников и других алгоритмических объектов будущего. То есть беспилотник не только не должен причинять вред человеку, но и допускать своим «бездействием», чтобы человеку был причинен вред. Несколько жизней уже было спасено: когда у пассажира случается сердечный приступ или инсульт, машина меняет маршрут и везет его в ближайшую больницу.
Правда, в нашем мире от идеи Великой Хартии Роботов быстро отказались. К 2017 году большинство национальных комиссий по этике беспилотного вождения напрямую запретили компаниям-производителям делегировать машинам моральные решения. Типа, задолбали со своими вагонетками — сосредоточьтесь лучше на безопасности. Но мы же с вами не в нашем мире. А в том, который пошел по южнокорейскому пути. В мире Азимова.
Вспомнилась мне в этой связи одна забавная неточность, допущенная переводчиком Азимова на французский язык. Переводя в 1956-м «Стальные пещеры», малоизвестный автор Жак Брекар чуть-чуть подправил оригинал. Он заменил «human being» на «humanity». И внес поправку в первый закон: «робот не должен причинять вред человеку, если только не сможет доказать, что вред в конечном счете полезен человечеству в целом».
Жан-Жак Руссо такое бы одобрил. Мы не знаем, одобрил ли такое Азимов. Вот только в 80-е в его произведениях начинает фигурировать «нулевой закон», подозрительно напоминающий «французскую поправку». Робот может причинить вред человеку, если это на пользу всем живущим.
Не все восприняли поправку с воодушевлением. По мнению многих почитателей Азимова, нулевой закон обнулял три остальных. Сам же мэтр объяснял его введение так. Я, говорит, когда начинал все это писать, верил в рациональность человеческой природы. И создал безупречных в этическом отношении роботов для безупречных в своей рациональности индивидов. Но сегодня я уже ни в какую рациональность не верю. Стоило мне только вернуться от конкретных взаимодействий здесь и сейчас к вопросам глобального социального порядка — управления, политики, администрирования — и стало понятно, что робот во главе страны или планеты не может ограничиваться тремя законами. А с другой стороны — лучше уж такой робот, чем то, что управляет нами сейчас.
И это он про 1980-е говорил…
К чему я это все? Pew research center опубликовал новый опрос о восприятии технологического прогресса американцами. Я за этой серией опросов слежу с 2017-го (мы тогда сделали очень похожее исследование по России — чтобы сравнить результаты). Короче, прогнозы десятилетней давности сбылись, AI-фобия прогрессирует стремительно. Интересно, как эту тему включат в свои предвыборные программы демократы и республиканцы.

