Скандал в благородном технологическом семействе
Очередной скандал в благородном технологическом семействе. Полиция Эссекса официально приостановила использование алгоритмов распознавания лиц в реальном времени (LFR). Выяснилось, что LFR-камеры «…статистически значительно чаще правильно идентифицируют людей темного цвета кожи. Это открытие вызвало опасения по поводу расовой предвзятости технологии».
Предвзятость (bias) технологий – не новость в мире социологии техники. Люди, делегировав машинам право распознавать, классифицировать и предсказывать поведение других людей, делегировали им заодно и свои предрассудки. Беспилотные автомобили ненавидят мотоциклистов, HR-алгоритмы презирают гуманитариев, а робот-судья (точнее робот-помощник-судьи, он же система COMPAS) рекомендовал не выпускать под залог обвиняемых с «неправильными» оттенками кожи. Так что проблема не надуманная.
Но вот эта конкретная новость была воспринята британской аудиторией с легким недоумением. То есть для полицейских камер все белые на одно лицо? «Куда смотрит шеф полиции? – притворно возмущается колумнист The Telegraph. – Почему LFR-камеры еще не отправили на DEI-тренинг?».
Вспомнил я тут по ассоциации историю, случившуюся двадцать с лишним лет назад в Высшей школе экономики. Лифт в старом здании на Кочновском переулке был чуть ли не старше самого здания. И отказывался «различать» груз весом менее 55 кг. То есть дискриминировал наших хрупких первокурсниц. Буквально за людей не считал и отказывался везти на нужный этаж. Студенткам приходилось в него парами заходить, чтобы он их «увидел».
Разумеется, они подали первому проректору жалобу на дискриминацию. Проректор вызвал завхоза и попросил его поделиться своим экспертным мнением о проблеме технологической предвзятости. Ответ завхоза я далее привожу в переводе с административно-хозяйственного на социологический:
– Уважаемый коллега, – сказал завхоз. – Я, безусловно, признаю наличие проблемы технологически опосредованной дискриминации. И в российском обществе в целом, и в данном конкретном вверенном мне лифте. Но поскольку лифт не является алгоритмическим объектом, проблема эта носит случайный, а не систематический характер. И уже решена при помощи четырех двойных строительных кирпичей в кабине, об которые вы все теперь будете спотыкаться во имя исправления социальной, блядь, несправедливости.

