Добавить в цитаты Настройки чтения

Страница 14 из 19

Британский психолог Томас Хиллс полагает, что алгоритмы тоже могут совершать ошибки, поскольку они иногда воспринимают особенности окружения, которые коррелируют с итоговым результатом, хотя не имеют с ним причинно-следственной связи. В мире алгоритмов это называется переобучением. Когда это происходит, мы называем это суеверием.

На практике, пишет Хиллс, алгоритмы часто представляют собой проприетарные черные ящики, обновление которых запрещается законами коммерции. В книге «Оружие массового поражения» Кэти О’Нил от 2016 года описывается истинный парад уродов, составленный из коммерческих алгоритмов, чьи хитрые патологии портили людям жизнь. Особенно интересны алгоритмические разломы, разделяющие богатых и бедных. Бедные люди с большей вероятностью будут иметь проблемы с кредитом, жить в местах с повышенным уровнем преступности, в окружении других бедных людей с похожими проблемами. Из-за этого алгоритмы выбирают этих людей в качестве целей обманчивой рекламы, питающейся их отчаянием, предлагают им субстандартные займы, отправляют в районы их проживания больше полицейских, увеличивая вероятность того, что полиция задержит их за совершение преступлений, которые происходят с той же частотой и в более богатых районах. Алгоритмы, используемые системой правосудия, назначают таким людям большие сроки, уменьшают их шансы на условно-досрочное освобождение, блокируют для них вакансии, увеличивают проценты по ипотеке, требуют большие взносы за страховку и т. д.

Этот алгоритмический замкнутый круг скрыт в матрешках, состоящих из черных ящиков: алгоритмы-черные ящики, прячущие процесс обработки в своих мыслях высших измерений, к которым у нас нет доступа, спрятаны в черных ящиках проприетарных прав на алгоритмы.

Алгоритмы, тренируясь на человеческих данных, приобретают и наши искажения. В исследовании под руководством Айли Калискан из Принстонского университета было обнаружено, что алгоритмы, тренирующиеся на новостях, очень быстро приобретают расовые и половые предубеждения. Как отметила Калискан: «Многие люди считают, что у машин нет предубеждений. Но машины тренируются на человеческих данных. А у людей предубеждения есть».

Алгоритмы, проводящие много времени в соцсетях, быстро становятся слепыми фанатиками. Они приобретают предубеждения против медбратьев и женщин-инженеров. Они неправильно воспринимают такие проблемы, как иммиграция и права меньшинств[21].

Лондонская компания DeepMind в феврале 2018 г. опубликовала статью на arXiv – хранилище научных документов, в которой предлагается новый способ построения алгоритмов без дискриминации людей по гендерным, расовым и другим «чувствительным» признакам. Статья под заголовком «Контрфактическая справедливость в принятии решений» была представлена научными сотрудниками DeepMind Сильвией Кьяппой и Томасом Гилланом. В ней говорилось о том, насколько важно понимание сложных механизмов, на основании которых ИИ будет делать соответствующий выбор.

«Контрфактическая справедливость» – это метод принятия решений с помощью ИИ. Он предполагает, что компьютеры могут квалифицировать то или иное суждение о какой-либо личности как «справедливое», если такое же суждение было сделано в воображаемом мире, в котором личность относилась к другой демографической группе на основе «несправедливых ориентиров» – другими словами, если в параллельном мире женщина была бы фактически мужчиной, или белый мужчина был бы фактически темнокожим[22].

На конференции Think-2018 компания IBM спрогнозировала, что в ближайшие 5 лет ИИ должен стать менее предвзятым.

Как уже отмечалось, такая предвзятость уже сейчас приводит к дискриминации и некорректным решениям. IBM разработала и продолжает совершенствовать методику проверки наборов данных для выявления «предубеждений». Над избавлением ИИ от субъективных предвзятых оценок работают специалисты из множества различных областей, включая людей искусства, философов, юристов. Избавленный от человеческих слабостей ИИ в будущем станет подсказывать людям, если они их проявляют.

В мае 2018 г. компания Microsoft заявила, что хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им. Новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше.

Чтобы создать ИИ, который будет справедливым и рассудительным, нужно привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.





Идея ревизии ИИ набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится.

Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.

Второй момент, на который следует обратить внимание, в известной степени носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе используются комплексы со столь глубокими нейронными сетями, что перевести их алгоритмы на человекочитаемый язык за разумное время просто невозможно. Таким образом, мы оказываемся в мире, где принятие решений будет происходить на основе критериев, которые непонятны людям, принимающим решения.

Казалось бы, в этой ситуации проще всего установить запрет на дальнейшее углубление нейронных сетей, а также на применение некоторых иных методов программирования, типа рекуррентного вероятностно-логического вывода. Однако проблема в том, что чем глубже сеть, тем она эффективнее. В высококонкурентном мире на протяжении всей истории действовал принцип, когда каждый старался заполучить наиболее эффективный инструмент. Третьей этической проблемой являются этические последствия решений, рекомендованных программами с элементами ИИ, особенно в тех случаях, когда они поддерживают решения, принимаемые не человеком, а роботом. Еще в 2012 г. ведущая международная организация по правам человека поставила перед ООН вопрос о необходимости запрещения автономных боевых систем (роботов), самостоятельно принимающих решения об использовании находящихся у них боевых средств. Несмотря на мощную поддержку со стороны правительств некоторых, в первую очередь европейских государств, решение ООН, обязательное к исполнению, по состоянию на сегодняшний день так и не принято.

Международный Комитет Красного Креста (МККК) с 2014 года постоянно призывает государства ограничить автономность систем вооружений, чтобы гарантировать, что они применяются согласно нормам международного гуманитарного права (МГП).

МККК полагает, что существует вероятность того, что все более автономные системы вооружений могут стать менее предсказуемыми, особенно в случае повышения мобильности, приспособляемости и (или) взаимодействия нескольких систем (например, действующих группой). Снижение предсказуемости результатов применения автономной системы вооружения может указывать на снижение контроля со стороны человека над функционированием данной системы вооружения, при том, что решение о применении силы принимается не человеком, а машинными операциями. Следовательно, могут возникнуть серьезные вопросы относительно соответствия данной системы вооружения нормам МГП и требованиям общественного сознания.

21

Хиллс Томас. Нет ли у моего алгоритма проблем с психикой, https://geektimes. com/post/300813/.

22

См.: Олсон П. Человеческая слабость: как избавить искусственный интеллект от расизма. // Forbes, 08.04.2018.