Добавить в цитаты Настройки чтения

Страница 24 из 25

Поэтому, принимая во внимание киберриски, возникшие для людей с появлением новых технологий, наверное, не стоит сильно преувеличивать именно их. В конце концов, технологические риски были всегда: с изобретением железных дорог и автомобилей появился риск попасть под поезд или машину, с появлением самолетов неминуемо возник шанс попасть в авиакатастрофу.

Тем не менее, в последние годы появилось немало рисков глобального масштаба, о которых стоит поговорить отдельно. Один из них – стремительное развитие военных технологий.

В 2019 году высокотехнологичные гиганты Amazon и Microsoft подтвердили, что, невзирая на протесты сотрудников, будут принимать участие в военном проекте Соединенных Штатов – JEDI, направленном на «повышение смертоносности» вооруженных сил Пентагона с помощью искусственного интеллекта. Alphabet (Google) публично отказался участвовать, сославшись на корпоративную этику.

Повсеместно искусственный интеллект все активнее используют в военных проектах, дискуссия об этичности этого публично не ведется, а риски не афишируются. Неудивительно, что мировые лидеры уже не рассматривают войну как нечто далекое и фантастическое, думая и даже говоря так, как в 2019 году выразился китайский лидер Си Цзиньпин: «Необходимо сконцентрироваться на задачах и быть готовыми к войне».

Появляются и совершенно новые технологии, такие, как, например, Автономные Боевые Системы (АБС). Это боевые роботы, которые смогут самостоятельно принимать решение о применении смертоносного оружия, и они становятся все более популярной идеей в военных ведомствах разных государств мира. США, Великобритания, страны ЕС, Китай, Россия, Индия, Израиль, Южная Корея – это далеко не полный перечень государств, значительно продвинувшихся в последние годы в разработке АБС.

Руководство Пентагона не скрывает, что в ближайшие годы Автономные Боевые Системы станут неотъемлемой частью вооруженных сил США. При этом противники технологии резонно указывают, что искусственный интеллект не может на свое усмотрение принимать решение о применении летального оружия. Представители военных ведомств в ответ замечают, что прогресс достиг такого уровня, что повсеместное распространение АБС становится лишь делом времени. Ведь такой робот гораздо менее уязвим, чем солдат из плоти и крови, дешевле в эксплуатации, а (самое главное) практически любую его ошибку при желании можно списать на технический сбой.

Несмотря на жаркую дискуссию вокруг использования Автономных Боевых Систем, страны, пытавшиеся обратить внимание на опасность технологий АБС для человечества, в свое время даже не смогли получить мандат на создание рабочей группы по обсуждению этого вопроса в рамках Организации Объединенных Наций. Ведь плюсы Автономных Боевых Систем для оборонных ведомств всех стран мира настолько очевидны, что долгосрочными рисками, похоже, будут пренебрегать до последнего. Кстати, пренебрежение долгосрочными рисками ради краткосрочных выгод уже стало мировым трендом.

Об огромных рисках использования АБС с искусственным интеллектом предупреждает Лора Нолан, бывшая сотрудница Google, работавшая в этой мегакорпорации над проектом по усовершенствованию технологии военных беспилотников. Она уверена, что, в отличие от беспилотных летательных аппаратов, которые контролируются операторами, зачастую находящимися за тысячи километров от места дислокации беспилотников, Автономные Боевые Системы могут совершать «ужасные вещи, для которых они изначально не были запрограммированы».

Она считает, что автономные роботы-убийцы, не управляемые человеком, должны быть запрещены международным договором наподобие тех, которые запрещают химическое или биологическое оружие: «Вероятность катастрофы прямо пропорциональна тому, сколько этих машин будет находиться одновременно в конкретном районе… Может случиться все что угодно, если роботы начнут вести себя неожиданным образом. Поэтому любые передовые системы вооружений должны полностью контролироваться человеком, в противном случае они должны быть запрещены, потому что слишком непредсказуемы и опасны».

Очень хочется надеяться, что такие боевые системы все-таки не будут полностью автономными. Ведь любое вторжение кибертеррористов в системы принятия решений АБС может привести к поистине катастрофическим последствиям – тем более что сетевые злоумышленники с усилением темпов технологического прогресса тоже прогрессируют. В 2019 году на одной из конференций хакеров была продемонстрирована программа, которую было возможно настроить так, чтобы она самостоятельно генерировала вредоносное (вирусное) программное обеспечение.





Программе было достаточно потренироваться на стандартной платформе для обучения искусственного интеллекта Open AI Gym, чтобы довольно быстро научиться прятать вредоносное программное обеспечение от систем защиты. Каким образом? Все оказалось банально и просто: антивирусные системы просто не могли распознать угрозу, настолько успешно алгоритм имитировал нормальное поведение, мимикрируя под обычные, часто используемые пользователем программы.

А ведь если такого рода технологии будут доработаны злоумышленниками и станут широко распространены, это позволит искусственному интеллекту и стоящим за ним хакерам наносить компьютерам пользователей и даже объектам государственной инфраструктуры максимальный урон при минимальных рисках быть обнаруженными. Не хочется даже представлять себе, что в этом случае могут натворить взломанные кибертеррористами Автономные Боевые Системы.

Впрочем, бывает, что искусственный интеллект может наломать дров и самостоятельно, без участия всяких «сетевых злоумышленников». Например, в судебных процессах.

Многие читатели наверняка знают, что нейросети уже несколько лет используются для анализа дел и вынесения рекомендаций (правда, пока необязательных к исполнению) судьям в Соединенных Штатах Америки. Гораздо менее известен другой факт. В 2018 году более 100 общественных и правозащитных организаций США выступили категорически против использования искусственного интеллекта в уголовных судебных процессах. Оказалось, что алгоритмы, изучая дела и характеристики подсудимых в рамках так называемой «оценки рисков», слишком большое значение уделяют социальному происхождению и жизненной истории обвиняемого.

Иными словами, при принятии решения о тех или иных рекомендациях судьям, искусственный интеллект основывается на закономерностях, которые он выводит исходя из полученных данных. Нейросети обучаются на массивах Big Data, а эти данные зачастую позволяют сделать статистический вывод о том, что представители социально незащищенных слоев более склонны к уголовным преступлениям и насилию, нежели выходцы из обеспеченных и благополучных семей.

И действительно, если алгоритм видит, что, например, низкий доход прямо коррелирует с высоким рецидивом преступлений, он может дать на этом основании ошибочную рекомендацию судье, посчитав, что именно низкий доход способствовал преступлению. На самом же деле причинно-следственные связи могут быть совершенно иными.

Многие правозащитники указывают, что использование искусственного интеллекта в уголовном процессе закрепляет социальное неравенство и приводит к обвинительному уклону в отношении представителей социально неблагополучных слоев населения значительно чаще, нежели чем в отношении среднего класса и обеспеченных граждан. А это уже прямой путь к возрождению классовых, а возможно и расовых предрассудков.

С одной стороны, кажется, что большинству стран мира до полноценной цифровизации и внедрения искусственного интеллекта еще далеко. С другой стороны, людям постепенно нужно привыкать к тому, что в преддверии технологической сингулярности в их повседневную жизнь все больше будет входить искусственный интеллект, и не всегда это будет происходить комфортно и безболезненно.

Это понимают, кстати, власти многих стран мира. Например, бывший российский премьер-министр Дмитрий Медведев высказывался о цифровизации предельно конкретно. «[Цифровая] революция – это и углубление неравенства и между людьми, и между странами, и всплеск безработицы, и вторжение в частную жизнь человека», – отмечал он в своем выступлении на саммите АТЭС в 2019 году, добавляя при этом, что данная революция является «абсолютным благом с точки зрения общественного развития». В другой раз Дмитрий Анатольевич сравнил масштабы изменений, ожидающие общество при цифровизации, с крушением Союза Советских Социалистических Республик.