Страница 18 из 19
Соответственно Чопра предлагает установить в законодательном порядке сферы, где могут и где не могут действовать компьютерные программы без вмешательства человека. Например, в презентации Чопры на конференции содержался график, который показал, что в период с 2009 по 2015 гг. имеется обратная регрессионная зависимость, с коэффициентом, превышающим 0,9, между потерями банков в результате преступной деятельности, в том числе внутрикорпоративных преступлений, и объемом алгоритмической торговли на финансовых рынках торговыми роботизированными комплексами.
По мнению Чопры, надо перестать относиться к торговым платформам, которые являются наиболее сложными из ныне действующих ИИ, как к простому инструменту. Парадокс в том, что они уже не являются арифмометрами, но пока недостаточно независимы, чтобы считаться юридическими лицами. По мнению Чопры, они должны рассматриваться как «юридические агенты» компании, которые управляют ими также, как Google управляет своими Google-мобилями. Соответственно в законе четко должны быть прописаны случаи, когда компании, управляющие агентами, несут ответственность, а когда нет.
Рассуждая прагматически, другой консультант ФБР Р.Кало, профессор юридического факультета Стэнфордского университета, на заседании Конгресса в 2017 году высказал такое мнение: хотим мы или нет, в ближайшие годы, а не через десятилетия нам необходимо будет прописать законодательство для создателей и эксплуатантов ИИ. В отличие от нынешнего законодательства, которое размыто и гибко, новый вид законодательства должен максимально напоминать алгоритмы. Более того, с появлением блокчейна, вполне вероятно, что это законодательство исходно должно быть записано в алгоритмическом виде в код блокчейна. Соответственно его исполнение будет обеспечиваться не надзорными органами и правоохранителями, а путем обязательной имплантации юридических правил, написанных на блокчейне, внутрь программы ИИ.
При рассмотрении юридических аспектов ИИ следует обратить внимание на возможности использования ИИ в оперативно-розыскной и расследовательской деятельности. В 2016 г. ФБР совместно с прокуратурой Южного округа Нью-Йорка и юридической фирмой Sullivan & Cromwell провели круглый стол о возможностях и ограничениях использования в оперативно-розыскной деятельности экспертных систем ИИ. В результате дискуссий, в которых участвовало значительное число практикующих судей, адвокатов, а также компаний по подбору и анализу поведения присяжных, был сделан следующий вывод: в ближайшие годы следует весьма осторожно относиться к использованию в реальной оперативнорозыскной деятельности экспертных систем не как источников текущей информации, а как инструментов прогнозирования и анализа.
Если экспертные системы используются для сопоставления идентификаторов подозреваемого лица с идентификаторами, находящимися в базе правоохранительных органов или идентификаторами, оставленными на месте того или иного преступления и надежно атрибутировавши, это один вопрос. В этом случае проблем никаких не возникает.
Однако, если экспертная система будет использоваться как своего рода консультант следователя для вынесения им вердикта о возможной виновности или невиновности того или иного субъекта, и это решение будет значимым для передачи дела в суд, то судьи и адвокаты полагают, что в данном случае у полиции и ФБР могут возникнуть большие сложности. Даже в том случае, если консультация оказалась результативной, и в последующих оперативно-розыскных мероприятиях удалось добыть новые доказательства, или просто лицо, совершившее преступление, признало себя виновным, велики шансы, что процесс будет проигран прокуратурой до его начала.
Проблема в том, что в настоящее время значительная часть американцев и европейцев, особенно лица старше 40 лет, инстинктивно боятся и не доверяют роботам, а тем более ИИ. Используя это недоверие, у многих выраженное на уровне антипатии, квалифицированному адвокату не составит труда либо развалить дело, либо добиться оправдания. Присяжные будут воспринимать подобный процесс не как ныне – диспут между прокурором и адвокатом, применительно к конкретной ситуации, в которой совершено преступление, а как поединок между безжалостным ИИ и человеком.
Также консенсусно было установлено, что категорически не стоит создавать экспертных систем, базирующихся на глубоких, более четырех слоев, нейронных сетях. Подобные глубокие сети, как уже указывалось, представляют собой программный черный ящик. Применительно к подобным сетям, сложно и дорогостояще, а в отдельных случаях невозможно, получить на выходе человекочитаемые правила. На практике это означает, что правоохранители должны просто доверяться своим программно-аппаратным помощникам. Более того, в такой ситуации не вполне понятно, кто является главным, а кто – помощником. Если решения принимаются человеком на основе правил, которые они не понимает, то считать его главным нельзя. Фактически он превращается в приставку к ИИ, которая доводит решения ИИ до человеческого общества.
Данный подход возможен при принятии международного правового акта, ставящего на определенное время под запрет использование ИИ, работающего по принципу черного ящика.
В 2018 г. в Комитете Госдумы РФ по экономической политике, промышленности, инновационному развитию и предпринимательству будет рассмотрен проект Модельной конвенции по робототехнике и искусственному интеллекту. Проект разработан Исследовательским центром проблем регулирования робототехники и искусственного интеллекта.
Цель разработанного проекта конвенции – определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем, обобщить основные правила робототехники и обозначить возможные направления решения существующих и ожидаемых проблем, указано в документе.
Авторы проекта конвенции предлагают, в частности:
• к объектам робототехники относить все категории роботов в самом широком понимании независимо от их назначения, степени опасности, мобильности или автономности, а также кибер-физические системы с ИИ в любой форме;
• исходить из того, что «создание, внедрение и использование роботов должно осуществляться при условии максимального обеспечения безопасности человека, общества и государства, а также непричинения вреда человеку, человечеству, живым существам и всей их среде обитания»;
• роботы, создаваемые в военных целях, «должны иметь изначально заложенные в них и не поддающиеся изменениям ограничения, соответствующие положениям международного гуманитарного права». Такие роботы не должны использоваться для причинения вреда мирному населению;
• установить повышенные требования к защите от несанкционированного доступа третьих лиц при эксплуатации роботов, потенциально способных причинить человеку существенный, в том числе смертельный, вред (медицинские роботы, имплантируемые устройства, высокоавтоматизированные транспортные средства, военные роботы и т. д.);
• роботы должны постоянно фиксировать информацию об условиях своего функционирования и всех совершаемых ими действиях и хранить в специальном «черном ящике»;
• физически взаимодействующие с людьми и не находящиеся под прямым управлением человека роботы должны иметь функцию моментального или аварийного отключения по требованию («красную кнопку»);
• человек не должен умалять человеческое достоинство своим обращением с роботами».
Проект конвенции, разработанный «Робоправом», – не первая попытка законодательно урегулировать рынок ИИ. В декабре 2016 г. основатель Grishin Robotics и сооснователь Mail.Ru Group Дмитрий Гришин совместно с юристом Виктором Наумовым разработали концепцию закона о робототехнике. Этот законопроект предлагает дополнить Гражданский кодекс главой о роботах-агентах, то есть тех роботах, которые могут действовать автономно.
В ходе проведения круглого стола «Проблемы этической и правовой регламентации систем искусственного интеллекта (робототехники)», организованного кафедрой интеллектуальных прав МГЮА 21 февраля 2018 г. в рамках VI Международного юридического форума (IP Форума), проведен опрос ученых ведущих российских центров правовой науки по ключевым правовым проблемам ИИ (робототехники).