Добавить в цитаты Настройки чтения

Страница 16 из 19

9) Разработчики продвинутых систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможность и несут обязанность влиять на такие последствия;

10) Высоко автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы;

11) Системы ИИ должны разрабатываться и работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур;

12) Учитывая способность систем ИИ анализировать и использовать личные данные, люди должны иметь права на доступ к своим личным данным, управление ими и осуществление контроля за их использованием;

13) Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей;

14) Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей;

15) Экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;

16) Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей и использовать ли их для этого вообще;

17) Власть, получаемая благодаря контролю над высокоразвитыми системами ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества;

18) Следует избегать гонки вооружений в разработке смертельного автономного оружия на основе ИИ;

19) При отсутствии консенсуса об ином нам следует избегать уверенных предположений относительно верхних пределов будущих возможностей ИИ;

20) Продвинутый ИИ может повлечь за собой коренное изменение в истории жизни нашей планеты, поэтому он должен разрабатываться и управляться с соответствующим вниманием и способностями;

21) Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков;

22) Системы ИИ, разрабатываемые с возможностью рекурсивного самосовершенствования или самовоспроизведения с последующим быстрым увеличением их количества или качества, должны отвечать строгим критериям безопасности и контроля;

23) Суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации.

По сути, любые решения с применением ИИ будут результатом взаимодействия человека и компьютера. Если все прошло хорошо, то вопросов нет. А если не просто случилась неприятность, а неприятность, порожденная ошибкой, то кто за это должен ответить не только в финансовом, но и в правовом плане? Ответов нет. Все это подводит нас к переходу от этической проблематики к правовым аспектам ИИ.





§ 7. ИИ, роботы и право

Повсеместное распространение новых технологий и продуктов с их использованием размывает границы между человеком и машиной, между действиями в Интернете и вне его, между физическим и виртуальным миром, между естественным и искусственным, между реальной жизнью и виртуальной реальностью. Человечество наращивает свои возможности, используя для этого машины, роботов и программное обеспечение. Сегодня уже можно создать работоспособные интерфейсы между мозгом и компьютером. Теперь речь уже идет не об «обработанном» человеке, а об «отремонтированном» человеке, а на горизонте уже маячит «дополненный» человек.

В 2012 году Европейская Комиссия запустила проект «RoboLaw» основной целью которого было исследование того, каким образом перспективные технологии в сфере биоробототехники (включая ИИ) могут коррелировать с национальными и общеевропейской правовыми системами.

Парламентская ассамблея Совета Европы (ПАСЕ) в Рекомендации 2102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека» с обеспокоенностью отметила, что законодателям становится все сложнее адаптироваться к скорости эволюции науки и техники и разрабатывать необходимые правила и стандарты; она убеждена, что гарантия человеческого достоинства в XXI веке предполагает разработку новых форм правления, новых форм открытой, осознанной и состязательной публичной дискуссии, новых законодательных механизмов и, прежде всего, установление международного сотрудничества, позволяющего более эффективно решать эти новые задачи.

ПАСЕ в указанном документе отмечает, что ссылки на то, что системы с ИИ «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения прав человека, совершаемые с применением таких систем, даже в случаях, когда действие, причинившее ущерб, не было напрямую санкционировано ответственным руководителем или оператором.

Также ПАСЕ требует обеспечить такое положение, чтобы любая машина, любой робот или любой объект ИИ оставались под контролем человека; исходя из того, что машина считается разумной лишь за счет своего программного обеспечения, следует предусмотреть возможность лишать ее способностей, которыми она обладает.

Следует признать новые права, связанные с уважением личной и семейной жизни, «возможности отказаться от того, чтобы кто-то подвергал вас профилированию, отслеживал ваше местонахождение, манипулировал вами или влиял на вас».

В ряде стран активно создаются правовые условия для развития технологий, использующих ИИ[23]. Так, в Южной Корее еще с 2008 г. существует Закон «О содействии развитию и распространению умных роботов». Закон направлен на улучшение качества жизни и развитие экономики путем разработки и продвижения стратегии устойчивого развития индустрии умных роботов, а правительство каждые пять лет разрабатывает основной план обеспечения эффективного достижения данной цели.

В марте 2018 г. президент Франции Э.Макрон презентовал национальную стратегию в сфере искусственного интеллекта. Франция планирует инвестировать 1,5 млрд, евро в течение пяти лет для поддержки исследований и инноваций в данной сфере. Стратегия основана на рекомендациях, сделанных в отчете, подготовленном под руководством французского математика и депутата национального собрания Франции Седрика Вилланы. Причем сделан выбор направить стратегию на конкретные четыре сектора: здравоохранение, транспорт, окружающую среду и оборону и безопасность.

В целом даны семь ключевых предложений, одно из которых представляет особый интерес для целей статьи – сделать ИИ более открытым. Действительно, алгоритмы закрыты и в большинстве случаев являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения. В США подсудимый был приговорен к продолжительному сроку заключения на основе информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере ИИ, создать консультативные комитеты по этике и т. д.

В ЕС первым шагом в направлении регулирования вопросов ИИ стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Еще в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и ИИ в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской

Комиссии для возможных действий в этом направлении, причем не только касательно норм гражданского права, но и этических аспектов робототехники.

23

См.’.КарлюкМ. Этические и правовые вопросы искусственного интеллекта.//РСМД, 18.04.2018.