Добавить в цитаты Настройки чтения

Страница 17 из 19

Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует свое поведение и действия в соответствии с условиями среды, но у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.

Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).

Парламентская Ассамблея Совета Европы в 2017 г. приняла Рекомендацию 102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека».

В ней Ассамблея предложила разработать руководства по следующим вопросам:

«1. Повышение уровня транспарентности, государственное регулирование и ответственность операторов в том, что касается:

1.1. того факта, что при любых обстоятельствах ответственность несет человек. Ссылки на то, что системы с искусственным интеллектом «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения прав человека, совершаемые с применением таких систем, даже в случаях, когда действие, причинившее ущерб, не было напрямую санкционировано ответственным руководителем или оператором;

1.2. операций по автоматизированной обработке данных, имеющих целью сбор, обработку и использование персональных данных;

1.3. информирования общественности в отношении ценности данных, которые она генерирует, о необходимости согласия на использование этих данных, а также о сроке, в течение которого эти данные будут храниться;

1.4. информирования каждого человека об обработке полученных от него персональных данных, а также о математических и статистических методах, позволяющих осуществлять профилирование;

1.5. разработки и использования компьютерных программ, предназначенных для убеждения, а также информационно-коммуникационных технологий (ИКТ) или алгоритмов искусственного интеллекта, которые должны обеспечивать в полном объеме уважение достоинства и прав всех пользователей, особенно наиболее уязвимых категорий, таких как пожилые люди или инвалиды;

2. Общая система стандартов, которые должны соблюдаться в тех случаях, когда суд использует искусственный интеллект;





3. Необходимость обеспечения того, чтобы любая машина, любой робот или любой объект искусственного интеллекта оставались под контролем человека; исходя из того, что машина считается разумной лишь за счет своего программного обеспечения, следует предусмотреть возможность лишать ее способностей, которыми она обладает;

4. Признание новых прав, связанных с уважением личной и семейной жизни, возможности отказаться от того, чтобы кто-то подвергал вас профилированию, отслеживал ваше местонахождение, манипулировал вами или влиял на вас в качестве некоего «наставника», а также права иметь возможность, в контексте лечения и помощи, оказываемых пожилым лицам и инвалидам, общаться не с роботом, а с человеком».

Ассамблея также напомнила, что «в своей резолюции 2051 (2015) «БПЛА и целенаправленные убийства: необходимость соблюдения прав человека и норм международного права» она призвала все государства-члены и государства-наблюдатели, а также государства, парламенты которых имеют статус наблюдателя при Ассамблее, воздерживаться от использования любых автоматических (роботизированных) процедур определения лиц для целенаправленного убийства или любого причинения вреда на основе моделей коммуникационного поведения или иных данных, собранных с помощью средств массовой слежки. Это положение должно применяться не только в отношении БПЛА, но и в отношении других вооружений, оснащенных системами искусственного интеллекта, а также иного оборудования и/или программного обеспечения, которые потенциально могут причинить вред людям, имуществу, личным данным или информационным базам данных, или же нарушать право на частную жизнь, свободу выражения мнения или право на равенство и соблюдение принципа недопущения дискриминации».

В 2016 г. группа известных благотворителей учредила фонд для финансирования исследований в области права и контроля над ИИ. Среди учредителей П. Омидьяр, Фонд Гейтсов, основатель Linkedln Р. Хоффман, основатель Goggle Л. Пейдж и т. п. Сейчас в фонде находятся 30 млн. долларов, которые будут расходоваться на оплату работы юристов.

Серьезной и оправданной является инициатива международного Института инженеров электротехники и электроники (IEEE). Он представил первую версию «Стандартов по созданию роботов и искусственного интеллекта». Стандарт получил название Ethically Aligned Design. Документ был разработан при участии Google, Facebook, Amazon, IBM, и 300 членов Global Initiative.

Предполагается, что Ethically Aligned Design установит для производителей роботов и программ ИИ неписаные правила. В частности, предлагается на срок до четырех лет рекомендовать разработчикам не создавать нейронных сетей более пяти слоев. Такие сети являются, по сути, принципиально не-вскрываемым черным ящиком, и соответственно принципы принятия тех или иных решений невозможно будет записать в виде алгоритмов, переводимых на человекочитаемый язык.

В стандарте предусмотрено, что Институт рекомендует государствам, где развиваются робототехнические разработки, и компаниям, создающим программы с использованием ИИ, создать надзорные органы за процедурой разработки и применения интеллектуальных и автономных систем, а также руководствоваться при разработке национальных стандартов и технических регламентов выпущенным стандартом.

Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному и не допускающему маскировки производству ядерного оружия, не удалось выполнить соглашение о его нераспространении.

В 2016 г. впервые пять безвинных людей, из них две женщины и один ребенок, были убиты полностью автономным боевым дроном, использованным британским подразделением в Афганистане. Дрон нанес удар по деревне из-за сбоя в системе визуального распознавания цели. Это был принципиально новый дрон. В нем для повышения точности боевых ударов и распознавания целей использовался двойной контроль. Как это часто бывает, более сложная техническая система дала сбой, и случилось то, что случилось. При этом министерство обороны и министерство юстиции Великобритании списали все на несчастный случай.

В 2017 году ФБР вместе с юридической школой университета Майами провело конференцию по юридическим последствиям использования в правоохранительной деятельности автономных роботизированных систем, оснащенных ИИ. В ходе конференции большинство поддержало профессора математики Самира Чопру – научного консультанта ФБР и автора книги «Правовая теория для искусственного интеллекта», который заявил: «Главная проблема состоит в том, что ИИ является полностью рациональным агентом, принимающих любые решения на основе расчетов в прямом буквальном смысле слова. Человеческие же решения далеки от рациональности. И коль скоро человечество существует вот уже тысячи лет, значит, рациональность не во всех случаях является лучшим решением».