Страница 15 из 19
В апреле 2018 г. более 4 тысяч сотрудников Google подписали открытое письмо к руководству корпорации, требуя отказаться от участия в программе Пентагона по разработке ИИ боевых беспилотников. Программа Project Maven, выйти из которой потребовали сотрудники, предполагает разработку алгоритмов анализа изображений, полученных с дронов, для повышения точности их ударов. Руководство «Гугл» не продлило участие в разработке этого проекта.
Аналогичная проблема возникает и применительно к роботизированным транспортным средствам. В настоящее время семь автопроизводителей ведут работы по созданию гибридных автомобилей, где в определенных случаях может включаться робот. Google с Ford уже производят полностью автоматизированные автомобили. Toyota в 2018 г. совместно с правительством Сингапура запустила полностью автоматизированные городские такси в городе-государстве.
Так или иначе, все роботизированные машины будут управляться ИИ той или иной степени продвинутое™. В США, например, на уровне федерального правительства и штатов отсутствует какое-либо законодательство по этим вопросам. А между тем, в некоторых штатах Google-мобили уже узаконены.
Сами производители подходят у этой проблеме по-разному. Например, Mercedes в 2016 г. опубликовал заявление, что в случае соблюдения дорожных правил долг компании защищать пассажиров, а не пешеходов. В любой ситуации, если роботизированный Mercedes решит, что он соблюдает правила, выбор будет сделан в пользу пассажиров, а не пешеходов.
Принципиально иную позицию заняла компании Google. В новом поколении Google-мобилей, которым предстоит выйти на дороги в скором времени, имеется программный видеофильтр. В случае, если видеосенсоры автомобиля распознают на дороге детей или ребенка, вне зависимости от того, нарушает он правила или нет, автомобиль в качестве приоритета первого порядка будет выбирать сохранение жизни ребенка.
В любом случае возникает юридическая коллизия. Если произошло нарушение дорожных правил, повлекшее смертельный исход, то кто в данном случае будет виноват? В случае с Mercedes понятно, что тяжба будет происходить между семьей пострадавшего и корпорацией Mercedes. Ведь Mercedes в своих правилах прописала обязательный приоритет пассажиров над пешеходами. В случае Google ситуация более запутанная. Казалось бы, Google находится в том же положении, что и Mercedes. В программе Google-мобиля записан приоритет ребенка перед пассажиром. Однако, поскольку данные правила Google записаны в условиях эксплуатации автомобиля, которые подписывает покупатель, то строго говоря, покупатель соглашается с этой нормой и соответственно принимает на себя все риски.
В мае 2018 г. в рамках VIII Петербургского международного юридического форума прошла дискуссионная сессия «Беспилотный транспорт в России: необходимое регулирование для обеспечения технологического лидерства». По ее итогам юристы пришли к выводу, что для недопущения технологического отставания России необходимо в кратчайшие сроки разработать правовое регулирование в этой сфере. При этом анализировались наиболее распространенные требования для тестирования беспилотников на дорогах общего пользования в зарубежных странах, среди которых: дополнительное страхование ответственности владельца, оснащение автомобиля «черным ящиком» или двусторонней связью с диспетчерской, видеофиксация тестирований, наличие водителя или оператора в кабине беспилотного транспортного средства, подтверждение квалификации водителя-испытателя и положительных результатов испытания автомобиля на полигоне.
Четвертая проблема, которую последнее время обозначают, – это этика обращения с самими роботами.
В этой связи интересен материал из Абсурдопедии, в котором перефразированы все четыре закона Азимова:
1. Роботехник не может причинить вред роботу или своим бездействием допустить, чтобы роботу был причинен какой-либо вред.
2. Роботехник должен совершенствовать конструкцию робота, если это не противоречит Первому закону.
3. Роботехник должен защищать себя от посягательств других людей, если это не противоречит Первому и Второму Закону.
4. Роботехник не может совершить действие, причиняющее вред роботечеству и роботехничеству, или своим бездействием допустить, чтобы сообществу был причинен вред.
Следует сказать, что первый прецедент защиты прав роботов появился в 1999 г. в США. Тогда было создано Американское общество за предотвращение жестокости по отношению к роботам (ASPCR). Задача – гарантировать права всех искусственно созданных разумных существ. По мнению ASPCR, любое разумное существо (искусственно созданное или нет) имеет права, обеспеченные его Созданием, – право на существование, независимость и стремление к знаниям. Не исключено, что подобные организации будут появляться по всему свету.
Фактически реализуется модель будущего, описанная Ф. Чиландером в рассказе «Судебный процесс» о том, как роботы судили последнего человека, проживавшего в городе, за «убийство» робота.
Еще в июне 2016 г. генеральный директор Microsoft Сатья Наделла в своей статье для издания State изложил 10 принципов (своеобразных заповедей) сосуществования человечества и ИИ:
1. Главная цель создания ИИ – помочь человечеству;
2. Работы над созданием ИИ должны быть прозрачными;
3. ИИ должен быть максимально эффективен, но не унижать при этом человеческое достоинство;
4. ИИ должен обеспечивать интеллектуальную неприкосновенность и конфиденциальность личной жизни;
5. Должен существовать алгоритм подотчетности ИИ, чтобы предотвратить вред человеку;
6. Искусственный интеллект должен быть непредвзятым;
7. Человек должен научиться сопереживать другим людям, чтобы наделить ИИ свойством эмпатии;
8. Людям важно быть образованными, чтобы правильно использовать ИИ;
9. Произведения искусства должен создавать человек, а не ИИ;
10. Человек несет ответственность за решения, предложенные ИИ.
Подходы Наделлы развивают «Азиломарские принципы искусственного интеллекта». Это – 23 принципа, которых необходимо придерживаться всем, кто ведет исследования в сфере ИИ. Они приняты на конференции Beneficial Al 2017. Среди участников конференции были Рэй Курцвейл, Илон Маек и Стивен Хокинг.
В соответствии с принципами:
1) Целью исследований в сфере ИИ должно быть создание не неуправляемого, а полезного интеллекта;
2) Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования, которые должны дать ответы на самые острые вопросы в области компьютерных технологий, экономики, права, этики и социальных исследований, таких как:
Как мы можем сделать будущие системы ИИ очень надежными, чтобы они делали то, что мы хотим, без сбоев или взломов?
Как мы можем увеличить благополучие человечества посредством автоматизации при одновременном сохранении имеющихся у нас ресурсов и ценностей? Как мы можем развивать наши правовые системы, чтобы сделать их более справедливыми и эффективными, идущими в ногу с ИИ и учитывающими риски, связанные с ИИ?
Какими ценностями должен быть связан ИИ, и какой статус он должен иметь с правовой и этической точек зрения?
3) Должно быть установлено конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ;
4) В среде исследователей и разработчиков в сфере ИИ следует поощрять развитие культуры сотрудничества, доверия и прозрачности;
5) Команды, разрабатывающие системы ИИ, должны активно сотрудничать между собой и не пытаться победить за счет игнорирования стандартов безопасности;
6) Системы ИИ должны быть безопасными и надежными на протяжении всего срока их эксплуатации, а также быть контролируемыми насколько это возможно и применимо;
7) Если система ИИ причиняет вред, всегда должна быть возможность понять причину этого;
8) Любое участие автономной системы в процессе принятия судебных решений должно сопровождаться предоставлением убедительных объяснений, которые могут быть перепроверены людьми из компетентных органов власти;