Страница 13 из 19
Плюс только ИИ под силу замаскировать злонамеренное отключение или выполнение несанкционированных действий техническим отказом. Несмотря на некоторую экстравагантность, в ближайшее время данный преступный промысел может стать реальностью.
§ 6. Этика ИИ
В 1942 г. великий Айзек Азимов в рассказе «Хоровод» сформулировал три коротких закона робототехники:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
Эти три закона и являются этикой роботов и ИИ. Однако самонадеянные программисты, разработчики и деловые люди забыли об Айзеке Азимове. Сегодня не существует этики ИИ или роботов. Программы, написанные для экспертных систем или робототехники, не включают встроенные ограничители и не учитывают три закона робототехники Азимова.
Существует три принципиально разных типа реальных этических проблем, связанных с применением ИИ и неразрывно связанной с ним робототехники. Это:
• этические вопросы программирования ИИ;
• этические вопросы результатов и выводов, полученных ИИ;
• этические вопросы действия людей, принимающих решения на основе информации ИИ, а также автоматизированных робототехнических устройств, управляемых ИИ.
Практически каждая программа и приложение, тем более такие сложные как программы ИИ, содержат много ошибок. Часть из них устраняется в процессе эксплуатации, часть – остается необнаруженной в течение всего жизненного цикла программно-аналитического комплекса.
Ошибки при программировании бывают двух типов. Первый порожден некачественным кодом, т. е. просчетами и недостаточной квалификацией программистов. Здесь никаких этических проблем и вопросов юридического характера не возникает. Если программист ошибся, и его ошибки привели к тяжелым последствиям для отдельных граждан или компаний, то он несет административную или юридическую, вплоть до уголовной, ответственность. Согласно статистике в 2015 г. более 60 % открытых ФБР и полициями штатов дел, связанных с компьютерными преступлениями, было связано с деятельностью хакеров, а почти 15 % – с ошибками программистов и разработчиков, приведших к имущественному и иному ущербу. Это самая простая проблема. Она превратилась в рутину.
Второй тип ошибок гораздо более коварен. В его основе лежат неверные алгоритмы. Алгоритм представляет собой математически записанную последовательность операций и правил. Составители алгоритмов и программисты – это разные люди. Программист пишет кодом алгоритм, после чего последний превращается в работающую программу.
Главная проблема состоит в том, что алгоритмисты – это в 90 % случаев математики. Причем подавляющее число из них не имеет второго образования, и испытывают определенные сложности в общении с представителями гуманитарных знаний и профессий, включая юристов, врачей, экономистов, правоохранителей. Суть алгоритма состоит в построении цепочки действий на языке математики тех правил и закономерностей, которые сложились в реальной деятельности. Однако из-за того, что алгоритмисты и предметные специалисты зачастую не понимают друг друга, возникают ошибки в алгоритмах.
Вторая группа этических проблем связана с интерпретацией результатов программ человеком или автономным автоматизированным устройством. Если тема этики программирования обсуждается последние 15 лет, то вопрос неверных алгоритмов встал буквально в последние два-три года. Как любой сложный вопрос, он имеет множество акцентов. Главная проблемав том, что с массовым применением в программировании метода нейронных сетей даже разработчики, не говоря уже о предметниках, а тем более обычных профессиональных пользователях, как уже отмечалось, перестали понимать, почему программа делает именно такие выводы, а не иные.
Для того чтобы объяснить коллизию, придется в нескольких словах охарактеризовать отличие нейронных сетей от обычной программы. Обычная программ может быть записана на бумаге, как последовательность операций. Нейронная сеть – это самосовершенствующаяся программа. В ней задается исходно только архитектура и правила изменения удельных весов при принятии решения. Все остальное делает алгоритм. Грубо говоря, нейронные сети – это черные ящики. Известна только информация на входе и на выходе. И больше – ничего.
В тех случаях, когда нейронные сети помогают превратить фотографии в картины известных художников, никто не задает вопросов, как им это удается. Все восторгаются. Теперь же рассмотрим пример из уголовной практик.
Специалисты Массачусетского технологического института США(МТ1) еще в 2014 г. разработали программу COMPAS с элементами ИИ. Она применяется в настоящее время как экспертная система во многих судах штатов США для того, чтобы помочь судьям принять решения, рекомендовать ли ожидающим суда присяжных тюремное заключение или освобождение под залог и т. п. Программа успешно работала и получала замечательные отзывы. В итоге наряду с рассмотрением вопросов о выборе между тюремным заключением и освобождением под залог, она стала применяться также при решении вопроса об условно-досрочном освобождении.
Все было хорошо до тех пор, пока известный портал Propublica.org не опубликовал статью, привлекшую внимание всех США. Портал является электронной площадкой сообщества исследователей, негативно относящихся к ИИ. Группа известных математиков и программистов, входящих в сообщество, детально проанализировала систему COMPAS и смогла расшифровать черный ящик. Математические правила и закономерности, получившиеся в результате работы нейронных систем, удалось перевести на так называемый человекочитаемый язык. По итогам этой работы было установлено, что система априори уменьшает шансы на освобождение под залог и условно-досрочное освобождение лиц латиноамериканского происхождения, не имеющих легального статуса на территории США, а также афроамериканцев с уровнем дохода выше прожиточного минимума, но ниже среднего класса. Если первый вывод совпадал с интуицией, то второй породил всеобщее недоумение. Эксплуатация системы в результате разразившегося скандала была приостановлена.
Создатели программы COMPAS предложили порталу Propublica создать независимую группу – своего рода первый в истории Америки алгоритмическо-статистический суд, под руководством математического директора Google Абэ Гонга. Группа в течение нескольких месяцев детальнейшим образом анализировала человекочитаемые правила, выработанные нейронными сетями, и сравнивала их с массивами статистических данных, характеризующих статистику преступности. В сентябре 2016 г. группа вынесла вердикт, с которым согласились и создатели COMPAS, и портал Propublica. Абэ Гонг подтвердил, что алгоритмы COMPAS по построению нейронных сетей и глубокому обучению – математически безупречны. Безупречна также программа и в статистическом смысле. Статистическая безупречность означает то, что нейронным сетям удалось установить наиболее точную зависимость между входными данными и выходными. Т. е. между данными, представляющими профиль того или иного индивидуума и критериями риска.
Все рекомендации COMPAS были верны в инженерном смысле этого слова. COMPAS действительно минимизировал число условно-досрочных освобождений, после которых нарушители закона вновь совершали преступления, а также правильно определял, в каких случаях человека можно отпустить под залог, а в каких – лучше оставить за решеткой.
Вся проблема в том, что в основе деятельности COMPAS лежат статистические закономерности. Люди же привыкли принимать решения не только на основе статистики, но и, принимая во внимание ценностные критерии так, как они их понимают. COMPAS оказался негативно пристрастным к этническим меньшинствам, но при этом делал это на основе корректной интерпретации реальных данных.