Добавить в цитаты Настройки чтения

Страница 4 из 7

Пока что волноваться из-за злых козней ИИ – все равно что волноваться из-за перенаселения на Марсе[23]. Возможно, когда-нибудь компьютерный разум окажется сильнее человеческого, но пока об этом даже речи не идет. Честно говоря, нам еще довольно далеко до создания интеллекта хотя бы уровня ежиного. И червяка-то до сих пор никому не удалось превзойти[24].

Кроме того, вся эта шумиха из-за искусственного интеллекта отвлекает нас от куда более насущных и, по-моему, более интересных тем. Забудьте ненадолго о всемогущих умных машинах и верните свои мысли из далекого и неясного будущего в наше с вами настоящее, ибо алгоритмы, которым даны полная свобода действий и право самостоятельно принимать решения, уже существуют. Они назначают курс лечения онкологическим больным и сроки тюремного заключения, действуют в аварийной ситуации на дороге. Они уже на каждом шагу делают за нас роковой выбор.

Вопрос вот в чем: если мы делегируем алгоритмам такие полномочия, можно ли им доверять?

Слепая вера

Воскресенье 22 марта 2009 года было не самым удачным днем в жизни Роберта Джонса. Он возвращался из гостей и, когда он проезжал через живописный городок Тодморден в Уэст-Йоркшире, на панели его BMW включился индикатор бензобака. Он мог позволить себе проехать до ближайшей бензоколонки километров десять – что-то надо было срочно предпринять. К счастью, GPS-навигатор, по-видимому, нашел короткий путь – и направил Роберта по узкой, извилистой дороге, которая вела из долины наверх.

Роберт послушно следовал указаниям навигатора, однако чем дальше, тем более узкой становилась дорога и тем круче она забирала вверх. Через несколько километров шоссе превратилось в грунтовый проселок, едва ли пригодный даже для гужевого транспорта, не говоря уже об автомобиле. Впрочем, Роберта это не смущало. Он зарабатывал на жизнь, проезжая тысячи километров в неделю, и крутил баранку вполне уверенно. К тому же он думал: “С чего бы мне не доверять навигатору?”

Вскоре снизу, из долины, если задрать голову и посмотреть вверх, можно было увидеть торчащий над самой кромкой обрыва передок машины, не рухнувшей вниз с высоты в тридцать метров лишь благодаря хлипкому деревянному заборчику, в который Роберт въехал.

В итоге для того, чтобы эвакуировать автомобиль с того места, где его покинул водитель, понадобились три квадроцикла и трактор. Позднее, в том же году, представ перед судом по обвинению в опасном вождении, Роберт признался, что ему и в голову не пришло спорить с навигатором. “Он упорно называл этот проселок дорогой, – сказал он корреспонденту газеты после происшествия. – Ну я ему и поверил. Как-то не ждешь, что тебя чуть не сбросят с обрыва”[25][26].

Да, Роберт. Разумеется, этого ты не ждал.

В этой истории есть мораль. Наверное, тогда Джонс почувствовал себя довольно глупо, но, не поверив своим глазам (при виде отвесного склона за окном машины) и приписав компьютерной программе больше ума, чем она того заслуживает, он попал в достойную компанию. В конце концов, двенадцатью годами раньше в ту же самую западню угодил Гарри Каспаров. Да и все мы порой совершаем ту же ошибку, пусть и неосознанно, в не столь критичных, но не менее важных для нас ситуациях.

Еще в 2015 году ученые задались вопросом: почему иногда информационно-поисковые системы – например, Google – способны менять наши представления о мире[27]? Они решили выяснить, существуют ли разумные границы доверия результатам поиска или мы готовы, скажем так, беспечно шагнуть в пропасть по воле поисковика.

Эксперимент проводили на примере грядущих выборов в Индии. Исследователи во главе с психологом Робертом Эпштейном отобрали по всей стране 2150 добровольцев, которые еще не решили, за кого голосовать, и открыли им доступ к специально разработанной системе под названием Kadoodle, чтобы они могли побольше узнать о кандидатах, прежде чем сделать выбор.

Программа оказалась с подвохом. Ничего не подозревавших участников эксперимента разбили на группы, каждой из которых показывали слегка различающиеся результаты поиска, с уклоном в пользу того или иного кандидата. Когда какая-нибудь группа заходила на сайт, сначала выдавалась информация об определенном кандидате – то есть, для того чтобы увидеть хоть одну страницу, посвященную другому кандидату, надо было прокрутить ссылки одну за другой далеко вниз. В разных группах методично продвигали разных кандидатов.

Как нетрудно догадаться, участники эксперимента в основном читали материалы под верхними заголовками с первой страницы – как говорится в бородатом анекдоте из интернета, проще всего спрятать труп на второй странице результатов поиска в Google. Вряд ли кто-нибудь обратил внимание на самые нижние строки в перечне ссылок. Но даже сам Эпштейн поразился тому, в какой степени целенаправленный отбор информации повлиял на выбор добровольцев. Уже через несколько минут, проведенных на сайте, аж на 12 % больше респондентов, отвечая на вопрос, кому они отдали бы свой голос, выбирали ставленника системы Kadoodle.

В 2015 году, в интервью журналу Science, Эпштейн объяснил результаты эксперимента: “Мы ждем от поисковой системы разумного выбора. Люди рассуждают так: «Да, перекосы есть, это говорит о том, что… поисковик делает свое дело»”. При том огромном объеме информации, который мы черпаем из интернета, еще больше тревожит искренняя убежденность многих социально активных граждан в том, будто они высказывают собственное мнение. “Если люди не замечают, что ими манипулируют, им кажется, что свежие идеи пришли им в голову независимо ни от чего”, – написал Эпштейн в своей статье[28].

Безусловно, Kadoodle – не единственная программа, которой можно вменить в вину подспудное манипулирование политическим выбором людей. В главе “Персональные данные” мы еще вернемся к этой теме, а сейчас для нас важен следующий вывод из описанного эксперимента: мы полагаем, что в большинстве случаев алгоритмы оказываются правы. Мы уже согласны с тем, что их решение всегда приоритетно[29]. Еще чуть-чуть, и мы перестанем даже осознавать, насколько мы им доверяем.

Сплошь и рядом алгоритмы предоставляют нам удобный и авторитетный источник информации. Предлагают простой способ переложить свою ответственность на кого-то другого, и мы не задумываясь соглашаемся на кратчайшие пути. Кто станет каждый раз докапываться до дальних ссылок на второй странице в Google и критически осмысливать все предложения поисковика? Кто станет шарить по сайтам всех авиакомпаний, чтобы посмотреть, действительно ли Skysca

Однако надо понимать, где проходит грань. Потому что одно дело – доверять программе, которая обычно нас не подводит. Совсем другое – довериться той, про которую мало что толком известно.

Искусственный интеллект против естественной глупости

В 2012 году, в штате Айдахо, некоторым инвалидам сообщили, что их исключили из программы бесплатного медицинского обслуживания[30]. Несмотря на то, что все они имели право на льготы, власти без предупреждения сократили их пособие на 30 %[31], и инвалидам пришлось самим изыскивать средства на оплату услуг по уходу. Это было вовсе не политическое решение, а результат применения нового “инструмента бюджетного регулирования”, взятого на вооружение Министерством здравоохранения и социальной помощи штата Айдахо – компьютерной программы для автоматического расчета пособий для каждого отдельно взятого гражданина[32].

23





Перефразированный комментарий, который дал в 2015 году программист и пионер в области машинного обучения Эндрю Ын. См. Tech Events, ‘GPU Technology Conference 2015 day 3: What’s Next in Deep Learning’, YouTube, 20 Nov. 2015, https://www.youtube.com/watch?v=qP9TOX8T-kI.

24

Международный научный проект OpenWorm преследовал именно такую цель – смоделировать мозг червя. Ученые хотели создать искусственную сеть из 302 нейронов, как в мозге червя C. elegans. Для сравнения, у человека примерно 100 000 000 000 нейронов. См. сайт OpenWorm: http://openworm.org/.

25

Chris Brooke, “I was only following satnav orders” is no defence: driver who ended up teetering on cliff edge convicted of careless driving, Daily Mail, 16 Sept. 2009, http://dailymail.co.uk/news/article-1213891/Driver-ended-teetering-cliff-edge-guilty-blindly-following-sat-nav-directions.html#ixzz59vihbQ2n).

26

Ibid.

27

Robert Epstein and Ronald E. Robertson, The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections, Proceedings of the National Academy of Sciences, vol. 112, no. 33, 2015, pp. E4512–21, http://pnas.org/content/112/33/E4512.

28

Epstein and Robertson, The search engine manipulation effect (SEME).

29

Linda J. Skitka, Kathleen Mosier and Mark D. Burdick, Accountability and automation bias, International Journal of Human – Computer Studies, vol. 52, 2000, pp. 701–717, http://lskitka.people.uic.edu/IJHCS2000.pdf.

30

KW v. Armstrong, US District Court, D. Idaho, 2 May 2012, https://scholar.google.co.uk/scholar_case?case=17062168494596747089&hl=en&as_sdt=2006.

31

Jay Stanley, Pitfalls of Artificial Intelligence Decision making Highlighted in Idaho ACLU Case, American Civil Liberties Union, 2 June 2017, https://aclu.org/blog/privacy-technology/pitfalls-artificial-intelligence-decisionmaking-highlighted-idaho-aclu-case.

32

K. W. v. Armstrong, Leagle.com, 24 March 2014, https://www.leagle.com/decision/infdco20140326c20.