Добавить в цитаты Настройки чтения

Страница 1 из 10



Философские проблемы развития искусственного интеллекта

© Коллектив авторов, 2019

© Издательство «Прометей», 2019

Введение

Традиционно показателем общей успешности в области разработки систем искусственного интеллекта считается способность внешне смоделировать типичные человеческие функции, качества и свойства, тем самым превзойдя человека в типично человеческих видах деятельности. Проявления и «самореализация» разработанных образцов воспринимаются сквозь призму человеческого фактора и так называемого «эффекта ИИ» (обессмысливание и «депсихологизация» деятельности), что являет собой латентную, но, тем не менее, глобальную проблему данной сферы. Проблема особенно актуализируется в связи с отсутствием критериев интерпретирования и «понимания» того, что мы имеем в качестве результатов деятельности в области разработки искусственного интеллекта: сугубо алгоритмизированный, лишённый возможностей понимания и осмысления механизм, или же – психо-машину с потенциалом возникновения прото-психических качеств, то есть задатков психики и, возможно, интеллекта. Несмотря на терминологические особенности самого понятия «искусственный интеллект», в мировом научном сообществе принято считать, что наличие именно сознания, а не интеллекта станет необходимым и достаточным основанием для признания машины разумной [1].

Если рассмотреть динамику своеобразной оппозиции организм-механизм (человек-машина), очевидным станет всеобщее признание превосходства первого над вторым: за организмом признается безусловное наличие сознательных качеств. Механизм остается вторичным, производным от организма. И неизвестно, что должно на самом деле произойти, для того чтобы механизм заслужил признание организма. Парадигма междисциплинарности в данном случае только усложняет проблему.

Детерминантой возникновения подобного восприятия машинной деятельности является совокупность двух векторов общечеловеческого нарциссизма, один из которых не позволяет организму признавать что-либо иное, кроме себя, в качестве достойного для обладания высшими привилегиями. Данный подход существенно затрудняет интерпретирование достижений техногенеза. Другой вектор – техно-дискриминация, т. е. гипертрофированный антропный принцип в виде постулата «долженствования»: механизм «должен» служить человеку и заменять его в наиболее сложных, небезопасных, монотонных областях деятельности.

1. Скиба И.Р. Проблема искусственного интеллекта: человек и машина [Электронный ресурс] https://neuronus. com/stat/1392-problema-iskusstve

Глава 1

Фундаментальные проблемы создания и развития искусственного интеллекта

1.1. Философские проблемы развития искусственного интеллекта



Современный этап научно-технической революции ассоциируется с широким внедрением технологий, основанных на развитом искусственном интеллекте. Понятие искусственного интеллекта стало тривиальным для современного мира, но его контуры и фундаментальные проблемы, связанные с его созданием, очерчиваются философией искусственного интеллекта. Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, – возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р. Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?

Ещё в XVIII в. Дени Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.

В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания» [1].

«Могут ли машины мыслить?» – такой вопрос поставил в 1950 г. британский математик и логик Алан Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т. к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного Искусственного интеллекта».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.

В 1980 г. Дж. Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.

«…Педположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов» [2].