Добавить в цитаты Настройки чтения

Страница 7 из 16

Институт, вместе с KurzweilAI.net и Центром по изучению языка и информации, спонсирует Стэнфордский саммит сингулярности. Директор Института, Питер Тиль, выступает в качестве ведущего саммита.

Саммит собрал порядка 1300 специалистов.

Среди участников саммита были Рей Курцвейл, Ник Бостром, Кори Доктороу, Эрик Дрекслер, Дуглас Хофштадтер, Steve Jurvetson (англ.), Bill McKibben (англ.), Макс Мор (англ.), Джон Смарт (англ.), Себастьян Трун и Елизер Юдковски.

В 2007 году аналогичный саммит прошёл во Дворце Театра Искусств, Сан-Франциско. Третий саммит сингулярности состоялся 5 октября 2008 года в Сан-Хосе.

Институт финансирует проект Open Cognition Framework (OpenCog), целью которого является предоставление «исследователям и разработчикам программного обеспечения общей платформы для построения программ с элементами искусственного интеллекта».

В 2013 году организация сменила название на Machine Intelligence Research Institute.

Исследования и Прогнозы

Machine Intelligence Research Institute изучает стратегические вопросы, связанные с ИИ, например, что мы можем (и не можем) предсказать о будущей технологии ИИ? Как мы можем улучшить наши способности к прогнозированию? Какие вмешательства, доступные сегодня, кажутся наиболее полезными, учитывая то, что мы мало знаем?

Начиная с 2014 года MIRI финансирует работу по прогнозированию через независимый проект AI Impacts. AI Impacts изучает исторические примеры прерывистых технологических изменений и разработал новые меры относительной вычислительной мощности человека и компьютерного оборудования.

Интерес исследователей MIRI к прерывистому искусственному интеллекту связан с аргументом И. Дж. Гуда о том, что достаточно продвинутые системы ИИ в конечном итоге превзойдут людей в задачах разработки программного обеспечения, что приведет к созданию цикла обратной связи все более способных систем ИИ:

Пусть ультраинтеллектуальная машина определяется как машина, которая может намного превосходить все интеллектуальные действия любого человека, насколько это возможно.

Поскольку конструкция машин является одной из этих интеллектуальных задач, ультраинтеллектуальная машина могла бы разрабатывать еще лучшие машины; Тогда бесспорно был бы «взрыв разведки», и разум человека остался бы далеко позади. Таким образом, первая ультраинтеллектуальная машина является последним изобретением, которое человек должен когда-либо делать, при условии, что машина достаточно послушна, чтобы рассказать нам, как держать ее под контролем.

Писатели, такие как Бостром, используют термин суперинтеллекция вместо ультраинтеллектуала Гуда.

Следуя Вернору Винджу, идея Гуда о взрыве интеллекта стала связана с идеей «технологической сингулярности». Бостром и исследователи из MIRI выразили скептицизм по поводу взглядов сторонников сингулярности, таких как Рэй Курцвейл, что суперинтеллекция «находится за углом».

Исследователи MIRI выступают за раннюю работу по обеспечению безопасности в качестве меры предосторожности, утверждая, что прошлые предсказания прогресса ИИ не были надежными.

Степень надежности и толерантность к ошибкам в ИИ

Документ о приоритетах исследований Института Будущего Жизни (FLI) гласит:



Математические инструменты, такие как формальная логика, вероятность и теория принятия решений, дали значительное представление об основах рассуждений и принятия решений.

Однако в основе рассуждений и решений по-прежнему остается множество открытых проблем. Решения этих проблем могут сделать поведение очень способных систем намного более надежными и предсказуемыми. Примеры исследований в этой области включают рассуждения и решения в рамках ограниченных вычислительных ресурсов à la Horvitz and Russell, как учитывать корреляции между поведением AI-систем и поведением их окружения, агентов, как агенты, встроенные в их среду, или других детерминированных вычислений. Эти темы могут выиграть от совместного рассмотрения, поскольку они кажутся глубоко связанными

Стандартные процедуры принятия решения недостаточно точно определены (например, в отношении контрфактов), для того, чтобы быть оформленными как алгоритмы. Исследователь Machine Intelligence Research Institute Бенья Палленштейн и тогдашний исследователь Нейт Соареш пишут, что теория причинно-следственных решений «неустойчива при отражении» в том смысле, что рациональный агент, следующий за теорией причинно-следственных решений, «правильно идентифицирует, что агент должен изменить себя, чтобы прекратить использовать теорию причинно-следственных решений для принятия решений".

Исследователи идентифицируют «логические теории принятия решений» как альтернативы, которые лучше выполняют общие задачи принятия решений.

Если система ИИ выбирает действия, которые наилучшим образом позволяют ей выполнить задание, то избегать условий, которые препятствуют тому, чтобы система продолжала выполнять задачу, является естественным подцелем (и, наоборот, поиск безусловных ситуаций иногда является полезной эвристикой).

Однако это может стать проблематичным, если мы хотим перераспределить систему, деактивировать ее или существенно изменить процесс принятия решений;

Такая система будет рационально избегать этих изменений. Системы, которые не проявляют такого поведения, называются исправительными системами, и теоретическая и практическая работа в этой области представляется приемлемой и полезной.

Приоритеты Machine Intelligence Research Institute в этих областях обобщены в технической программе 2015 года.

На этом у меня о Майкле Вассаре  как  футурологе,  и президенте Института Сингулярности практически все. Но от себя лично к вышесказанному добавлю, что пред нами «молодое дарование» работающее в области Футурологии. Причем он сам хотя и увлечен Футурологией, но вот «одеяло»– «научных прогнозов Будущего» на себя лично не перетягивает, ибо пошел в отличии от других современных футурологов своим путем: он создал и руководит целой «футурологической организацией»!

И хотя пока эта организация и не стала «коллективным пророком» Будущего, но в перспективе возможно такая целенаправленная работа про ПРОГНОЗИРОВАНИЮ Будущего и даст свои положительные результаты. Ну а мы с вами уважаемые читатель продолжим следить за деятельностью М. Вассара.

Ну а Вассара на нашем историческом подиуме «футурологов» меняет некто Б.Герцель

Бен Герцель (8 декабря 1966, Рио-де-Жанейро, Бразилия) – главный научный сотрудник компании Aidyia Holdings, специалист по финансовому прогнозированию, председатель частной компании по программному обеспечению искусственного интеллекта Novamente LLC, а также биоинформационной компании Biomind LLC, которая предоставляет искусственный интеллект для биоинформационного анализа данных (в особенности микрочипов и данных SNP);

Председатель Artificial General Intelligence Society и OpenCog Foundation; вице-председатель футуристической некоммерческой организации Humanity+; научный консультант биофармакологической компании Genescient Corp.; консультант Singularity University; профессор-исследователь интеллектуальных систем в Fujian Key Lab университета Xiamen, Китай; и генеральный председатель конференций, посвященных изучению искусственного интеллекта, автор и исследователь в области искусственного интеллекта. Также он является консультантом в Machine Intelligence Research Institute (ранее Singularity Institute), где он был руководителем исследований.

Бен Герцель после окончания десяти классов школы, поступил в Bard College at Simon`s Rock, где получил ученую степень бакалавра квантитивных исследований.

Герцель получил звание кандидата математических наук в Темпльском университете в 1989 году.