Добавить в цитаты Настройки чтения

Страница 5 из 8

Развитие ИИ тесно связано с рынком больших данных, с борьбой за доступ к обучающим выборкам. Создание совместных баз данных, а также открытых платформ для обучения нейросетей типа Azure, потребует разработки социально-психологических технологий формирования не только межличностного, но и межгруппового доверия. Новый импульс получат исследования межгрупповых отношений в цифровой экономике, доверия клиентов к организациям, совместимости разных корпоративных культур обращения с ИИ.

Отдельной и крайне мало изученной областью является социальная психология разработчиков ИИ и робототехников (Голиков, 2018). Усложнение технологий приводит не к ослаблению, а к усилению роли человеческого фактора как причины крупных катастроф. Как психологические характеристики команды разработчиков влияют на создаваемые ими нейросети? Как групповая рефлексивность, коллективные эмоциональные состояния и способы разрешения конфликтов с заинтересованными сторонами проекта влияют на способность разработчиков вовремя обнаружить ошибки и оценить последствия некорректной работы алгоритма? Как в среде специалистов по большим данным и робототехников формируются нравственные нормы и представления о конечных пользователях? Как эти нормы и представления влияют на создаваемые ими алгоритмы?

Совершенно очевидно, что использование нейросетей в финансовых операциях и кредитном скоринге, рекламе, формировании новостного контента, работе государственных служб и системе здравоохранения открывает новую страницу для юридической психологии. С одной стороны, все более актуальными становятся исследования социально-психологической специфики киберпреступлений с использованием машинного обучения, а также готовности граждан обращаться к услугам хакеров для взлома или обхода значимых для них алгоритмов. Анализ Big Data открывает здесь новые возможности не только для участников теневой экономики, но и для психологов, их изучающих. С другой стороны, важно разобраться в том, как применение искусственного интеллекта повлияет на правовое сознание молодежи, на стратегии оправдания теневого поведения и экстремизма. Кроме того, появление общедоступных алгоритмов в сфере обработки обращений граждан и юридического консультирования может изменить способы мобилизации права в российском обществе. Наконец, специального изучения требуют психологические проблемы, которые возникают у работников органов защиты правопорядка при внедрении различных автоматизированных систем выявления и прогнозирования преступлений в условиях дефицита ресурсов для борьбы с этими правонарушениями.

1. Голиков Ю.Я. Неопределенность и риски традиционных и новых областей высоких технологий и актуальные психологические проблемы их развития // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А.А. Обознова, А.Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 11–29.

2. Карпов В.Э. От роевой робототехники к социуму роботов // Искусственный интеллект: проблемы и пути решения – 2018: Материалы конференции. М., 2018. С. 122–130.

3. Нестик Т.А. Социально-психологические аспекты отношения человека к новым технологиям // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А. А. Обознова, А. Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 50–73.

4. Роботизация работы: возможность или опасность? // ВЦИОМ. № 3538. 4 декабря 2017. URL: https://wciom.ru/index.php?id=236&uid=116605 (дата обращения: 05.01.2018).

5. Талер Р., Санстейн К. Nudge. Архитектура выбора. Как улучшить наши решения о здоровье, благосостоянии и счастье. М.: Манн, Иванов и Фербер, 2017.

6. Knight W. The Dark Secret at the Heart of AI // MIT Technology Review. 11 April 2017. URL: https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart -of-ai/ (дата обращения: 07.01.2018).

7. Kotov A. A computational model of consciousness for artificial emotional agents // Psychology in Russia: State of the Art. 2017. V. 10. N. 3. P. 57–73.

8. Memes That Kill: The Future of Information Warfare // CBInsights Re-search Briefs. 3 May 2018. URL: https://www.cbinsights.com/research/future-of-information-warfare (дата обращения: 07.01.2018).





9. Parlett N., Foyster R., Ho P. Will robots really steal our jobs? An international analysis of the potential long term impact of automation. PwC, 2018. URL: https://www.pwc.com/hu/hu/kiadvanyok/assets/pdf/impact_of_automatio n_on_jobs.pdf (дата обращения: 05.05.2018).

10. Turchin A., Denkenberger D. Classification of global catastrophic risks co

Abstract. The article discusses the problems posed by the introduction of technologies of "weak" or specialized, artificial intelligence in everyday life for psychological science and practice. Attention is drawn to the study of the implications of using algorithms for cognitive and emotional development; the impact of cultural differences on the development and approaches to the use of AI; the possibilities opened by the AI for increasing awareness and mindfulness, for constructing identity, self-image and temporal perspective, for impression management; the influence of the world programmability on causal attribution processes and trust in social institutions; the implications of machine learning in group decision support systems; the impact of AI on the legal consciousness and legal mobilization. The psychological problems associated with the emergence of "redundant people" who have lost their jobs during the automation process are recognized as particularly acute. The author draws attention to the likelihood of reduced awareness and reflexivity of society under the influence of the digital “choice architecture”, as well as the widening of the cultural gap between those who are ready for uncertainty and choice, and those who are trying to avoid having to choose something, shifting the responsibility to algorithms.

Keywords: artificial intelligence, machine learning, awareness, group decision making, causal attribution, social trust, tolerance for uncertainty, choice architecture.

Ложные подсказки и троянское обучение: цифровая перспектива 3

Аннотация. Дается краткий обзор некоторых исследований дачи ложных подсказок и троянского обучения (обучения со скрытыми, не декларируемыми целями тому, о чем не подозревает обучаемый). Предлагается рабочая классификация, позволяющая различать ситуации ложных подсказок и троянского обучения, в разной степени связанные с речевой деятельностью как одной из важнейших для человека. С целью объединения исследовательского поля, отталкиваясь от аналогии с исследуемыми в настоящее время «отравляющими атаками» на системы машинного обучения, можно интерпретировать ложные подсказки и троянское обучение как «отравляющую атаку на семантическую сеть». Рассматриваются возможные аспекты проблемы, связанные с подавлением вербальной креативности и исполнения. В заключение ставится вопрос о динамике представленности нарративов о ложных подсказках (обучении со злым умыслом) в различные периоды и в различных обществах, в том числе цифровом.

Ключевые слова: троянское обучение, отравляющая атака, вербальная креативность, семантическая сеть, нарратив угрозы.

3

Исследование поддержано РФФИ, проект 18-29-03167.