Добавить в цитаты Настройки чтения

Страница 1 из 9



Риски цифровизации: виды, характеристика, уголовно-правовая оценка

© Коллектив авторов, 2022

© ООО «Проспект», 2022

Ответственный редактор доктор юридических наук, профессор Ю. В. Грачева

Авторы:

Грачева Ю. В., доктор юридических наук, профессор, профессор кафедры уголовного права Московского государственного юридического университета имени О. Е. Кутафина (МГЮА);

Иванов С. А., руководитель подразделения информационной безопасности компании «Первый Бит»;

Маликов С. В., доктор юридических наук, профессор кафедры уголовного права Московского государственного юридического университета имени О. Е. Кутафина (МГЮА);

Чучаев А. И., доктор юридических наук, профессор, главный научный сотрудник, и. о. заведующего сектором уголовного права, уголовного процесса и криминологии Института государства и права РАН.

Рецензенты:

Коробеев А. И., доктор юридических наук, профессор, заслуженный деятель науки РФ, заведующий кафедрой уголовного права и криминологии Дальневосточного федерального университета;

Воробьев В. В., кандидат юридических наук, доцент, заведующий кафедрой уголовно-правовых дисциплин Сыктывкарского государственного университета имени Питирима Сорокина.

Исследование выполнено при финансовой поддержке Российского фонда фундаментальных исследований (РФФИ) в рамках научного проекта № 18-29-18158.



Введение

Увеличение деловой, социальной активности в киберпространстве, цифровая трансформация предпринимательской деятельности и деятельности государственных и муниципальных служб предопределяют актуальность рассмотрения вопроса трансформации права в условиях развития цифровых технологий. Прорывное развитие цифровых технологий приводит к появлению новых видов нематериальных и трансформации традиционных материальных активов, образованию важных прямых и обратных зависимостей между объектами виртуального мира (киберпространства) и реального мира. Значимость преобразований и их беспрецедентная динамика изменяют характер угроз имуществу, жизни и здоровью человека, работе организаций, социуму и государству.

Противодействие киберугрозам, социокультурным угрозам, терроризму и идеологическому экстремизму не только ставит новые задачи перед специалистами по информационной безопасности, но и требует выработки механизмов правовой защиты, обладающих свойством оперативной актуализации в соответствии с изменениями характера и масштабов угроз. Такие механизмы позволят опережающими темпами реагировать на криминогенные угрозы безопасности личности, общества и государства в цифровой среде.

Для разрешения этой проблемы в настоящей монографии преследуется в первую очередь пропедевтическая цель – создание необходимого теоретического фундамента для последующего рассмотрения специальных уголовно-правовых вопросов. Проводится анализ технологий, образующих цифровую среду, и сфер жизнедеятельности, на которые инновационные технологии воздействуют или будут оказывать наибольшее влияние.

Угрозы цифровой среды, создающие опасность ущерба для человека, социума и государства, в пособии исследуются как совокупность причин и факторов, обусловленных применением цифровой технологии, от которой зависит вероятность нанесения ущерба, и сферы жизнедеятельности, определяющей характер и размер ущерба.

Глава I. Научно-технические направления, оказывающие наибольшее влияние на развитие цифровой среды

§ 1. Искусственный интеллект

Понятие. Искусственный интеллект (далее – ИИ) – это область научных знаний и технологий создания интеллектуальных машин и интеллектуального программного обеспечения. Также ИИ называют свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека. Одной из ключевых особенностей интеллектуальных вычислительных систем является их способность приобретать знания посредством обучения (самомодификации) и применять эти знания для решения проблем.

Подобно тому, как человек использует свой мозг, чтобы учиться на новой информации, собранной органами чувств, ИИ учится на информации, передаваемой ему, например, в виде изображения или правил игры. Данная информация не только обрабатывается в соответствии с тем, как он запрограммирован, но и меняет сам алгоритм, при помощи которого ее обрабатывают. Процесс, при котором ИИ запрограммирован на автоматическое изменение собственного алгоритма, называется машинным обучением. Например, для идентификации кошки люди принимают во внимание форму и физические характеристики и сверяют это со знаниями о том, кто такая кошка, основываясь на воспоминаниях и опыте. Обучение человека естественным образом включает в себя построение абстрактных представлений, т. е. человек может распознать кошку, даже если видит только задние лапы и хвост или видит рисунок с кругом, обозначающим голову, и двумя треугольниками, изображающими уши. Для того чтобы ИИ мог идентифицировать кошку, в систему нужно внести миллионы изображений кошек и обучить ее распознавать определенные группы пикселей – наименьших единиц изображения, которые создают форму кошки. Впервые такое обучение ИИ было проведено компанией Google в 2012 г. с использованием технологии, известной как Deep Learning, в целях построить программу, которая может распознавать изображения с кошками. В программе изначально не задавались правила, согласно которым у кошек четыре лапы, хвост, два уха и т. д., но, поскольку изображения на обучающих данных были помечены как содержащие или не содержащие кошек, программа смогла самостоятельно создать визуальную концепцию кошки. Когда программе предоставлялось новое изображение, она с высокой точность была способна пометить его как «содержащий кошку» или нет. Искусственный интеллект Google получил информацию из изображений, научился идентифицировать кошек, а затем мог применять правила для решения вопроса о том, какие новые изображения содержат рисунок кошки. Несмотря на то, что в отличие от мозга человека ИИ на самом деле не знает, кто такая кошка, и не понимает этого, ему удалось создать абстрактное представление о том, что мы называем кошкой или, если точнее, «кошкой на изображении».

Существуют разнообразные методы машинного обучения: глубокое обучение с использованием нейронных сетей, обучение с подкреплением, обучение на основе статистических принципов. Многие программы ИИ применяются для анализа и обработки изображений или речи либо извлечения информации из них. Глубокое обучение зачастую необходимо для прогнозов, таких как медицинские диагнозы или возможное мошенничество с кредитными картами.

История. Старт развития искусственного интеллекта в современном его понимании произошел в 1950-х гг. XX в. и изначально предполагал решение сложных математических задач и создание «мыслящих машин». С самого начала сложились два конкурирующих подхода. Один – с применением формальных правил для манипулирования символами, логического подхода, не основанного на биологии. Этот подход получил название «старый добрый искусственный интеллект» (Good Old-Fashioned Artificial Intelligence, GOFAI). Сторонники второго подхода исходили из того, как работает мозг, и создавали «искусственные нейронные сети», базирующиеся на моделях, в основу архитектуры которых положена нейронная структура мозга.

В первые 20 лет GOFAI принес больший успех, что привело к значительному государственному финансированию. В реальных же условиях GOFAI не дал значимых результатов. Методология использования искусственных нейронных сетей не прошла проверку прикладными задачами и в 1970-х гг. финансирование исследований прекратилось, их количество уменьшилось, а сообщество ИИ сократилось. Через 10 лет, когда были усовершенствованы системы GOFAI и нейронные сети, решение задач, считавшихся ранее неразрешимыми, стало достижимым, и область ИИ снова стала казаться многообещающей. Однако надежды вновь не оправдались, и к 1990 г. количество исследований ИИ снова сократилось. Успех к рассматриваемой технологии пришел в начале 2000-х гг., что было обусловлено рядом значимых факторов: