Статья 'Основные риски использования технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения' - журнал 'Полицейская и следственная деятельность' - NotaBene.ru
по
Меню журнала
> Архив номеров > Рубрики > О журнале > Авторы > О журнале > Требования к статьям > Редакционный совет > Редакция > Порядок рецензирования статей > Политика издания > Ретракция статей > Этические принципы > Политика открытого доступа > Оплата за публикации в открытом доступе > Online First Pre-Publication > Политика авторских прав и лицензий > Политика цифрового хранения публикации > Политика идентификации статей > Политика проверки на плагиат
Журналы индексируются
Реквизиты журнала

ГЛАВНАЯ > Вернуться к содержанию
Полицейская и следственная деятельность
Правильная ссылка на статью:

Основные риски использования технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения

Калюжный Юрий Николаевич

кандидат юридических наук

доцент, Академия управления МВД России

125171, Россия, г. Москва, ул. Зои И Александра, 8

Kalyuzhny Yury Nikolaevich

PhD in Law

Docent, the department of Administation of Work of Public Order Units of Staff Training Centre, Academy of Management of the Ministry of Internal Affairs of Russia

125171, Russia, g. Moscow, ul. Zoi I Aleksandra, 8

kaluzhniy-y@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-7810.2021.3.36425

Дата направления статьи в редакцию:

08-09-2021


Дата публикации:

10-02-2022


Аннотация: Предметом исследования являются нормы права и научные источники, отражающие порядок использования технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения. Объектом исследования являются общественные отношения, определяющие основы применения технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения. В результате изучения нормативно-правовых актов, научной литературы автор выделяет комплекс технологических, социальных и правовых рисков использования технологий искусственного интеллекта в рассматриваемой сфере, обозначает отдельные проблемы законодательного регулирования. Методологическую основу исследования составил комплекс общенаучных и частнонаучных методов познания (формально-правовой, аналитический, системный метод, анализ, синтез, моделирование, сравнение и др.).   Общим выводом автора является утверждение о том, что выделение технологических, социальных и правовых рисков, по мере развития и внедрения технологий искусственного интеллекта в сферу обеспечения безопасности дорожного движения позволяет заблаговременно, последовательно выстроить деятельность органов государственной власти, подобрать широкий набор юридических инструментов, позволяющих нивелировать либо минимизировать возможные риски, повысить эффективность государственного управления общественными отношениями в транспортной сфере и сфере обеспечения безопасности дорожного движения, способствовать достижению стратегических социально-экономических задач развития нашего государства. Новизна исследования состоит в комплексном анализе теоретических правовых и организационных аспектов, характеризующих риски применение технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения, выявлении отдельных проблем законодательного регулирования и перспектив реализации технологий искусственного интеллекта в рассматриваемой сфере.


Ключевые слова:

дорожное движение, безопасность дорожного движения, обеспечение безопасности, искусственный интеллект, технологии искусственного интеллекта, риски, общественные отношения, общество, законодательное регулирование, правоотношения

Abstract: The research subject is legal provisions and scientific sources reflecting the procedure of using AI technologies in the field of road traffic safety. The research object is social relations defining the fundamentals of the use of AI technologies in the field of road traffic safety. Based on the analysis of regulatory documents and scientific literature, the author outlines a set of technological, social, and legal risks of using artificial intelligence in this field, and emphasizes particular problems of legal regulation. The research methodology is based on the set of general scientific and specific methods of cognition (formal-legal, analytical, the system method, analysis, synthesis, modeling, comparison, etc.). The author formulates the conclusion that the accentualization of technological, social and legal risks as and when AI technologies are used in the field of road traffic safety, helps to organize the work of public authorities in advance and step-by-step, and to find a wide range of legal instruments helping to eliminate or minimize possible risks, raise the effectiveness of public administration of social relations in the field of road traffic safety, and promote the achievement of strategic socio-economic goals of the state.  The scientific novelty of the research consists in a comprehensive analysis of theoretical legal and organizational aspects, characterizing the risks of using AI in the field of road traffic safety, and an accentualization of particular problems of legal regulation and the prospects of implementation of AI technologies in this field.       


Keywords:

road traffic, road safety, ensuring security, artificial intelligence, artificial intelligence technologies, risks, public relations, society, legislative regulation, legal relations

Технологические процессы, позволяющие имитировать когнитивные функции человека близкие по значению, а где-то и превосходящие результаты интеллектуальной деятельности людей в последнее годы активно развиваются.

В течение эволюционного развития человечество старалось улучшить, оптимизировать свою деятельность. Технологический прогресс современности позволяет это обеспечить с использованием возможностей искусственного интеллекта. Вместе с тем, как и многое неизведанное, набирающая обороты эра искусственного интеллекта вызывает не безосновательные опасения, основанные на возможных рисках неблагоприятных последствий. О чем неоднократно отмечается в научной литературе [1,2,3].

Однако, мировых лидеров в области технологических исследований, таких как США и Китай возможность неблагоприятных последствий не останавливает, в стремлении достигнуть глобального лидерства в данной сфере.

Российская Федерация, как и многие другие государства, внедряя технологии искусственного интеллекта, основывается на нормах права.

Использование отдельных программных алгоритмов, связанных с организацией дорожного движения в историческом ракурсе, возможно, обнаружить с момента внедрения первых автоматизированных светофорных объектов на улично-дорожной сети нашего государства в начале 30-х годов XX века [4].

Развитие научно-технической индустрии предоставило возможность, в последующем, осуществить внедрение отдельных информационно-коммуникационных технологий в автомобильную и дорожную отрасли экономики, что позволило улучшить технические и эксплуатационные показатели транспортных средств и автомобильных дорог [5], содействовало возможности оказывать управленческое воздействие государства на процесс дорожного движения и его безопасность.

Нарастающая динамика использования мировыми технологическими лидерами в различных отраслях экономики возможностей искусственного интеллекта и значимость рассматриваемого направления для стратегического развития государства способствовали принятию Национальной стратегии развития искусственного интеллекта на период до 2030 года [6].

Исследование положений Стратегии позволяет спектр применения приоритетных направлений возможностей искусственного интеллекта преломить в отношении сферы дорожного движения. В частности, к таким направлениям, как совершенствование автомобильных дорог и устранение мест автоаварий; совершенствование технического состояния (программного обеспечения) транспорта; развитие технологий организации дорожного движения и технологий контроля соблюдения, установленных нормативов участниками дорожного движения. Внедрение и дальнейшее развитие технологий искусственного интеллекта в сферу дорожного движения, без сомнений, позволит реализовать стратегическую задачу сбережения граждан нашего государства.

Необходимо обратить внимание, что рассматриваемая Стратегия основана на принципе предупреждения и минимизации рисков возникновения негативных последствий, вызванных использованием технологий искусственного интеллекта. В ее положениях оговаривается, что развитие технологий искусственного интеллекта может повлечь неблагоприятные социальные и технологические изменения.

Несмотря на то, что блага для человечества от технологий искусственного интеллекта вполне очевидны все же, полемика о его рисках продолжается [7].

В глобальном, межгосударственном масштабе необходимо учитывать двойственную составляющую технологий искусственного интеллекта, выраженную в возможности их применения, как в мирных, так и социально-политических и даже военных целях, что способствует повышению интереса к развитию рассматриваемых технологий и необходимости их внедрения в повседневную жизнь.

Поэтапное развитие технологий искусственного интеллекта и их социальное применение в различных отраслях экономики, в том числе и сфере дорожного движения позволяет задуматься о возможных рисках их использования.

В целях обеспечения безопасности дорожного движения Российской Федерацией реализуется комплекс действий, направленных на обеспечение безопасности всех без исключения участников дорожного движения [8].

Существующие факторы риска представляется возможным дифференцировать на следующие три основные группы: технологические, социально-экономические, правовые.

Технологические риски могут возникнуть в связи с использованием программ иностранных производителей. В данном отношении большое значение принадлежит вычислительной мощности технологий искусственного интеллекта, основанных на использовании графических карт, произведенных за рубежом и использованию программного продукта, заимствованного у иностранных производителей Google, Facebook.

В настоящее время обозначенные технологические риски не вызывают серьезных опасений для сферы дорожного движения. Однако, развитие технологий искусственного интеллекта и их все большее применение в повседневной правоохранительной действительности, их использование в нейронных сетях, наиболее востребованных в современной действительности, может этот вопрос «поставить на повестку дня», как например, произошло с мировой банковской системой SWIFT. Евросоюз обсуждал возможность введения санкций против России связанной с блокировкой доступа нашей стране к указанной банковской системе и фактической финансовой изоляции [9].

Современные сложные технологические продукты, к которым относятся и технологии искусственного интеллекта, зачастую оснащаются функциями удаленного доступа администратора и производителя. Возможность удаленного доступа иностранного производителя программного продукта порождает риски несанкционированного доступа к базам данных автовладельцев, их персональным данным, не исключает утечки указанных данных, а также возможность вмешательства в процесс организации дорожного движения и его регулирования. Особые опасения связаны с возможностью удаленного влияния на принятие искусственным интеллектом управленческих решений в рассматриваемой сфере [10].

Дальнейшее развитие технологий искусственного интеллекта в сфере дорожного движения позволит сделать процесс предоставления государственных услуг более продуктивным. Интерактивные возможности, представленные на официальных сайтах государственных органов позволяют как гражданам, так и юридическим лицам получить государственные услуги (осуществление части регистрационных действий с автотранспортом и получение водительского удостоверения, проверка штрафов, и т.д.), а развитие рассматриваемых технологий позволят сделать их более быстрыми и доступными.

Вместе с тем, возможность принятия решения искусственным интеллектом о предоставлении тех или иных государственных услуг может потребителя поставить в затруднительное положение, получившее наименование в научной литературе «черного ящика» [11]. То есть, принятие решения искусственным интеллектом не всегда позволяет должностному лицу государственного органа объяснить основания и мотивацию его принятия (в данном отношении показателен опыт банковской сферы, где сотрудники могут только предполагать основания отказа программным модулем в выдачи кредита). Искусственный интеллект представляет собой совокупность алгоритмов и решений, выполняя миллионы операций не всегда предоставляет возможность поэтапно проверить правильность его выполнения. Сложность технологических операций функционирования искусственного интеллекта не позволяет заранее осуществить прогноз принятого решения. Необходимо учитывать и то, что результативность обучения искусственного интеллекта может содержать ошибку, которую крайне сложно будет обжаловать, да и куда?

Обозначенные проблемы показывают возможность нарушения законных прав и интересов участников дорожного движения, необходимость внедрения средств контроля за работой искусственного интеллекта (периодического либо системного), а также возможности корректировки человеком принятых решений искусственным интеллектом.

В данном аспекте несмотря на обозначенные риски, которые без сомнений существуют, необходимо отметить положительный опыт банка «Сбер» развивающего технологии использования искусственного интеллекта. В частности, используется программный продукт Digital Manager осуществляющая обработку писем электронной почты и в 90% случаев подсказывающая сотруднику верный ответ [12]. Подобные алгоритмы необходимо внедрять в механизмы предоставления государственных услуг, в том числе и сферы дорожного движения. Особенно привлекательны указанные технологии в отношении обжалования решений государственных органов в отношении нарушений отдельных норм и правил дорожного движения.

Следующим технологическим риском использования искусственного интеллекта выступает возможность поставки иностранного программного оборудования имеющего высокую погрешность в работе для сферы дорожного движения. Так, использование программного оборудования, имеющего процент погрешности в 1 % может негативно отразиться на работе Госавтоинспекции и самих автомобилистах. По данным Центра организации дорожного движения в Москве по МКАД ежедневно проезжает около 1,36 миллиона транспорта [13] и погрешность в 1 % вынудит при указанном количестве автотранспорта искусственный интеллект показать необходимость остановки, по тем или иным причинам, более 13 тысяч автомобилей, что явно не будет способствовать повышению качества правоохранительной системы и обеспечению пропускной способности, комфорта и безопасности дорожного движения.

В качестве риска использования технологий искусственного интеллекта необходимо выделить проблему характерную для использования любых технологических продуктов, имеющих программное обеспечение – риск незаконного вмешательства, приводящий к сбою алгоритмов работы программы, и более серьезным последствиям, связанным с принятием неправомерных решений, в отношении неопределенного круга пользователей.

В научной литературе пристальное внимание обращено к возможностям использования технологий искусственного интеллекта [14,15,16] и обсуждении вопроса не имеющего однозначного решения, связанного с правовым статусом искусственного интеллекта. То есть, применительно к рассматриваемой сфере возможно ли относиться к искусственному интеллекту, как субъекту права, способному самостоятельно принимать разумные, волевые, управленческие решения в отношении скорости движения транспорта, преимуществе и ограничении движения отдельных из них. В данном отношении необходимо рассмотреть отдельное перспективное направление развития, искусственного интеллекта которым выступает автономный транспорт [17].

Наиболее востребованным направлением использования технологий искусственного интеллекта принято рассматривать беспилотный транспорт, где проблема соотнесения технологий искусственного интеллекта применительно к субъекту права или объекту проявляется «максимально остро».

Совершенно справедливо утверждают отдельные исследователи, что с развитием использования полностью автономных беспилотных транспортных средств и включением их в социальную деятельность вынудят законодателя решить вопрос о правовой оценке нового общественно опасного деяния [18] и соответственно, о субъекте ответственности.

В нашей стране запланировано тестирование беспилотных автомобилей без участия инженера-испытателя с 2021 по 2024 год [19], хотя с участием инженера в салоне автомобиля тестирование осуществляется с 2018 года. Кроме того, на нормативном уровне приняты правовые основы развития и внедрения в социальную действительность [20,21], технологий беспилотного транспорта и искусственного интеллекта.

В отношении рассмотрения искусственного интеллекта, как субъекта или же объекта права представляют научный интерес подходы, выделенные авторским коллективом во главе с Л.А. Новоселовой.

Согласно немецкому подходу, невозможно закрепление и правовая охрана интеллектуальной собственности, созданной роботом и признания его субъектом права. Английский подход, предусматривает авторство лица, создавшего программный продукт (программист), а также признание прав за пользователем программы как лица, осуществившего совокупность действий для появления такого результата. В разрез с указанными позициями находится американский подход, предусматривающий признание технологий искусственного интеллекта субъектами права [22].

Все же преимущественная часть исследователей придерживаются позиции, согласно которой ответственность за действия искусственного интеллекта должен нести программист, создавший программное обеспечение, либо же правообладатель (владелец, использующий данные технологии).

Следует согласиться с авторским коллективом под руководством Ю.А. Тихомирова указывающих, что в существующих правовых условиях и уровне технологического развития искусственного интеллекта однозначно он должен восприниматься в качестве объекта права, но никак не самостоятельным субъектом. В последующем, развитие правовых норм, определяющих права, обязанности, гарантии и ответственность робототехники [16] позволит минимизировать риск принятия неверного решения, нарушающего права и законные интересы участников общественных отношений, наделив его статусом субъекта права.

Помимо обозначенных рисков необходимо указать на существование большого количества социальных рисков связанных с внедрением технологий искусственного интеллекта. Сложность механизмов функционирования искусственного интеллекта, отсутствие понимания в принятии им решений могут подорвать доверие общества, что может спровоцировать нежелание и обоснованную боязнь восприятия рассматриваемых технологий даже в таких сферах экономики, как транспорт, дорожное движение, где прослеживаются очевидные преимущества для общества.

Наиболее возможным социальным (этическим) риском использования технологий искусственного интеллекта является риск нарушения конституционного права неприкосновенности частной жизни, так как технологии обрабатывают значительный объем персональных данных. Защита от обозначенного риска во многом зависит от сформированной законодательной базы и защищенности технологий искусственного интеллекта от несанкционированного доступа [23].

Рассматривая социальные риски необходимо отметить и риски социальной справедливости. Искусственный интеллект, представляя собой совокупность технологий не представляет собой совершенно нейтральный продукт, поскольку в его основе заложено программирование и соответственно чьи-то интересы. К тому же, технологии, принимающие решение о распределении ресурсов, первоочередности медицинского лечения, характере и размере наказания и возможности его смягчения без сомнений может породить вопросы социальной справедливости.

Представители рабочей группы, осуществляющие разработку федерального проекта «Искусственный интеллект» осуществили замер технологической зрелости искусственного интеллекта в нашей стране в сравнении с передовыми странами, внедряющими рассматриваемые технологии. Показатели оказались не утешительными. Так в нашей стране он равен 6 баллам, в то время как США и Китай, являясь лидерами имеют по 77 баллов. Гораздо убедительнее России в данном аспекте выглядят Великобритания, Канада и Германия, имеющие по 26 баллов [12].

Предпосылки решения отдельных законодательных проблем внедрения и дальнейшего развития технологий искусственного интеллекта заложены в структуре национального проекта «Безопасные и качественные дороги» [24], Стратегии развития искусственного интеллекта [25], Федерального закона от 31июля 2020 г. № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Но законодательная работа проводится темпами, не позволяющими внедрить технологии искусственного интеллекта в социальную действительность, тем самым занять лидирующие позиции в мире.

Таким образом, технологии искусственного интеллекта направлены на решение важных общегосударственных задач, постепенно превращаясь в отдельную индустрию, способную обеспечить устойчивый рост экономики нашей страны. Вместе с тем проблемы законодательного регулирования использования технологий искусственного интеллекта, неразвитость норм, а порой их противоречивость с нормами защищающими персональные данные участников исследуемых общественных отношений, являются сдерживающим элементом устойчивого развития России, способствующим формированию и развитию рисков использования технологий искусственного интеллекта, в том числе в сфере обеспечения безопасности дорожного движения.

Не вызывает сомнений, что выделение технологических, социальных и правовых рисков, по мере развития и внедрения технологий искусственного интеллекта в сферу обеспечения безопасности дорожного движения позволяет заблаговременно, последовательно выстроить деятельность органов государственной власти, подобрать широкий набор юридических инструментов, позволяющих нивелировать либо минимизировать возможные риски, повысить эффективность государственного управления общественными отношениями в транспортной сфере и сфере обеспечения безопасности дорожного движения, способствовать достижению стратегических социально-экономических задач развития нашего государства.

Библиография
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
References
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования очень интересный и посвящен выявлению и анализу основных рисков «…использования технологий искусственного интеллекта в сфере обеспечения безопасности дорожного движения». Методология исследования – ряд методов, правильно используемых автором: статистический, исторический, сравнительно-правовой, формально-юридический, анализ и синтез, логика и др. Актуальность обоснована автором во введении к статье и выражается в следующем: «Внедрение и дальнейшее развитие технологий искусственного интеллекта в сферу дорожного движения, без сомнений, позволит реализовать стратегическую задачу сбережения граждан нашего государства». Научная новизна хорошо обоснована в исследовании автора. Стиль, структура, содержание заслуживают особого внимания. Стиль работы хороший, она легко читается и носит исследовательский характер. Исследование имеет все необходимые структурные элементы: актуальность, постановка проблемы, цели и задачи, предмет, научная новизна, методология и выводы. Содержание отражает существо статьи. Автор логично подводит читателя к существующей проблеме. Он акцентирует внимание читателя на предмете статьи. Он показывает, опираясь на исследования оппонентов, что «В глобальном, межгосударственном масштабе необходимо учитывать двойственную составляющую технологий искусственного интеллекта, выраженную в возможности их применения, как в мирных, так и социально-политических и даже военных целях, что способствует повышению интереса к развитию рассматриваемых технологий и необходимости их внедрения в повседневную жизнь» и приводит мнения оппонентов как за, так и против (риски внедрения), с анализом положения дел в рассматриваемой сфере. Автор при постановки проблемы отмечает «Поэтапное развитие технологий искусственного интеллекта и их социальное применение в различных отраслях экономики, в том числе и сфере дорожного движения позволяет задуматься о возможных рисках их использования», при этом дифференцируя их «…на следующие три основные группы: технологические, социально-экономические, правовые». Далее идет раскрытие их особенностей. Переходя к анализу рисков, исследуемых в статье, автор показывает, используя НПА и работы оппонентов, что «…развитие технологий искусственного интеллекта и их все большее применение в повседневной правоохранительной действительности, их использование в нейронных сетях, наиболее востребованных в современной действительности, может этот вопрос «поставить на повестку дня»», а в нашем случае: «Необходимо учитывать и то, что результативность обучения искусственного интеллекта может содержать ошибку, которую крайне сложно будет обжаловать, да и куда?», «Обозначенные проблемы показывают возможность нарушения законных прав и интересов участников дорожного движения, необходимость внедрения средств контроля за работой искусственного интеллекта (периодического либо системного), а также возможности корректировки человеком принятых решений искусственным интеллектом», «…необходимо отметить положительный опыт банка «Сбер» развивающего технологии использования искусственного интеллекта…». При этом автор анализирует документы, периодическую печать и работы оппонентов. Автор замечает: «Наиболее возможным социальным (этическим) риском использования технологий искусственного интеллекта является риск нарушения конституционного права неприкосновенности частной жизни, так как технологии обрабатывают значительный объем персональных данных», «Следующим технологическим риском использования искусственного интеллекта выступает возможность поставки иностранного программного оборудования имеющего высокую погрешность в работе для сферы дорожного движения». Он приводит ссылки и примеры «…вынудит при указанном количестве автотранспорта искусственный интеллект показать необходимость остановки, по тем или иным причинам, более 13 тысяч автомобилей …». И далее переходит к рассмотрению вопроса «…использования технологий искусственного интеллекта принято рассматривать беспилотный транспорт…», отмечая при этом, что «…проблема соотнесения технологий искусственного интеллекта применительно к субъекту права или объекту проявляется «максимально остро»», делая вывод на основе анализа НПА и исследований российских и зарубежных исследователей «…преимущественная часть исследователей придерживаются позиции, согласно которой ответственность за действия искусственного интеллекта должен нести программист, создавший программное обеспечение, либо же правообладатель (владелец, использующий данные технологии)». В заключение автор подводит итог: «… выделение … рисков, … позволяет заблаговременно, последовательно выстроить деятельность органов государственной власти, подобрать широкий набор юридических инструментов, позволяющих нивелировать либо минимизировать возможные риски…», что позволит «… повысить эффективность государственного управления общественными отношениями в транспортной сфере и сфере обеспечения безопасности дорожного движения…». Как нам кажется, приведены конкретные, дающие для практики и теории выводы. Необходимо констатировать, что журнал, в который представлена статья является научным, и автор направил в издательство статью, соответствующую требованиям, предъявляемым к научным публикациям, в частности для научной полемики он обращается к текстам научных работ. Библиография достаточная (есть повтор 6 и 25) и содержит современные научные исследования, есть ссылки на НПА, к которым автор обращается. Это позволяет автору правильно определить проблемы и поставить их на обсуждение. Он, исследовав их, раскрывает предмет статьи. Автор продемонстрировал хорошее знание обсуждаемого вопроса, работ ученых, исследовавших его прежде, привнес своей статьей определенную научную новизну. Апелляция к оппонентам в связи с вышесказанным присутствует. Автором используется материал других исследователей. Выводы – работа заслуживает опубликования, интерес читательской аудитории будет присутствовать.
Ссылка на эту статью

Просто выделите и скопируйте ссылку на эту статью в буфер обмена. Вы можете также попробовать найти похожие статьи


Другие сайты издательства:
Официальный сайт издательства NotaBene / Aurora Group s.r.o.