Статья 'Публично-правовые аспекты технического регулирования искусственного интеллекта в России и мире.' - журнал 'NB: Административное право и практика администрирования' - NotaBene.ru
по
Меню журнала
> Архив номеров > Рубрики > О журнале > Авторы > О журнале > Требования к статьям > Редакционный совет > Редакция > Порядок рецензирования статей > Политика издания > Ретракция статей > Этические принципы > Политика открытого доступа > Оплата за публикации в открытом доступе > Online First Pre-Publication > Политика авторских прав и лицензий > Политика цифрового хранения публикации > Политика идентификации статей > Политика проверки на плагиат
Журналы индексируются
Реквизиты журнала

ГЛАВНАЯ > Вернуться к содержанию
NB: Административное право и практика администрирования
Правильная ссылка на статью:

Публично-правовые аспекты технического регулирования искусственного интеллекта в России и мире

Атабеков Атабек Рустамович

кандидат экономических наук

доцент, кафедра административного и финансового права, Российский университет дружбы народов

117198, Россия, г. Москва, ул. Миклухо-Маклая, 6

Atabekov Atabek Rustamovich

PhD in Economics

Associate Professor of the Department of Administrative and Financial Law, Legal Institute, Peoples' Friendship University of Russia

117198, Russia, Moscow, Miklukho-Maklaya str., 6

atabekoff1@mail.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2306-9945.2023.2.39938

EDN:

EFVTPO

Дата направления статьи в редакцию:

04-03-2023


Дата публикации:

11-03-2023


Аннотация: Предметом исследования выступают правоотношения публичных органов в области технического регулирования в отношении искусственного интеллекта. Объектом исследования выступают нормативные документы, рекомендации и иные документы, регламентирующие вопросы реализации автономности искусственного интеллекта для целей публичных правоотношений в России и зарубежных странах, а также академические публикации и аналитические отчеты по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая, диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования проблем обеспечения надлежащего качества технического регулирования искусственного интеллекта через призму действий органов по стандартизации и иных публичных органов власти.   В рамках указанной статьи проводится сравнительный анализ действующих подходов по осуществлению технического регулирования искусственного интеллекта в публично-правовом аспекте России и зарубежных стран. В рамках проведенного компаративного анализа выявлены базовые проблемы в области осуществления надлежащего технического и публичного регулирования искусственного интеллекта в мировой практике, рассмотрена отдельно практика технического регулирования в России, а также предложены возможные компенсирующие правовые мероприятия, обеспечивающие прозрачную и надлежащую практику осуществления технического регулирования искусственного интеллекта в сферу государственного управления в России. Рассмотренные типовые ситуации, действующая практика технического регулирования искусственного интеллекта, а также предложенные автором методы могут найти свое отражение в законодательной и правоприменительной практике профильных органов власти, отвечающих как за техническое регулирование, так и за вопросы обеспечения интеграции указанной технологии в сферу публичных правоотношений.


Ключевые слова:

искусственный интеллект, электронное лицо, сравнительно-правовое исследование BB, техническое регулирование ИИ, безопасный ИИ, публичное право, административное право, информационное право, правоприменительная практика, стандартизация

Abstract: Within the framework of this article, a comparative analysis of existing approaches to the implementation of technical regulation of artificial intelligence in the public law of Russia and foreign countries is carried out. As part of the comparative analysis, the basic problems in the field of proper technical and public regulation of artificial intelligence in the world practice are identified, the practice of technical regulation in Russia is considered separately, and possible compensatory legal measures are proposed to ensure transparent and proper practice of technical regulation of artificial intelligence in the field of public administration in Russia. The subject of the study is the legal relations of public authorities in the field of technical regulation in relation to artificial intelligence. The object of the study is the regulatory documents, recommendations and other documents regulating the implementation of the autonomy of artificial intelligence for the purposes of public legal relations in Russia and foreign countries, academic publications and analytical reports on the issues under study. The research methodology integrates a complex of modern philosophical, general scientific, special scientific methods of cognition, including dialectical, systemic, structural-functional, hermeneutical, comparative legal, formal legal (dogmatic), etc. Within the framework of this study, special emphasis is placed on the implementation of a comparative legal study of the problems of ensuring the proper quality of technical regulation of artificial intelligence through the prism of the actions of standardization bodies and other public authorities. The considered typical situations, the current practice of technical regulation of artificial intelligence, as well as the methods proposed by the author can be reflected in the legislative and law enforcement practice of relevant authorities responsible both for technical regulation and for ensuring the integration of this technology into the sphere of public legal relations.


Keywords:

artificial intelligence, electronic person, comparative legal research of AI, technical regulation of AI, safety AI, public law, administrative law, information law, law enforcement practice, standardization

Развитие технологического потенциала искусственного интеллекта является одной из значимых задач для как Российской Федерации [1-2], так и для международного сообщества [3].

При этом нельзя не отметить возникающие вопросы позиционирования искусственного интеллекта (ИИ) в контексте технического регулирования и позиции как национальных институтов в области стандартизации, так и публичных органов власти в указанной сфере.

Базовая и фундаментальная работа в области выработки единых подходов по стандартизации ИИ проводится на уровне международных органов по стандартизации - ИСО/МЭК (ТК1/СК42) и их различными совместными подкомитетами. В рамках функционирования указанного ТК уже опубликован широкий перечень стандартов в области ИИ [4-6].

На данный момент применения ИИ для целей публичных органов власти ISO рекомендует руководствоваться ISO/IEC 38507:2022, в котором прописаны базовые принципы, а также отмечаются потенциальные негативные последствия от использования ИИ:

1. Риск монополизации рынка за счет отраслевой специализации ИИ.

2. Предвзятость в суждениях при обработке данных ИИ без тщательной проверки.

3. Риск утраты контроля со стороны человека с учетом скорости обучения ИИ.

4. Дискриминация и потенциальный вред фундаментальных прав работников, которых может заместить ИИ.

5. Репутационные издержки в случае отсутствия контроля за ИИ.

На уровне различных государств создаются профильные органы власти, разрабатываются соответствующие стратегические документы [7].

Так, в Национальном стратегическом плане США определена необходимость увеличения доступности испытательных стендов ИИ и последующую работу по увеличению показателей связанных с разработкой стандартов и вовлеченности профессионального сообщества [8]. В последующие года, Американский национальный институт был представлен Секретарем в совместном техническом комитете 1/субкомитет 42 сформированной ISO и IEC [9]. Кроме того, понимая военный потенциал ИИ, Комиссия национальной безопасности США по искусственному интеллекту (NSCAI), акцентировала внимание национальных органов принимающих участие в разработке стандартов, необходимость систематически повышать достоверность результатов и функционирующих моделей ИИ [10].

В Китае соответствующую работу организовывает и координирует Министерство промышленности и информационных технологий которое опубликовало в 2018 году Белую книгу по стандартизации ИИ [11]. При этом инициативы Китая на сближение подходов в области стандартизации [12-13], для облачных вычислений, промышленного программного обеспечения не отменяет принципов суверенного регулирования ИИ. В рамках национальной стратегии стандартизации под названием «Китайские стандарты 2035», зафиксировано, что национальные стандарты будут отличаться от международных стандартов, в целях развития внутренней промышленности [14].

При этом, деятельность органов в области стандартизации распределена между 5 организациями [15]:

1. Национальный технический комитет по стандартизации информационных технологий (SAC/TC 28) является базовым органом, который занимается терминологическим аппаратом в области ИИ и смежных областях, связанных с взаимодействием ИИ и человека.

2. Китайский национальный технический комитет по стандартизации систем автоматизации и интеграции специализируется на стандартизации деятельности промышленных роботов.

3. Национальный технический комитет по стандартизации аудио, видео и мультимедиа специализируется на стандартах для умного дома.

4. Национальный технический комитет по стандартизации информационной безопасности специализируется на стандартах в области безопасности для умных городов и промышленного производства.

5. Национальный технический комитет по интеллектуальным транспортным системам специализируется на стандартах в области интеллектуального транспорта.

В Белой книге по стандартизации Китая также отмечены фундаментальные проблемы в области стандартизации и сертификации ИИ:

1. Неоднородность технического развития ИИ на уровне различных стран порождает различную интерпретацию ИИ на национальном и наднациональном уровнях.

2. Многокомпонентность и трансграничная универсальность технологии может порождать избыточный или дублирующий контур стандартов.

3. Стандартизация как способ лоббирования своих интересов международных корпораций и ассоциаций.

4. Неограниченный круг пользователей продукции, что ведет к сложностям в координации процесса стандартизации.

5. Вопросы в области безопасности и этики являются самой сложной категорией в области стандартизации, которые замедляют работу по основному блоку стандартизации ИИ.

В Европейском союзе основополагающие органы по стандартизации - Европейский комитет по стандартизации и Европейский комитет по электротехнической стандартизации (CENELEC) и Европейский институт стандартов в области телекоммуникаций (ETSI). В 2019 году CENELEC создал Оперативную группу по ИИ [16], после чего в 2020 году была опубликована дорожная карта по стандартизации ИИ [17]. ETSI также создал различные фокус-группы по искусственному интеллекту [18].

Нельзя также не отметить инициативу законодательную инициативу ЕС в отношении искусственного интеллекта, носящего риск ориентированный подход и закладывающий свои фундаментальные основы в том числе для целей стандартизации и регулирования со стороны органов власти (Регламент) [19].

Указанный регламент определяет горизонтального подход в отношении ИИ (в отличие от других законодательных актов ЕС о безопасности продукции), что говорит о комплексном рассмотрении вопроса регламентации ИИ, а также минимизации рисков на уровне трансграничного перемещения добровольных национальных и международных стандартов.

При этом саму продукцию ИИ Регламент градирует в зависимости от степени риска для общества, со своими последующими ограничениями и обязательствами (ст.5,8,52 и 69 Регламента) в области обеспечения безопасности и надежности технологии.

При этом Решение № 768/2008/EC Европейского парламента и Совета от 9 июля 2008 г. об общих рамках для сбыта продукции [20], содержит положения о том, что конкретизация локальных стандартов в области ИИ является целевой задачей институтов в области стандартизации (CENELEC, ETSI и т.д.). При этом оценка соответствия продукции является обязанностью только производителя, что также находит свое отражение применительно к ИИ (ст.16,17,51, 60 86 Регламента). Кроме того, статьей 71 Регламента закреплен размер оборотного административного штрафа в размере 2%, 4% или 6% от годового оборота нарушителя.

Риск-ориентированный подход, предложенный ЕК в отношении ИИ, носит интересный подход в области стандартизации, однако сохраняет за собой вопросы в области верификации ИИ производителем продукции, а не третьими лицами, а указанные институты, являются не публичными образованиями, а НКО.

В России стандартизация деятельности возложена на Росстандарт, которым было подготовлено совместно с Минэкономразвития программа по стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 годы [21]. Программа содержит более 70 отраслевых метрологических стандартов.

При этом интересным феноменом является как разночтение на уровне документов ГОСТ Р 43.0.8-2017 и ГОСТ Р 59277-2020 в отношении определения ИИ, так и в части практической реализации стандартизации в области ИИ согласно указанной выше программе. Согласно указанной программе, до 2024 года планируется 44 межотраслевых стандарта в области ИИ (11 в 2022, 21 в 2023 году, 12 в 2024 году), 58 отраслевых метрологических стандарта (21 в 2022 году,19 в 2023 году, 18 в 2024 году), 91 сопровождаемый международный документ (стандарт) по ИИ (20 в 2021 году, 22 в 2022 году,24 в 2023 году, 25 в 2024 году). Отраслевая специализация указанных документов охватывает почти все сферы деятельности человека.

Росстандарт, руководствуясь статьей 9 Федерального закона от 29.06.2015 N 162-ФЗ «О стандартизации в Российской Федерации» (Закон) реализует государственную политику в сфере стандартизации, определяет порядок достижения единой позиции разных сторон при разработке национальных стандартов, порядок их экспертизы, организует саму разработку стандартов и т.д. При этом согласно п.25 ст.9 Закона предусмотрена возможность принятии решения о создании и ликвидации технических комитетов по стандартизации, который подразумевает создание на добровольной основе заинтересованные юридические лица, а также органы власти принимают участие для разработки, экспертизы документов в области стандартизации в закрепленных ею областях (ст. 11 Закона).

В области ИИ таковым выступает ТК 164 «Искусственный интеллект» [22]. При этом, следует отметить, что разработчиком системных документов в области ИИ занимаются как научные организации (ГОСТ Р 59898-2021, ГОСТ Р 58776-2019 и т.д.), так и коммерческие компании с высокой степенью технической вовлеченности (ГОСТ Р 59391-2021), а также компании, чья компетенция вызывает потенциальные вопросы (ГОСТ Р 70249-2022, ГОСТ Р 59385-2021).

По мнению автора, необходимо отметить, что базовой общной проблемой вопросов стандартизации является то, что прямо или опосредовано на область технического регулирования ИИ влияют негосударственные организации с участием заинтересованных компаний, которые закладывают свои конкурентные преимущества и в последствии ослабляют контроль со стороны государства, в т.ч. в отношении такой технологии как ИИ, которая имеет целый спектр непредсказуемых последствий для общества [23-27].

Второй проблемой является потенциальное дублирование и расхождение позиций в отношении регулирования ИИ с учётом его многокомпонентной базы, самообучающей системы и возможности ее развертывания на любой выборке данных (военной, медицинской, банковской, государственной и т.д.).

Третьей принципиальной проблемой является вопрос компетенций в области разработки стандартов ИИ для нужд государственного сегмента, который остается в уязвимом положении при издании стандарта частноправовыми организациями.

Указанный контур проблем, по мнению автора, может быть решен введением ряда инициатив на уровне органов власти, а именно путем формирования административных барьеров, в целях обеспечения условий разработки стандартов для нужд публичных органов исключительно государственными научными учреждениями, а также формирование законодательной инициативы по дополнительной верификаций предлагаемых ТК 164 стандартов профильным органом власти, ответственным за разработку и регулирование ИИ, как в целях минимизации трансграничных рисков избыточного регулирования ИИ, так и дублирования положений регулирования представленных в стандартах.

Библиография
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
References
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

РЕЦЕНЗИЯ на статью на тему «Публично-правовые аспекты технического регулирования искусственного интеллекта в России и мире».
Предмет исследования. Предложенная на рецензирование статья посвящена публично-правовым аспектам «…технического регулирования искусственного интеллекта в России и мире». Автором выбран особый предмет исследования: предложенные вопросы исследуются с точки зрения международного, административного и конституционного права России и других государств, при этом автором отмечено, что «На уровне различных государств создаются профильные органы власти, разрабатываются соответствующие стратегические документы». Изучаются НПА, стандарты в области ИИ различных государств и международные, имеющие отношение к цели исследования. Также изучается и обобщается определенный объем российской и зарубежной научной литературы по заявленной проблематике, анализ и дискуссия с данными авторами-оппонентами присутствует. При этом автор отмечает: «Решение № 768/2008/EC Европейского парламента и Совета от 9 июля 2008 г. …, содержит положения о том, что конкретизация локальных стандартов в области ИИ является целевой задачей институтов в области стандартизации (CENELEC, ETSI и т.д.). При этом оценка соответствия продукции является обязанностью только производителя, что также находит свое отражение применительно к ИИ (ст.16,17,51, 60 86 Регламента). Кроме того, статьей 71 Регламента закреплен размер оборотного административного штрафа в размере 2%, 4% или 6% от годового оборота нарушителя».
Методология исследования. Цель исследования определена названием и содержанием работы: «В России стандартизация деятельности возложена на Росстандарт, которым было подготовлено совместно с Минэкономразвития программа по стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021-2024 годы », «Риск-ориентированный подход, предложенный ЕК в отношении ИИ, носит интересный подход в области стандартизации, однако сохраняет за собой вопросы в области верификации ИИ производителем продукции, а не третьими лицами, а указанные институты, являются не публичными образованиями, а НКО». Они могут быть обозначены в качестве рассмотрения и разрешения отдельных проблемных аспектов, связанных с вышеназванными вопросами и использованием определенного опыта. Исходя из поставленных цели и задач, автором выбрана определенная методологическая основа исследования. Автором используется совокупность частнонаучных, специально-юридических методов познания. В частности, методы анализа и синтеза позволили обобщить подходы к предложенной тематике и повлияли на выводы автора. Наибольшую роль сыграли специально-юридические методы. В частности, автором применялись формально-юридический и сравнительно-правовой методы, которые позволили провести анализ и осуществить толкование норм актов международного, российского и зарубежного законодательства и сопоставить различные документы. В частности, делаются такие выводы: «При этом интересным феноменом является как разночтение на уровне документов ГОСТ Р 43.0.8-2017 и ГОСТ Р 59277-2020 в отношении определения ИИ, так и в части практической реализации стандартизации в области ИИ согласно указанной выше программе» и др. Таким образом, выбранная автором методология в полной мере адекватна цели статьи, позволяет изучить многие аспекты темы.
Актуальность заявленной проблематики не вызывает сомнений. Данная тема является важной в мире и в России, с правовой точки зрения предлагаемая автором работа может считаться актуальной, а именно он отмечает «…нельзя не отметить возникающие вопросы позиционирования искусственного интеллекта (ИИ) в контексте технического регулирования и позиции как национальных институтов в области стандартизации, так и публичных органов власти в указанной сфере». И на самом деле здесь должен следовать анализ работ оппонентов, и он следует и автор показывает умение владеть материалом. Тем самым, научные изыскания в предложенной области стоит только приветствовать.
Научная новизна. Научная новизна предложенной статьи не вызывает сомнения. Она выражается в конкретных научных выводах автора. Среди них, например, такой: «…проблемой является потенциальное дублирование и расхождение позиций в отношении регулирования ИИ с учётом его многокомпонентной базы, самообучающей системы и возможности ее развертывания на любой выборке данных (военной, медицинской, банковской, государственной и т.д.)». Как видно, указанный и иные «теоретические» выводы могут быть использованы в дальнейших исследованиях. Таким образом, материалы статьи в представленном виде могут иметь интерес для научного сообщества.
Стиль, структура, содержание. Тематика статьи соответствует специализации журнала «Административное право и практика администрирования», так как посвящена публично-правовым аспектам «…технического регулирования искусственного интеллекта в России и мире». В статье присутствует аналитика по научным работам оппонентов, поэтому автор отмечает, что уже ставился вопрос, близкий к данной теме и автор использует их материалы, дискутирует с оппонентами. Содержание статьи соответствует названию, так как автор рассмотрел заявленные проблемы, достиг цели своего исследования. Качество представления исследования и его результатов следует признать доработанным. Из текста статьи прямо следуют предмет, задачи, методология, результаты исследования, научная новизна. Оформление работы соответствует требованиям, предъявляемым к подобного рода работам. Существенные нарушения данных требований не обнаружены, кроме описок «Указанный регламент определяет горизонтального подход», «не отметить инициативу законодательную инициативу ЕС» и др.
Библиография достаточно полная, содержит публикации, НПА, к которым автор обращается. Это позволяет автору правильно определить проблемы и поставить их на обсуждение. Следует высоко оценить качество представленной и использованной литературы. Присутствие научной литературы показало обоснованность выводов автора и повлияло на выводы автора. Труды приведенных авторов соответствуют теме исследования, обладают признаком достаточности, способствуют раскрытию многих аспектов темы.
Апелляция к оппонентам. Автор провел серьезный анализ текущего состояния исследуемой проблемы. Автор описывает разные точки зрения оппонентов на проблему, аргументирует более правильную по его мнению позицию, опираясь на работы оппонентов, предлагает варианты решения проблем.
Выводы, интерес читательской аудитории. Выводы являются логичными, конкретными «Указанный контур проблем, по мнению автора, может быть решен …путем формирования административных барьеров, в целях обеспечения условий разработки стандартов для нужд публичных органов исключительно государственными научными учреждениями, а также формирование законодательной инициативы по дополнительной верификаций предлагаемых ТК 164 стандартов профильным органом власти» и др. Статья в данном виде может быть интересна читательской аудитории в плане наличия в ней систематизированных позиций автора применительно к заявленным в статье вопросам. На основании изложенного, суммируя все положительные и отрицательные стороны статьи «рекомендую опубликовать» с учетом замечаний.
Ссылка на эту статью

Просто выделите и скопируйте ссылку на эту статью в буфер обмена. Вы можете также попробовать найти похожие статьи


Другие сайты издательства:
Официальный сайт издательства NotaBene / Aurora Group s.r.o.