'
Научный журнал «Вестник науки»

Режим работы с 09:00 по 23:00

zhurnal@vestnik-nauki.com

Информационное письмо

  1. Главная
  2. Архив
  3. Вестник науки №4 (61) том 3
  4. Научная статья № 24

Просмотры  160 просмотров

Кантемирова Е.Д.

  


СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ *

  


Аннотация:
Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь   

Ключевые слова:
искусственный интеллект, правовое регулирование, угрозы, конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность, прозрачность, международный опыт   


УДК 349

Кантемирова Е.Д.
студент Международно-правового института
Московский государственный юридический университет

имени О.Е. Кутафина
(г. Москва, Россия)

СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ

 

Аннотация: Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь.

 

Ключевые слова: искусственный интеллект, правовое регулирование, угрозы, конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность, прозрачность, международный опыт

 

Искусственный интеллект (ИИ) — это технология, которая использует алгоритмы и данные для обучения машин, чтобы они могли выполнять задачи, которые раньше могли решать только люди. Использование ИИ имеет большой потенциал для улучшения жизни людей и сокращения времени на выполнение рутинных задач. Однако, как и любая технология, ИИ должен быть правильно регулирован, чтобы предотвратить возможные негативные последствия, такие как нарушение прав человека и угрозы безопасности.

История правового регулирования искусственного интеллекта восходит к 1950-м годам, когда были разработаны первые системы искусственного интеллекта. В то время искусственный интеллект был в первую очередь исследовательским инструментом, и правовой или нормативный надзор за его разработкой и использованием был незначительным.

В 1960-х и 1970-х годах, когда системы искусственного интеллекта начали использоваться в коммерческих приложениях, были высказаны опасения по поводу потенциальных рисков и негативных последствий искусственного интеллекта. Это привело к разработке этических и правовых рамок, регулирующих разработку и использование систем искусственного интеллекта.

В 1980-х и 1990-х годах правовая и нормативная база для искусственного интеллекта продолжала развиваться по мере того, как искусственный интеллект становился все более распространенным в различных отраслях промышленности. В 1986 году Соединенные Штаты приняли Закон о компьютерном мошенничестве и злоупотреблениях, который запрещал доступ к компьютерной системе без разрешения или использование компьютера для совершения преступления [1].

В начале 2000-х годов опасения по поводу этических и юридических последствий искусственного интеллекта росли по мере того, как системы искусственного интеллекта становились все более изощренными и начали использоваться во все более сложных приложениях. В 2009 году Европейский союз учредил Европейскую группу по этике в науке и новых технологиях [2], которая отвечает за предоставление рекомендаций по этическим и правовым вопросам, связанным с разработкой и использованием искусственного интеллекта.

Сегодня многие страны создали правовую и нормативную базу для искусственного интеллекта, включая законы и подзаконные акты, регулирующие конфиденциальность данных, дискриминацию, ответственность и интеллектуальную собственность. Эти законы и нормативные акты призваны гарантировать, что системы искусственного интеллекта разрабатываются и используются этичным и ответственным образом [3].

Искусственный интеллект может представлять различные юридические угрозы, включая следующие [4, 5]:

  1. Конфиденциальности данных. Искусственный интеллект использует большие объемы данных для обучения и принятия решений. Если эти данные содержат личную или конфиденциальную информацию, они могут подвергаться риску несанкционированного доступа или неправильного использования, что может привести к нарушениям законов о защите данных.
  2. Дискриминации. Системы искусственного интеллекта могут увековечивать существующие предубеждения и дискриминировать определенных людей или группы, намеренно или непреднамеренно. Это может привести к судебным разбирательствам, связанным с дискриминацией и равным обращением.
  3. Ответственности. По мере того, как системы искусственного интеллекта становятся все более сложными и автономными, может стать трудно назначить ответственность в случае несчастных случаев или ошибок. Это может создать юридические проблемы, связанные с ответственностью за продукт.
  4. Интеллектуальной собственности. Системы искусственного интеллекта могут создавать новые произведения или изобретения, что вызывает вопросы о том, кому принадлежат права на эти творения. Это может привести к судебным разбирательствам, связанным с интеллектуальной собственностью и патентным правом.
  5. Прозрачности. Системы искусственного интеллекта могут быть непрозрачными, что затрудняет понимание того, как принимаются решения. Такое отсутствие прозрачности может вызвать юридические и этические вопросы, связанные с подотчетностью, особенно в таких отраслях, как здравоохранение и финансы.

Рассмотрим примеры правовых угроз ИИ, а также лучшие международные практики по нейтрализации данных угроз (таблица 1).

 

Таблица 1. Примеры правовых угроз ИИ и лучшие международные практики по их нейтрализации

Правовые угрозы ИИ

Пример

Лучшие международные практики

Конфиденциальности данных

Использование систем распознавания лиц в общественных местах. В некоторых странах были зарегистрированы случаи неправомерного использования этих систем для сбора и хранения персональных данных граждан, включая фотографии и видеозаписи без их согласия. Это может привести к нарушению прав на конфиденциальность и частную жизнь людей, а также угрожать их безопасности в случае утечки таких данных.

Общий регламент по защите данных (GDPR) в Европейском союзе ужесточил законы о конфиденциальности данных и увеличил штрафы для компаний, которые их нарушают. Другие страны последовали этому примеру, например, Бразилия с ее Общим законом о защите данных (LGPD) и Калифорния с ее Законом о конфиденциальности потребителей (CCPA).

Дискриминации

В 2016 году исследование ProPublica показало, что алгоритм, используемый американской компанией для прогнозирования уровня рецидивизма, имеет расовую предвзятость.

В 2018 году правительство Великобритании создало Центр этики и инноваций в области данных, чтобы консультировать по вопросам этического использования данных и ИИ. Закон об алгоритмической ответственности, предложенный в США, потребует от компаний оценки возможности дискриминации в их алгоритмах.

Ответственности

В 2018 году беспилотный автомобиль сбил пешехода в Аризоне, что вызвало вопросы об ответственности за несчастные случаи, вызванные ИИ.

Правительство Великобритании предложило новый кодекс поведения для разработчиков ИИ, который будет включать принципы подотчетности и прозрачности. Европейский парламент также предложил, чтобы разработчики ИИ имели страховой полис для покрытия ущерба, причиненного их технологией.

Интеллектуальной собственности

В 2012 году было обнаружено, что Google нарушил авторские права Oracle на Java при разработке своей операционной системы Android.

Верховный суд США разъяснил, что программное обеспечение может быть запатентовано, если оно отвечает определенным требованиям. Всемирная организация интеллектуальной собственности (ВОИС) разработала правила патентования изобретений ИИ.

Прозрачности

Cambridge Analytica использовала личные данные более чем 50 миллионов пользователей Facebook, чтобы создать профили для предсказания их политических убеждений и поведения. Это вызвало серьезные вопросы о прозрачности использования личных данных пользователей социальных медиа и подчеркнуло необходимость прозрачности и контроля над использованием личных данных в Интернете.

Федеральная торговая комиссия США выпустила руководство по использованию объяснимого ИИ (XAI) для повышения прозрачности и подотчетности систем ИИ. Закон об алгоритмической прозрачности, предложенный в США, потребует от компаний раскрывать информацию о том, когда они используют алгоритмы для принятия решений.

 

Эти примеры демонстрируют, как разные страны устраняют юридические угрозы, создаваемые искусственным интеллектом, с помощью законодательства и подзаконных актов, позволяя разрешать споры с помощью правовых рамок.

Правовое регулирование искусственного интеллекта в России находится на стадии развития, но уже существуют некоторые законы и инициативы в этой области.

В 2019 году президент России Владимир Путин поручил правительству разработать национальную стратегию развития искусственного интеллекта до 2030 года [6]. Эта стратегия была утверждена в октябре 2019 года и содержит рекомендации по регулированию ИИ, в том числе по защите прав потребителей и обеспечению конфиденциальности данных.

Также в России существует проект Федерального закона «Об искусственном интеллекте», разработанный Минцифры России. Этот законопроект предусматривает определение ИИ, его видов и классификацию, а также устанавливает правила и ограничения для использования ИИ, включая обязательную процедуру оценки влияния ИИ на окружающую среду.

Несмотря на наличие некоторых законов и инициатив, в России все еще есть недостаток ясности и конкретики в правовом регулировании ИИ [7]:

  1. Отсутствие четкого определения того, что считается ИИ. В законодательстве России отсутствует определение ИИ, что может привести к разногласиям и неопределенности в его применении.
  2. Нехватка законодательства, регулирующего использование ИИ в различных областях, таких как здравоохранение, банковское дело, транспорт и т.д.
  3. Необходимость улучшения механизмов защиты данных, связанных с использованием ИИ. Российское законодательство обеспечивает защиту персональных данных, однако недостаточно четко определено, как эта защита должна осуществляться при использовании ИИ.
  4. Недостаточно развитая система ответственности за применение ИИ. Необходимо уточнение ответственности за применение ИИ в различных областях, например, в медицине, где неправильное решение, принятое ИИ, может повлиять на жизнь пациента.
  5. Нехватка механизмов для обеспечения прозрачности принятия решений на основе ИИ. Для того чтобы сделать решения на основе ИИ более прозрачными, необходимо установить механизмы, позволяющие пользователям легко получать информацию о том, как ИИ принимает решения и как эти решения могут повлиять на них.

На основе проведенного анализа международного опыта мы разработали рекомендации по правовому регулированию искусственного интеллекта в России:

  • Разработка и внедрение механизмов оценки рисков, связанных с применением ИИ, включая оценку влияния на права человека и конституционные принципы, и учет этих рисков при разработке законов и политик.
  • Разработка и внедрение нормативных актов, обеспечивающих прозрачность и открытость процессов принятия решений на основе ИИ.
  • Разработка и внедрение механизмов ответственности за использование ИИ, включая установление стандартов надлежащей заботы при разработке, тестировании и внедрении ИИ.
  • Разработка и внедрение механизмов защиты данных и конфиденциальности при использовании ИИ, включая обеспечение прозрачности при сборе, использовании и обработке данных.
  • Разработка и внедрение механизмов защиты интеллектуальной собственности, включая права на патенты, авторские права и торговые марки, связанные с использованием ИИ.
  • Установление механизмов международного сотрудничества для разработки общих стандартов и норм в области правового регулирования ИИ.
  • Развитие механизмов государственного регулирования ИИ, включая создание органов, ответственных за регулирование использования ИИ и защиту прав человека в этой области.
  • Обеспечение широкой консультации и участия всех заинтересованных сторон в процессе разработки и принятия законов и политик, связанных с ИИ.
  • Обеспечение эффективной системы обучения и подготовки специалистов в области ИИ и права, в том числе путем создания специализированных курсов и программ обучения.

Эти рекомендации основаны на лучших международных практиках и могут помочь России создать более эффективную систему правового регулирования использования искусственного интеллекта.

Несмотря на все усилия по минимизации правовых угроз ИИ, юридические и этические проблемы, связанные с его использованием, сохраняются, включая опасения по поводу того, что ИИ может быть предвзятым, дискриминационным или причинять вред отдельным лицам или обществу в целом. Поскольку технология искусственного интеллекта продолжает развиваться, очевидно, что правовая и нормативная база для искусственного интеллекта также продолжит развиваться.

 

СПИСОК ЛИТЕРАТУРЫ:

 

  1. Computer Fraud and Abuse Act (CFAA) [Электронный ресурс]. URL: https://www.nacdl.org/Landing/ComputerFraudandAbuseAct (дата обращения: 25.03.23).
  2. European Group on Ethics in Science and New Technologies (High Level) (EGE) [Электронный ресурс]. URL: https://www.eumonitor.eu/9353000/1/j9vvik7m1c3gyxp/vk66hky9lrxh (дата обращения: 24.03.23).
  3. Тюлякова С. Сравнительный анализ правового регулирования технологий искусственного интеллекта в России, США, ЕС и Китае // Сравнительное правоведение в условиях интернационализации науки и образования : Материалы IV Всероссийской научной конференции молодых ученых Института международного права и правосудия Московского государственного лингвистического университета. С. 19–26.
  4. Баттахов П. П. Правовые проблемы в сфере интеллектуальной собственности в законодательстве Российской Федерации // Право и государство: теория и практика. 2021. № 7(199). С. 9–
  5. Изотова В. Ф. Проблемы правового регулирования искусственного интеллекта киберфизических систем и робототехники // Проблемы и вызовы цифрового общества: тенденции развития правового регулирования цифровых трансформаций : Сборник научных трудов по материалам I Международной научно-практической конференции. 2019. С. 125–
  6. Федеральный проект «Искусственный интеллект» [Электронный ресурс]. URL: https://www.economy.gov.ru/material/directions/fed_proekt_iskusstvennyy_intellekt/ (дата обращения: 28.03.23).
  7. Келепова М.Е., Молодчик А.В., Нагорная М.С. Правовое и институциональное регулирование искусственного интеллекта на международном и национальном уровнях // Управление в современных системах. 2022. №3 (35). С. 68–78.
  


Полная версия статьи PDF

Номер журнала Вестник науки №4 (61) том 3

  


Ссылка для цитирования:

Кантемирова Е.Д. СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ // Вестник науки №4 (61) том 3. С. 111 - 121. 2023 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/7772 (дата обращения: 26.04.2024 г.)


Альтернативная ссылка латинскими символами: vestnik-nauki.com/article/7772



Нашли грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики) ?
- напишите письмо в редакцию журнала: zhurnal@vestnik-nauki.com


Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2023.    16+




* В выпусках журнала могут упоминаться организации (Meta, Facebook, Instagram) в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25 июля 2002 года № 114-ФЗ 'О противодействии экстремистской деятельности' (далее - Федеральный закон 'О противодействии экстремистской деятельности'), или об организации, включенной в опубликованный единый федеральный список организаций, в том числе иностранных и международных организаций, признанных в соответствии с законодательством Российской Федерации террористическими, без указания на то, что соответствующее общественное объединение или иная организация ликвидированы или их деятельность запрещена.