'
Кантемирова Е.Д.
СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ *
Аннотация:
Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь
Ключевые слова:
искусственный интеллект, правовое регулирование, угрозы, конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность, прозрачность, международный опыт
УДК 349
Кантемирова Е.Д.
студент Международно-правового института
Московский государственный юридический университет
имени О.Е. Кутафина
(г. Москва, Россия)
СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ
Аннотация: Искусственный интеллект (ИИ) представляет собой значительный вызов для правового регулирования во всем мире. В статье рассматриваются основные угрозы ИИ в правовой сфере, такие как конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность и прозрачность. Рассматриваются лучшие международные практики по предотвращению этих угроз, такие как разработка законодательства о защите данных и интеллектуальной собственности, ужесточение требований к прозрачности и создание специальных органов для регулирования ИИ. Также представлены конкретные рекомендации для России по усилению правового регулирования в этой области, основанные на международном опыте. Статья подчеркивает необходимость улучшения правового регулирования ИИ, чтобы обеспечить эффективную защиту прав и свобод человека в мире, где ИИ все более интегрирован в нашу повседневную жизнь.
Ключевые слова: искусственный интеллект, правовое регулирование, угрозы, конфиденциальность данных, дискриминация, ответственность, интеллектуальная собственность, прозрачность, международный опыт
Искусственный интеллект (ИИ) — это технология, которая использует алгоритмы и данные для обучения машин, чтобы они могли выполнять задачи, которые раньше могли решать только люди. Использование ИИ имеет большой потенциал для улучшения жизни людей и сокращения времени на выполнение рутинных задач. Однако, как и любая технология, ИИ должен быть правильно регулирован, чтобы предотвратить возможные негативные последствия, такие как нарушение прав человека и угрозы безопасности.
История правового регулирования искусственного интеллекта восходит к 1950-м годам, когда были разработаны первые системы искусственного интеллекта. В то время искусственный интеллект был в первую очередь исследовательским инструментом, и правовой или нормативный надзор за его разработкой и использованием был незначительным.
В 1960-х и 1970-х годах, когда системы искусственного интеллекта начали использоваться в коммерческих приложениях, были высказаны опасения по поводу потенциальных рисков и негативных последствий искусственного интеллекта. Это привело к разработке этических и правовых рамок, регулирующих разработку и использование систем искусственного интеллекта.
В 1980-х и 1990-х годах правовая и нормативная база для искусственного интеллекта продолжала развиваться по мере того, как искусственный интеллект становился все более распространенным в различных отраслях промышленности. В 1986 году Соединенные Штаты приняли Закон о компьютерном мошенничестве и злоупотреблениях, который запрещал доступ к компьютерной системе без разрешения или использование компьютера для совершения преступления [1].
В начале 2000-х годов опасения по поводу этических и юридических последствий искусственного интеллекта росли по мере того, как системы искусственного интеллекта становились все более изощренными и начали использоваться во все более сложных приложениях. В 2009 году Европейский союз учредил Европейскую группу по этике в науке и новых технологиях [2], которая отвечает за предоставление рекомендаций по этическим и правовым вопросам, связанным с разработкой и использованием искусственного интеллекта.
Сегодня многие страны создали правовую и нормативную базу для искусственного интеллекта, включая законы и подзаконные акты, регулирующие конфиденциальность данных, дискриминацию, ответственность и интеллектуальную собственность. Эти законы и нормативные акты призваны гарантировать, что системы искусственного интеллекта разрабатываются и используются этичным и ответственным образом [3].
Искусственный интеллект может представлять различные юридические угрозы, включая следующие [4, 5]:
Рассмотрим примеры правовых угроз ИИ, а также лучшие международные практики по нейтрализации данных угроз (таблица 1).
Таблица 1. Примеры правовых угроз ИИ и лучшие международные практики по их нейтрализации
Правовые угрозы ИИ |
Пример |
Лучшие международные практики |
Конфиденциальности данных |
Использование систем распознавания лиц в общественных местах. В некоторых странах были зарегистрированы случаи неправомерного использования этих систем для сбора и хранения персональных данных граждан, включая фотографии и видеозаписи без их согласия. Это может привести к нарушению прав на конфиденциальность и частную жизнь людей, а также угрожать их безопасности в случае утечки таких данных. |
Общий регламент по защите данных (GDPR) в Европейском союзе ужесточил законы о конфиденциальности данных и увеличил штрафы для компаний, которые их нарушают. Другие страны последовали этому примеру, например, Бразилия с ее Общим законом о защите данных (LGPD) и Калифорния с ее Законом о конфиденциальности потребителей (CCPA). |
Дискриминации |
В 2016 году исследование ProPublica показало, что алгоритм, используемый американской компанией для прогнозирования уровня рецидивизма, имеет расовую предвзятость. |
В 2018 году правительство Великобритании создало Центр этики и инноваций в области данных, чтобы консультировать по вопросам этического использования данных и ИИ. Закон об алгоритмической ответственности, предложенный в США, потребует от компаний оценки возможности дискриминации в их алгоритмах. |
Ответственности |
В 2018 году беспилотный автомобиль сбил пешехода в Аризоне, что вызвало вопросы об ответственности за несчастные случаи, вызванные ИИ. |
Правительство Великобритании предложило новый кодекс поведения для разработчиков ИИ, который будет включать принципы подотчетности и прозрачности. Европейский парламент также предложил, чтобы разработчики ИИ имели страховой полис для покрытия ущерба, причиненного их технологией. |
Интеллектуальной собственности |
В 2012 году было обнаружено, что Google нарушил авторские права Oracle на Java при разработке своей операционной системы Android. |
Верховный суд США разъяснил, что программное обеспечение может быть запатентовано, если оно отвечает определенным требованиям. Всемирная организация интеллектуальной собственности (ВОИС) разработала правила патентования изобретений ИИ. |
Прозрачности |
Cambridge Analytica использовала личные данные более чем 50 миллионов пользователей Facebook, чтобы создать профили для предсказания их политических убеждений и поведения. Это вызвало серьезные вопросы о прозрачности использования личных данных пользователей социальных медиа и подчеркнуло необходимость прозрачности и контроля над использованием личных данных в Интернете. |
Федеральная торговая комиссия США выпустила руководство по использованию объяснимого ИИ (XAI) для повышения прозрачности и подотчетности систем ИИ. Закон об алгоритмической прозрачности, предложенный в США, потребует от компаний раскрывать информацию о том, когда они используют алгоритмы для принятия решений. |
Эти примеры демонстрируют, как разные страны устраняют юридические угрозы, создаваемые искусственным интеллектом, с помощью законодательства и подзаконных актов, позволяя разрешать споры с помощью правовых рамок.
Правовое регулирование искусственного интеллекта в России находится на стадии развития, но уже существуют некоторые законы и инициативы в этой области.
В 2019 году президент России Владимир Путин поручил правительству разработать национальную стратегию развития искусственного интеллекта до 2030 года [6]. Эта стратегия была утверждена в октябре 2019 года и содержит рекомендации по регулированию ИИ, в том числе по защите прав потребителей и обеспечению конфиденциальности данных.
Также в России существует проект Федерального закона «Об искусственном интеллекте», разработанный Минцифры России. Этот законопроект предусматривает определение ИИ, его видов и классификацию, а также устанавливает правила и ограничения для использования ИИ, включая обязательную процедуру оценки влияния ИИ на окружающую среду.
Несмотря на наличие некоторых законов и инициатив, в России все еще есть недостаток ясности и конкретики в правовом регулировании ИИ [7]:
На основе проведенного анализа международного опыта мы разработали рекомендации по правовому регулированию искусственного интеллекта в России:
Эти рекомендации основаны на лучших международных практиках и могут помочь России создать более эффективную систему правового регулирования использования искусственного интеллекта.
Несмотря на все усилия по минимизации правовых угроз ИИ, юридические и этические проблемы, связанные с его использованием, сохраняются, включая опасения по поводу того, что ИИ может быть предвзятым, дискриминационным или причинять вред отдельным лицам или обществу в целом. Поскольку технология искусственного интеллекта продолжает развиваться, очевидно, что правовая и нормативная база для искусственного интеллекта также продолжит развиваться.
СПИСОК ЛИТЕРАТУРЫ:
Номер журнала Вестник науки №4 (61) том 3
Ссылка для цитирования:
Кантемирова Е.Д. СОВЕРШЕНСТВОВАНИЕ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ // Вестник науки №4 (61) том 3. С. 111 - 121. 2023 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/7772 (дата обращения: 26.04.2024 г.)
Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2023. 16+
*