'
Казаченко И.С.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МОШЕННИЧЕСТВО: НОВЫЕ УГРОЗЫ И СПОСОБЫ ПРОТИВОДЕЙСТВИЯ *
Аннотация:
в статье рассматривается влияние современных технологий искусственного интеллекта (ИИ) на эволюцию мошеннических схем. Анализируются ключевые ИИ-модели (GPT, DALL·E, Deepfake), их использование в создании фальшивого контента, фишинга и финансовых махинаций. Приводятся статистические данные и реальные кейсы, демонстрирующие рост угроз. Предложены меры противодействия, включающие технологические, законодательные и образовательные решения. Особое внимание уделено перспективам развития ИИ-мошенничества и необходимости межсекторного сотрудничества для обеспечения цифровой безопасности.
Ключевые слова:
искусственный интеллект, мошенничество, дипфейк, фишинг, кибербезопасность, цифровые угрозы, противодействие
В последние годы развитие искусственного интеллекта (ИИ) совершило значительный прорыв, предоставив многим из нас инструменты для автоматизации, персонализации и повышения эффективности в совершенно различных областях нашей жизнедеятельности. Однако его развитие также привело к появлению новых угроз: злоумышленники активно применяют ИИ для создания сложных и труднораспознаваемых мошеннических схем. Например, современные генеративные ИИ-модели, такие как GPT, позволяют создавать реалистичные тексты, изображения и аудиозаписи, что открывает широкий спектр возможностей для мошенников. При этом можно отменить наиболее популярные: 1) Deepfake (глубокие подделки) – создание фальшивых видео и аудио, где известные люди или руководители компаний «говорят» то, чего на самом деле не было. Такие подделки применяются для дезинформации или манипуляций.2) Фишинг с использованием ИИ – автоматизированная генерация персонализированных писем, которые сложно отличить от настоящих. В отличие от традиционного фишинга, такие сообщения часто направлены конкретным жертвам.3) Инвестиционные мошенничества – создание поддельных платформ с ИИ, имитирующих реальные финансовые операции и отзывы клиентов для обмана инвесторов.Развитие ИИ происходит стремительно: если в 2012 году прорывом стали нейросети для обработки изображений (например, AlexNet), то к 2020 году трансформеры (BERT, GPT, T5) кардинально изменили сферу обработки естественного языка (NLP).При этом к факторам, ускоряющим развитие ИИ можно в целом отнести значительный рост вычислительных мощностей (GPU, TPU). Также открытость датасетов и фреймворков (HuggingFace, TensorFlow, PyTorch), которые используются для обучения моделей. Более того, сейчас сильная конкуренция между технологическими гигантами (Google, Meta, Microsoft и др.). Рассмотрим статистику и реальные случаи. Например, по оценкам Deloitte, убытки от ИИ-мошенничества в США к 2027 году могут достичь $40 млрд. Также в 2024 году использование ИИ для создания фишинговых писем увеличилось на 118%. Не обходится и без «Deepfake-атак», в 2024 году сотрудник британской компании Arup перевел мошенникам $25 млн, поверив в поддельное видео с «руководством». Вполне логично возникает вопрос, как противостоять ИИ-мошенничеству? Во-первых, необходимо активно применять технологические решения, а именно внедрение систем обнаружения deepfake, анализ аномалий в поведении пользователей. Также стоит проработать данный вопрос с помощью законодательного регулирования. Например, можно рассмотреть ужесточение законов об использовании ИИ и наказание за его злоупотребление. И последним, но немаловажным, является повышение осведомленности населения, необходимо перманентно обучать людей распознаванию популярных мошеннических схем. В ближайшие годы мошенничество с ИИ станет еще сложнее, так как сам по себе ИИ-инструмент стремительно эволюционирует. Не за горами возможные атаки с подделкой биометрии, генерацией фейковых новостей и манипуляцией общественным мнением. Соответственно противодействие потребует больших усилий, а также сотрудничества государства, бизнеса, науки и самих граждан. Поэтому искусственный интеллект является не только новой перспективной возможностью для решения простых повседневных задач, но в то же время представляет собой серьезную угрозу в руках преступников. Эффективная борьба с мошенничеством требует комплексного подхода, включающего технологии, законы и просвещение, в целом необходим пересмотр традиционных подходов к кибербезопасности. Таким образом, для эффективного противодействия новым угрозам необходимо:Развивать передовые технологии обнаружения Укреплять международное законодательствоПовышать цифровую грамотность населенияСоздавать межотраслевые партнерстваТолько комплексный подход позволит минимизировать риски и обеспечить безопасное развитие цифрового общества в эпоху искусственного интеллекта.
Номер журнала Вестник науки №7 (88) том 3
Ссылка для цитирования:
Казаченко И.С. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МОШЕННИЧЕСТВО: НОВЫЕ УГРОЗЫ И СПОСОБЫ ПРОТИВОДЕЙСТВИЯ // Вестник науки №7 (88) том 3. С. 135 - 139. 2025 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/25148 (дата обращения: 14.02.2026 г.)
Вестник науки © 2025. 16+