'
Научный журнал «Вестник науки»

Режим работы с 09:00 по 23:00

zhurnal@vestnik-nauki.com

Информационное письмо

  1. Главная
  2. Архив
  3. Вестник науки №5 (86) том 2
  4. Научная статья № 91

Просмотры  148 просмотров

Аманова Ай., Юзбашев С., Курамбаев Дж.

  


ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ЭВОЛЮЦИЯ, ТЕКУЩИЕ ВОЗМОЖНОСТИ И ЭТИЧЕСКИЕ ВЫЗОВЫ *

  


Аннотация:
статья посвящена исследованию генеративного искусственного интеллекта (ГИИ) – стремительно развивающейся области компьютерных наук, обладающей потенциалом к трансформации множества секторов экономики и общественной жизни. Рассматривается эволюция ГИИ, начиная от ранних статистических моделей до современных сложных архитектур, таких как генеративно-состязательные сети (GAN), вариационные автоэнкодеры (VAE), трансформеры и диффузионные модели. Анализируются ключевые возможности этих технологий в создании разнообразного контента: текстов, изображений, аудио, видео и программного кода. Особое внимание уделяется широкому спектру применений ГИИ – от искусства и развлечений до науки, медицины и разработки программного обеспечения.   

Ключевые слова:
генеративный искусственный интеллект, машинное обучение, нейронные сети, генеративно-состязательные сети, большие языковые модели, диффузионные модели, этика ИИ, дипфейки, авторское право, дезинформация   


В последние годы генеративный искусственный интеллект (ГИИ) превратился из узкоспециализированной области исследований в одну из самых обсуждаемых и влиятельных технологий современности. Под генеративным ИИ понимают класс алгоритмов машинного обучения, способных создавать новый, оригинальный контент, который ранее не существовал, но похож на данные, на которых эти алгоритмы обучались. Этот контент может принимать различные формы: от реалистичных изображений и человекоподобных текстов до музыкальных композиций, видеороликов и даже строк программного кода.Истоки ГИИ можно проследить до ранних работ в области статистического моделирования и распознавания образов. Однако настоящий прорыв произошел с развитием глубокого обучения и появлением инновационных архитектур нейронных сетей. Ключевыми вехами стали разработка генеративно-состязательных сетей (GAN) Яном Гудфеллоу и его коллегами в 2014 году, а также последующий взрывной рост популярности и возможностей трансформерных архитектур, лежащих в основе современных больших языковых моделей (LLM), таких как GPT (Generative Pre-trained Transformer) от OpenAI, LaMDA от Google и других. В последние годы значительные успехи также демонстрируют диффузионные модели, способные генерировать изображения фотографического качества.Актуальность исследования ГИИ обусловлена его стремительным проникновением во все сферы человеческой деятельности. Компании используют его для создания маркетинговых материалов, разработчики – для ускорения написания кода, ученые – для генерации гипотез и моделирования сложных систем, а художники и дизайнеры – для поиска новых форм творческого самовыражения. Вместе с тем, столь мощный инструмент несет в себе и значительные риски. Возможность генерировать неотличимый от реальности фейковый контент (дипфейки), распространять дезинформацию в промышленных масштабах, нарушать авторские права и усиливать существующие социальные предвзятости требует пристального внимания и глубокого осмысления.Целью настоящей статьи является комплексный анализ эволюции генеративного ИИ, обзор его текущих возможностей и областей применения, а также критическое рассмотрение ключевых этических проблем и вызовов, связанных с его использованием.Задачи исследования:Проследить основные этапы развития архитектур ГИИ.Описать принципы работы и возможности ключевых моделей ГИИ (GAN, VAE, трансформеры, диффузионные модели).Проанализировать примеры успешного применения ГИИ в различных отраслях.Выявить и систематизировать основные этические проблемы и риски, ассоциированные с ГИИ.Обозначить возможные пути развития и подходы к регулированию технологий ГИИ для минимизации негативных последствий.Развитие генеративного ИИ тесно связано с прогрессом в области машинного обучения и, в частности, глубоких нейронных сетей. Рассмотрим основные архитектуры, ставшие драйверами этого развития.Генеративно-состязательные сети (Generative Adversarial Networks, GANs) Предложенные в 2014 году Яном Гудфеллоу, GANs представляют собой систему из двух нейронных сетей, конкурирующих друг с другом в рамках игры с нулевой суммой.Генератор (Generator): Пытается создавать данные (например, изображения), которые выглядят как настоящие. Он обучается преобразовывать случайный шум в правдоподобные образцы.Дискриминатор (Discriminator): Пытается отличить настоящие данные (из обучающей выборки) от данных, сгенерированных генератором. В процессе обучения генератор стремится обмануть дискриминатор, а дискриминатор – лучше распознавать подделки. Это состязание приводит к тому, что генератор начинает производить все более качественный и реалистичный контент. GANs нашли широкое применение в генерации изображений, видео, улучшении качества изображений (super-resolution) и стилизации.Недостатки: Сложность обучения (нестабильность, коллапс мод), трудность в оценке качества генерации.1.2. Вариационные автоэнкодеры (Variational Autoencoders, VAEs) VAE – это генеративные модели, которые обучаются латентному (скрытому) представлению данных. Они состоят из двух частей:Энкодер (Encoder): Преобразует входные данные в параметры распределения в латентном пространстве (обычно среднее значение и дисперсию).Декодер (Decoder): Преобразует точку из латентного пространства обратно в пространство исходных данных, генерируя новый образец. VAE обучаются путем максимизации нижней оценки логарифма правдоподобия данных. Они генерируют более разнообразные, но иногда менее четкие изображения по сравнению с GANs, и часто используются для задач, где важна плавная интерполяция в латентном пространстве.1.3. Трансформеры (Transformers) и большие языковые модели (LLMs) Архитектура «Трансформер», представленная Google в 2017 году в статье «Attention Is All You Need», произвела революцию в обработке естественного языка (NLP) и стала основой для большинства современных LLM. Ключевым элементом трансформера является механизм внимания (attention mechanism), который позволяет модели взвешивать важность различных частей входной последовательности при генерации выходной. LLM, такие как GPT-3/4, PaLM, Llama, обучаются на огромных массивах текстовых данных и способны генерировать связные и осмысленные тексты, отвечать на вопросы, переводить, писать код, суммировать информацию и многое другое. Их генеративные возможности вышли далеко за пределы текста, распространяясь на генерацию изображений по текстовому описанию (например, DALL-E, Imagen, Midjourney, которые часто используют трансформеры в сочетании с другими архитектурами).1.4. Диффузионные модели (Diffusion Models) Относительно новый класс генеративных моделей, который в последние годы демонстрирует выдающиеся результаты, особенно в генерации высококачественных изображений. Принцип их работы основан на двух процессах:Прямой процесс (Forward process): Постепенное добавление шума к исходным данным до тех пор, пока они не превратятся в чистый шум.Обратный процесс (Reverse process): Обучение нейронной сети постепенному удалению шума из случайного сигнала, чтобы восстановить исходные данные или сгенерировать новые. Диффузионные модели (например, Stable Diffusion, DALL-E 2, Imagen) способны генерировать изображения с беспрецедентным уровнем детализации и реализма по текстовым описаниям.   


Полная версия статьи PDF

Номер журнала Вестник науки №5 (86) том 2

  


Ссылка для цитирования:

Аманова Ай., Юзбашев С., Курамбаев Дж. ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ЭВОЛЮЦИЯ, ТЕКУЩИЕ ВОЗМОЖНОСТИ И ЭТИЧЕСКИЕ ВЫЗОВЫ // Вестник науки №5 (86) том 2. С. 752 - 757. 2025 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/22919 (дата обращения: 20.07.2025 г.)


Альтернативная ссылка латинскими символами: vestnik-nauki.com/article/22919



Нашли грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики) ?
- напишите письмо в редакцию журнала: zhurnal@vestnik-nauki.com


Вестник науки © 2025.    16+




* В выпусках журнала могут упоминаться организации (Meta, Facebook, Instagram) в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25 июля 2002 года № 114-ФЗ 'О противодействии экстремистской деятельности' (далее - Федеральный закон 'О противодействии экстремистской деятельности'), или об организации, включенной в опубликованный единый федеральный список организаций, в том числе иностранных и международных организаций, признанных в соответствии с законодательством Российской Федерации террористическими, без указания на то, что соответствующее общественное объединение или иная организация ликвидированы или их деятельность запрещена.