Top.Mail.Ru
РБК Компании
Главная ГК Softline 26 января 2026

Алхимия из шума:генеративный ИИ научил бизнес создавать визуальные миры

Generative AI перестал быть спецэффектом. Это инфраструктура конкурентоспособности
Алхимия из шума:генеративный ИИ научил бизнес создавать визуальные миры
Источник изображения: Istockphoto.com
Валерия Голубкова-Ягодкина
Валерия Голубкова-Ягодкина
руководитель по комплексному внедрению департамента по развитию цифровой трансформации «Софтлайн Решения» ГК Softline

Отвечает за стратегическое проектирование, внедрение и масштабирование технологий, обеспечивающих устойчивое цифровое развитие заказчиков.

Подробнее про эксперта

— Если языковые модели изменили работу с текстом, то что происходит с визуальным контентом?

— Здесь произошел не менее радикальный сдвиг. Диффузионные модели научили бизнес «видеть» и творить. Они работают по принципу создания из шума — шаг за шагом превращая хаос пикселей в осмысленное изображение. Так появились Midjourney, Stable Diffusion, DALL·E, Kandinsky.

По оценкам Gartner, к 2026 году более 70% крупных компаний будут использовать генеративные модели для визуального контента, а мировой рынок таких решений превысит 60 млрд долларов. И это не про искусство, а про эффективность.

— Где этот эффект ощущается сильнее всего?

— В маркетинге и персонализации. Если раньше команда могла сделать десятки креативов в неделю, сегодня — тысячи. Показательный кейс — проект «Тур в Кустодию» Сбера и СберМаркетинга, где Kandinsky использовался для продвижения выставки Бориса Кустодиева в Третьяковской галерее. Более 90 000 посетителей, свыше 60 000 AI-портретов и мощный UGC-эффект.

— Как меняется работа дизайнеров и продуктовых команд?

— Диффузионные модели стали катализатором прототипирования. Раньше визуализация идеи требовала сложного 3D-рендера, теперь достаточно текстового описания. Компании вроде IKEA и BMW используют Midjourney и Stable Diffusion для быстрых концептов и moodboard.

В архитектуре бюро Zaha Hadid Architects применяет такие подходы для предварительных эскизов фасадов и интерьеров, сокращая концептуальную фазу с недель до часов.

— Видео — следующий рубеж?

— Безусловно. С моделями вроде Runway Gen-2, Sora, Ray2 или Kling создание видео становится таким же простым, как написание сценария. Runway уже сотрудничает с Lionsgate, упрощая раскадровку и спецэффекты. Агентство Ogilvy использует эти технологии для тестовых рекламных видео, сокращая бюджеты с сотен тысяч долларов до десятков.

— Что происходит, когда языковые и визуальные модели начинают работать вместе?

— Возникает синергия. LLM становится «режиссером», который понимает задачу и формирует промпты, а диффузионная модель — «художником». Уже сейчас это реализовано в Adobe Firefly, плагинах GPT для Figma или Autodesk Forma.

В результате появляются не просто картинки, а логически выстроенные цифровые концепции — под конкретную бизнес-задачу. Текст и визуал больше не существуют отдельно, они живут в одной экосистеме.

— К какому выводу должен прийти бизнес?

— Generative AI перестал быть спецэффектом. Это инфраструктура конкурентоспособности. Компании, которые сегодня относятся к ИИ как к игрушке, завтра будут покупать результаты у тех, кто встроил его в свои процессы.

ИИ не заменяет человека. Но человек, умеющий работать с ИИ, неизбежно заменит того, кто этого не делает. Это уже не прогноз — это наблюдаемая реальность.

Интересное:

Новости отрасли:

Все новости:

Публикация компании

Контакты

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия