Большие языковые модели — большие возможности для бизнес-процессов
Сейчас крупные российские компании активно внедряют собственные LLM-решения, а малый и средний бизнес использует их в своих процессах

Генеральный директор компании NLABTEAM, команды IT-специалистов, которые более 20 лет создают программное обеспечение для отечественных и международных компаний.
От внешних решений к собственным: как развивает рынок LLM в России
Россия развивает рынок больших языковых моделей, догоняя мировых лидеров — OpenAI (GPT), китайские DeepSeek и Qwen, а также Google с Gemini.
GigaChat от Сбера и YandexGPT от Яндекса занимают ведущие позиции в сегменте коммерческих решений в России, но большая часть LLM-айсберга скрыта. Существует множество open-source моделей, которые применяются для создания специализированных решений в разных отраслях.
Внедрение больших языковых моделей идет по двум следующим направлениям:
1. Компании создают собственные версии LLM, основываясь на архитектурах LLaMA, DeepSeek, Phi, Mistral или Qwen, обучая их на внутренних данных.
Главное преимущество: у компании есть полный контроль над поведением LLM, так как известен и набор данных для обучения, и примененные методы обучения.
Кому подходит: такая стратегия требует много ресурсов и подходит крупному бизнесу, а также промышленным холдингам с мощными R&D-отделами.
Пример: крупный банк обучает свою закрытую LLM на основе внутренних данных, таких как клиентские обращения, паттерны транзакций и регуляторные требования. Это позволяет ему создать интеллектуального финансового ассистента, который предоставляет клиентам консультации с учетом их операций и помогает выявлять подозрительные транзакции. В результате банк повышает качество сервиса, сокращает затраты и обеспечивает защиту данных.
2. Компании используют готовые модели, дообучая их под свои задачи с помощью методов Fine-tuning (F-tuning), Low-Rank Adaptation (LoRA), Retrieval-Augmented Generation (RAG) или промт-инжиниринга.
Сравнительный анализ методов дообучения приведен в таблице.

Главное преимущество: у бизнеса нет потребности содержать большие серверные мощности и тратиться на обучение сотрудников техподдержки.
Пример: производитель бытовой техники загружает в модель свой каталог продукции, а пользователи через чат-бота получают ответы на вопросы, связанные с характеристиками и эксплуатацией этих товаров.
В каких сферах бизнес внедряет LLM
Большие языковые модели нужны для ускорения обработки данных, и, как следствие, процессов в банках, медицине, сфере образования, маркетинге и управлении. Примеры таких внедрений уже есть и для других сфер, среди них:
Юриспруденция. Большие языковые модели автоматизируют вычитку и анализ договоров, учитывая смысловые изменения, а не просто сравнивая текст построчно, как это делает Word. Вы можете задать системе вопрос: «Какие пункты в новой версии соглашения несут финансовые риски?» — и получить четкую сводку двух документов по 50 страниц за пару минут.
Производственные предприятия. Для регламентного обслуживания станка с документацией в тысячи страниц раньше технику требовалась запомнить огромное количество информации или постоянно сверяться с инструкцией. Теперь достаточно просто задать вопрос голосовому ассистенту, который подскажет нужные действия, например: «Для узла X затяни гайку №5 с моментом 25 Н·м».
Продажи в ритейле и B2B-сегменте. При продаже автомобилей языковые модели помогают автоматизировать работу менеджера. Его задача — грамотно рассказать о преимуществах модели и записать клиента на тест-драйв. «Виртуальные менеджеры» на основе LLM справятся с этой задачей не хуже и с меньшими затратами.
Ключевые сценарии, в которых LLM-системы покажут себя лучше всего
Автоматизация генерации контента и кода
LLM автоматизирует написание типового кода и стандартных задач, освобождая программистов от рутинной работы. Например, в проектах с повторяющимися сценариями, такими как экраны регистрации и личные кабинеты. В таком случае программисты становятся архитекторами решений, а не исполнителями.
Мгновенный сбор и аналитика внешних данных
Там, где аналитики неделями собирают информацию о рынке из сотни каналов, большие языковые модели обрабатывают данные за час. Они помогают специалистам принимать решения быстрее.
Например, финтех-компания по трейдингу ценными бумагами отслеживает миллионы новостей, сигналов и рыночных событий одновременно. Чтобы этот процесс ускорить, она внедряет LLM. Если раньше аналитик тратил более 40 часов на анализ одной бумаги, то теперь модель быстро собирает и фильтрует данные, предоставляя краткую сводку. Это позволяет компании существенно экономить и увеличивать прибыль от частых операций.
Хранение и работа с корпоративными данными
Когда сотрудникам нужно оперировать массивами информации, LLM берет на себя роль «виртуального мозга», который запоминает огромное количество информации и удерживает ее годами, отвлекаясь от более сложных задач.
Если передать данные в модель «на хранение с быстрым доступом», бизнес сократит расходы на подготовку персонала и оптимизирует кадровые ресурсы, позволяя высококвалифицированным специалистам работать эффективнее.
С какими бизнес-рисками можно столкнуться при внедрении больших языковых моделей

LLM-решения развивают процессы компании, но одновременно несут риски, которые можно разделить на три категории:
1. Монополизация рынка. Увеличение цен на оборудование и значительные расходы на обучение моделей создают барьеры для роста рынка. Крупные корпорации, такие как Google и OpenAI, располагают необходимыми ресурсами, тогда как малые и средние предприятия оказываются в невыгодном положении.
Возможные решения включают развитие альтернативных методов обучения, снижение затрат на оборудование и лоббирование открытого доступа к моделям.
2. Потеря контроля и ошибки в данных. Языковые модели способны генерировать искаженные результаты, формируя определенные нарративы. Даже незначительные изменения в интерпретации данных могут оказывать влияние на общественное мнение, что делает LLM инструментом в конкурентной борьбе между корпорациями и государствами.
Ранее крупные технологические компании, такие как Google, публично отказывались от использования ИИ в военных разработках, но сегодня эти ограничения становятся менее строгими. Большие языковые модели начинают использоваться в экономике, для разработки и контроля вооружений, а также для воздействия на сознание людей.
3. Деградация профессиональных навыков сотрудников. Применение больших языковых моделей уменьшает необходимость в самостоятельной обработке данных, что может привести к утрате важных навыков у профессионалов в различных сферах.
В психологии уже родился целый набор терминов для описания этих эффектов: cognitive offloading (когнитивная разгрузка), цифровая амнезия (digital amnesia), эффект автоматизации (automation bias), эрозия критического мышления (erosion of critical thinking).
Что дальше: прогнозы в развитии больших языковых моделей
Технологии становятся умнее, их возможности шире, а применение в бизнесе — еще полезнее:
1. Развитие навыков критического анализа у пользователей
Сегодня это один из ключевых трендов, поскольку даже самые современные модели не защищены от ошибок. Только человек способен оценить, насколько ответы LLM соответствуют действительности. Без такой проверки невозможно создать надежные системы, особенно в таких сферах, как финансы, медицина и промышленность.
2. Модели, способные к самообучению
Существует гипотеза, что большие языковые модели могут самообучаться без участия разработчиков и эволюционировать в реальном времени. В некоторых узких сценариях это уже возможно, однако в 95% случаев необходимо дополнительное обучение.
Тем не менее, вполне вероятно, что вскоре мир увидит системы, способные самостоятельно адаптироваться к новым данным в различных форматах.
3. Интеграция с реальным миром
Новые версии ИИ-систем DeepSeek, Gemini и GPT начинают взаимодействовать с окружающей средой. Они уже способны обрабатывать изображения, видео, PDF-файлы, исходный код и даже интегрироваться с средами разработки. Расширение доступа к данным из реального мира — это тренд, который значительно усилит возможности LLM.
4. Умение рассуждать
Компании активно работают над способностью LLM не просто выдавать ответ, а осмысленно обосновывать выводы.
Например, недавно была представлена функция Deep Thinking — специальный режим, в котором модель делится логикой своих рассуждений. Умение анализировать собственные выводы помогает уменьшить вероятность ошибок и повышает надежность больших языковых моделей.
5. Работа с широким контекстом
Сегодня LLM способны обрабатывать сравнительно небольшие объемы информации в рамках одного запроса. Например, они могут «запомнить» текст книги и ответить на вопросы о его содержании.
Однако при анализе сложных данных, таких как технические схемы и графики, объем контекста все еще ограничен. Новейшие модели уже увеличили этот предел до миллиона токенов, и в ближайшие годы, вероятно, это ограничение будет устранено. Мы сможем загружать в LLM любые объемы информации, не прибегая к сокращению или переработке контента вручную.
Источники изображений:
Кирилл Левин
Интересное:
Новости отрасли:
Все новости:
Публикация компании
Достижения
Контакты
Социальные сети