Как большие языковые модели меняют бизнес-процессы?
изображение создано нейросетью
Россия догоняет лучших игроков на рынке больших языковых моделей — крупные компании активно внедряют LLM, создавая собственные ИТ-решения силами R&D-команд, а малый и средний бизнес использует их в своих процессах. О том, где и как лучше применять языковые модели для бизнеса, рассказывает IT-World.
Содержание:
От догоняющей стратегии к собственным решениям: куда движется рынок LLM в России
В мире уже сформировались лидеры в разработке LLM: GPT от OpenAI, китайские языковые модели DeepSeek и Qwen, а также Gemini от Google, показывающий хорошие результаты.
Российский рынок находится в начале этого пути — развивает собственные решения в динамичном темпе. Например, GigaChat от Сбера и YandexGPT от «Яндекса» занимают ведущие позиции в сегменте коммерческих решений в России, но далеко не все игроки используют их платформы для внедрения LLM в свои процессы. Большая часть LLM-айсберга скрыта: есть значимый пласт open-source-моделей, которые используются для создания специализированных решений в разных отраслях. И главный потенциал развития рынка — адаптация этих универсальных моделей под конкретные бизнес-задачи с помощью дообучения.
Внедрение языковых моделей в России сейчас идет по двум основным направлениям:
1. Компании берут за основу архитектуры LLaMA, DeepSeek, Phi, Mistral или Qwen, и обучают их на внутренних данных, создавая собственные версии LLM. Эта стратегия требует много ресурсов и подходит крупному бизнесу, а также промышленным холдингам с мощными R&D-отделами.
В таком случае у компании есть полный контроль над поведением LLM, поскольку известен и набор данных для обучения, и примененные методы обучения. Развитие этого направления — часть цифрового суверенитета государства.
Пример. Крупный банк обучает свою закрытую LLM на внутренних данных: паттернах транзакций, клиентских обращениях и регуляторных требованиях. Он создает умного финансового ассистента, который консультирует клиентов с учетом их операций и выявляет подозрительные транзакции. За счет этого банк улучшает сервис, снижает издержки и защищает данные.
2. Компании используют готовые модели без полноценного обучения и дообучают их под свои задачи. В зависимости от ресурсных возможностей и объема данных для обучения могут применяться методы Fine-tuning (F-tuning), Low-Rank Adaptation (LoRA), Retrieval-Augmented Generation (RAG) или промт-инжиниринг.
Сравнительный анализ методов дообучения
Пример. Производитель бытовой техники загружает в модель свой каталог продукции, а пользователи получают через чат-бот ответы на вопросы, связанные с характеристиками и эксплуатацией этих товаров. Для бизнеса это выгодно: нет потребности содержать большие серверные мощности и тратиться на обучение сотрудников техподдержки.
Главные сферы применения LLM: для каких задач использовать
Большие языковые модели нужны для ускорения обработки данных и, как следствие, процессов на производствах, в банках, в медицине, сфере образования, HR, маркетинге и управлении. Примеры таких внедрений уже есть и для других сфер — рассмотрим некоторые из них.
Три ключевых сценария, в которых LLM-системы покажут себя лучше всего:
Когда сотрудникам нужно оперировать массивами информации, LLM берет на себя роль «виртуального мозга», который запоминает огромное количество информации и удерживает ее годами, отвлекаясь от более сложных задач.
Если передать данные в модель «на хранение с быстрым доступом», бизнес сократит расходы на подготовку персонала и оптимизирует кадровые ресурсы, позволяя высококвалифицированным специалистам работать эффективнее.
Там, где аналитики неделями собирают информацию о рынке из сотни каналов, большие языковые модели справляются с обработкой потоков информации за час. Они помогают специалистам принимать решения быстрее.
Open-source-платформы для генеративного ИИ: как выбрать подходящее решение и выстроить агентские пайплайны в корпоративном контуре
Например, финтех-компания, занимающаяся трейдингом ценных бумаг, отслеживает миллионы новостей, сигналов и рыночных событий одновременно. Чтобы этот процесс ускорить, она внедряет LLM. И если раньше аналитик тратил более 40 часов на анализ ситуации по одной бумаге, теперь модель собирает, фильтрует и сжимает данные, мгновенно выдавая краткую сводку. Компания экономит колоссальные бюджеты и больше зарабатывает на частых операциях.
Там, где программист погружался в рутину на несколько рабочих дней, LLM пишет типовой код и автоматизирует стандартные задачи. Во многих проектах код повторяется. Например, экраны регистрации и личные кабинеты пользователей работают по схожим сценариям. Код для них может написать модель, а программист будет скорее архитектором и валидатором решений, чем исполнителем.
То же применимо в маркетинге — при генерации текстов, изображений, таблиц и схем.
Этапы внедрения LLM-решений: как выстроить процесс и оптимизировать затраты
Внедрение LLM в бизнес — это не мгновенный процесс, особенно если задача требует специфического подхода. Если модель должна работать с данными конкретной компании или ее нужно адаптировать к специфическим требованиям, необходимо пройти через несколько этапов, которые могут протекать параллельно. Рассмотрим несколько из них:
Этап № 1. Предобработка данных
Языковая модель способна давать правильные ответы, если она обучалась на корректных данных. Но если на входе хаос — разрозненные изображения, сканы документов, таблицы в разных форматах без связей между собой — она начнет выдавать ложные ответы. В этот момент модель похожа на самоуверенного человека, который при нехватке данных начинает додумывать на основе догадок. Читайте также
Как организовать корпоративное удаленное обучение? Советы и подводные камни IT-World расскажет, как эффективно организовать дистанционные курсы для коллектива, используя три глобальных инструмента для удаленного корпоративного обучения — онлайн-платформы, LMS-системы и видеоконференции. И разберемся, как их следует применять, а с какими задачами они не справятся.
Поэтому специалисты собирают данные из различных источников, объединяют их в единую связанную структуру, очищают от ошибок или пропущенных значений, приводят к общему формату однотипные данные, нормализуют значения к одним и тем же диапазонам изменений. Добиваются консистентности.
В машинном обучении для этого этапа существует термин «предобработка данных» (data preprocessing). Для направления аналитики данных более привычны аббревиатуры ETL/ELT, но суть у них схожа.
На этом этапе также можно задействовать ранее обученные простые LLM для предварительной обработки данных. Например, модель может помочь в классификации документов и извлечении ключевых параметров из таблиц.
Этап № 2. Выбор метода обучения модели
Определяется стратегия использования данных через LLM, затем идет настройка по одному из трех путей.
- Обучение с нуля — сложный вариант для крупных компаний, требующий значительных вычислительных ресурсов и подготовки датасета.
- RAG — комбинированный подход для малых и средних предприятий, при котором модель извлекает релевантную информацию из базы знаний.
- Настройка промптов — быстрый и бюджетный вариант для малого бизнеса. Модель получает правила обработки информации без дообучения.
После этого начинается обучение LLM с помощью либо промт-инженеров, либо ML-специалистов.
Этап № 3. Корректировка и интеграция
Специалисты показывают прототип заказчику, чтобы получить обратную связь. Важен фидбек тех, кто будет пользоваться системой. Если принципиально LLM решает бизнес-задачу, то можно переходить к этапу интеграции.
Для того чтобы языковая модель приносила пользу, ее нужно интегрировать в ИТ-инфраструктуру компании. Перед внедрением проводится аудит бизнес-процессов, чтобы определить точку интеграции. Интерфейс может выглядеть по-разному. Несколько сценариев внедрения:
После этого разрабатываются API и коннекторы для подключения к системам компании, и модель развертывается на серверах: сначала в тестовом окружении, затем в продакшене.
Этап № 4. Сопровождение системы
LLM постоянно работает с данными, которые поступают из разных источников. Со временем они меняют форматы, дополняются и заменяются, поэтому нужно регулярно обновлять коннекторы, отвечающие за извлечение и обработку информации, — писать новый код и корректировать скрипты и промпты, чтобы модель правильно интерпретировала входные данные.
Искусственный интеллект на службе у бизнеса
Кроме того, корпоративные системы эволюционируют: меняются API, обновляются CRM, ERP и веб-интерфейс. LLM-решения должны адаптироваться к новой инфраструктуре, для чего заказчик делится картой развития и планирует корректировки с экспертами.
С накоплением данных ответы модели становятся точнее, что позволяет запустить новый цикл обучения и улучшить взаимодействие с пользователем.
С какими рисками можно столкнуться при внедрении LLM
LLM-решения развивают бизнес-процессы, но одновременно несут риски, которые можно разделить на три группы:
1. Этические риски. Языковые модели могут выдавать искаженные результаты, формируя определенную повестку. Даже небольшие изменения в интерпретации данных могут влиять на мнения людей, что делает LLM инструментом в конкурентной борьбе между корпорациями и государствами.
Ранее крупные технологические компании (например, Google) публично отказывались от применения AI в военных разработках, но сегодня эти ограничения снимаются. Большие языковые модели становятся инструментом, который применяют в экономике, в создании и контроле вооружения и для влияния на умы людей.
2. Деградация профессиональных навыков. Использование LLM снижает потребность в самостоятельной работе с данными и может привести к утрате ключевых навыков у специалистов разных областей.
В психологии уже родился целый набор терминов для описания этих эффектов: cognitive offloading (когнитивная разгрузка), цифровая амнезия (digital amnesia), эффект автоматизации (automation bias), эрозия критического мышления (erosion of critical thinking). Читайте также
КИБЕРКОНТУР-2025 Кибербезопасность в 2025 году — это не про «запрещать и не пущать». Это про деньги. Про выживание бизнеса в мире, где персональные данные утекают быстрее, чем льется кофе на клавиатуру в понедельник утром. Где бюджеты на защиту приходится выцарапывать с боем, а регуляторы только и ждут, чтобы прижать компании штрафами.
3. Ограничения инфраструктуры и монополизация рынка. Растущие цены на оборудование и высокие затраты на обучение моделей создают препятствия для развития рынка. Крупные компании, такие как Google и OpenAI, имеют нужные ресурсы, в то время как малый и средний бизнес остаются в стороне.
А еще российские компании во многом зависят от зарубежного оборудования, что ограничивает доступ к технологиям.
Возможные решения включают развитие альтернативных методов обучения, снижение затрат на оборудование и лоббирование открытого доступа к моделям.
Тренды и прогнозы в развитии LLM-решений
Технологии становятся умнее, их возможности шире, а применение в бизнесе — еще полезнее:
Есть гипотеза, что LLM может самообучаться без вмешательства разработчиков — эволюционировать в реальном времени. В узких сценариях это уже возможно, но в 95% случаев требуется дообучение.
Все же мир, вероятно, скоро увидит системы, которые сами адаптируются к новым разноформатным данным.
Свежие версии ИИ-систем DeepSeek, Gemini и GPT начинают работать с окружающим миром. Они уже умеют обрабатывать изображения, видео, PDF, исходный код, и даже подключаться к средам разработки. Расширение доступа к данным реального мира — тренд, который сделает модели мощнее.
Компании активно работают над способностью LLM не просто выдавать ответ, а осмысленно обосновывать выводы. Так, недавно появилась функция Deep Thinking — специальный режим, в котором модель объясняет ход своих рассуждений. Способность анализировать собственные выводы снижает риск выдачи ошибок и делает модели надежнее.
Сегодня LLM могут обрабатывать относительно небольшие объемы информации в рамках одного запроса. В частности, они способны «удержать в памяти» текст книги и ответить на вопрос по содержанию.
Но при анализе сложных данных, технических схем и графиков, объем контекста пока ограничен. Новейшие модели уже увеличили этот показатель до миллиона токенов, и в ближайшие годы, вероятно, эта граница исчезнет. Мы сможем загружать в LLM любые объемы информации, а не сокращать или перерабатывать контент вручную.
Сегодня это один из главных трендов, так как даже самая продвинутая модель не застрахована от ошибок, и только человек может проверить, насколько ее ответы соответствуют реальности. Без этого нельзя построить надежные системы, особенно в финансах, медицине и промышленности.
Кирилл Левинсооснователь и CEO компании NLABTEAM.