Агентность в современных ИИ-системах: текущее состояние и прогноз

0 0
  • Главная
  • ИТ-рынок
  • Агентность в современных ИИ-системах: текущее состояние и прогноз

    shutterstock/SomYuZu

    В последние годы ИИ переживает структурный сдвиг: от диалоговых моделей, генерирующих текст, к полноценным агентным системам, которые способны выполнять сложные задачи, использовать инструменты, планировать, взаимодействовать с внешними средами и проявлять элементы автономности. Большие языковые модели (LLM-модели) GPT-5, Gemini 2 и Claude 4, появившиеся в этом году, стали наиболее яркими представителями этого перехода, однако агентность — это уже не исключение, а общая тенденция всей ИИ-индустрии.

    Что означает «агентность» современных моделей? Агентность — это способность ИИ действовать не как пассивный собеседник, а как активный исполнитель задач. Она включает:

    — многошаговое планирование, при котором ИИ-системы формируют многошаговые планы и определяют, какой инструмент нужен;

    — формирование подцелей;

    — использование инструментов (обращаться к API, умеет писать и запускать программный код, выполнять Web-действия как браузер, работать с файлами);

    — самопроверку и корректировку своих решений, т.е. при этом агентные системы отслеживают прогресс и корректируют свои действия;

    ИИ-агенты RAZUM упрощают бизнес-процессы

    — долговременную и эпизодическую памяти. В современных агентных моделях долговременная память — это механизм, который позволяет ИИ сохранять информацию между сессиями и использовать её в будущем для улучшения работы, понимания контекста и выполнения задач, а эпизодическая память – тип памяти в агентных ИИ-системах, который хранит не просто факты и знания, а последовательности событий и действий, произошедших во время выполнения задач;

    — способность к автономным действиям, т.е. агентные системы могут инициировать новые шаги без явного запроса пользователя. Кроме того, они могут вызывать другие модели.

    В отличие от классических LLM, агентная система не просто отвечает на вопрос, а интерпретирует запрос как постановку задачи и стремится выполнить эту задачу целиком, при этом она может выполнять длительные самостоятельные задачи, и может делать проекты «под ключ» (анализ → план → исполнение → отчёт).

    Содержание:

    Агентность как тенденция

    Хотя GPT-5, Gemini 2 и Claude 4 демонстрируют наиболее развитую агентность, этот путь выбран практически всеми крупными игроками рынка ИИ-систем:

    — Meta* (Llama 3.2 / 3.3) развивает агентный конвейер. Это такой способ построения ИИ-систем, где модель работает не как одиночный чат-бот, а как часть цепочки действий; Россия и Индия готовятся к масштабному партнерству в ИТ-сфере Maibenben: «Сначала исключи поражение — потом жди шанса на победу бренда» Технологии анализа поведения клиентов. Обзор IT-World

    — Mistral внедряет процессное обучение и способность модели самой решать, какой внешний инструмент ей нужен для выполнения задачи, и вызывать его;

    — экспериментальная платформа DeepSeek R1 дала мощный толчок автономным рассуждениям – способности модели самостоятельно продолжать мыслительный процесс без прямых указаний пользователя, формируя планы, подцели, проверки и выводы, пока задача не будет решена;

    — компания xAI Илона Маска готовит Grok Agents (это система, предназначенная для автономного выполнения реальных задач в цифровой среде);

    — открытые фреймворки LangGraph, Aider, AutoGPT и др. позволяют превращать любую модель в агента.

    Агентизация становится стандартом де-факто, аналогично тому, как в 2023–2024 годах стали нормой мультимодальность (способность модели работать с разными типами данных, например с видео и аудио, а не только с текстом) и длинный контекст (он позволяет агенту «помнить» весь процесс решения задачи, что важно для автономных рассуждений и долговременной памяти). Читайте также

    Агентность в современных ИИ-системах: текущее состояние и прогноз

    Иван Головко: Как один техрадар устраняет хаос в ИТ-ландшафте крупных компаний GINC Radar — инструмент, который визуализирует весь технологический стек компании в реальном времени, показывая устаревшие компоненты и зоны риска. В интервью IT-World CEO компании GINC Иван Головко рассказал, как продукт, рожденный из опыта работы с тысячами микросервисов, превращает хаос ручного контроля в управляемую систему.

    Применение ИИ-агентов для трансформации клиентского опыта

    Для успешной агентизации важно в первую очередь развитие технологий непрерывного обучения (continual learning) – способности ИИ-системы долгосрочно обучаться и адаптироваться со временем, по мере поступления новых данных и получения нового опыта, без полного переобучения и без потери ранее усвоенных знаний, т.е. важные знания защищены от перезаписи. Для агентных ИИ непрерывное обучение позволяет учиться на собственных действиях, адаптироваться к пользователю, со временем улучшать планы, не повторять ошибки; работать в меняющейся среде. Понятно, что эта технология ближе к тому, как происходит обучение у людей. Есть ещё десяток довольно сложных технологий, которые сейчас развиваются в агентных системах, но они требуют отдельного описания.

    Прогноз на 2026–2027 годы

    — Расширение видов автономных цифровых сотрудников. ИИ-агенты начнут выполнять значительную часть рутинных процессов в документообороте, аналитике, поддержке пользователей, разработке ПО, инженерии. Здесь возможно развитие систем продажи  навыков ИИ-агентов.
    — Развитие многомодульной архитектуры. Модели станут лишь планировщиками, а исполнителями будут подагенты и специализированные модули.
    — Переход от «контекста» к «памяти». Агенты будут иметь долговременную и эпизодическую памяти, вести историю действий, использовать структурированные знания.
    — Новый этап – формирование агентных экосистем. Появятся интегрированные среды разработки программного обеспечения (IDE), офисы и научные среды, в которых агенты смогут выполнять все рабочие процессы.

    Прогноз на 2028–2030 годы

    — Развитие многоагентных систем. Будут созданы командные структуры ИИ – группы агентов, работающие как цифровой отдел внутри компании.

    — Будут разработаны новые типы операционных систем (ОС) – агентные операционные системы (АОС), где агенты — базовые элементы взаимодействия: управление ресурсами, памятью, процессами.

    — Вот совсем страшный прогноз: произойдёт почти полная автоматизация разработки ПО. Агенты смогут писать, тестировать и запускать код с минимальным участием человека. Отдельный вопрос касается проектирования ПО. Если есть чёткое и не изменяющееся техническое задание (ТЗ), то превратить его с помощью агентов в программный код, скорее всего будет возможно, но в жизни ТЗ изменяется постоянно по мере того как заказчик осознаёт свои потребности. В этом случае необходим кто-то, кто соизмеряет его «хотелки» с возможностями системы.

    — Будут созданы специализированные профессиональные агенты: агент-юрист, агент-программист, агент-инженер, агент-аналитик, агент-логист и др. Каждый — с глубоким пониманием предметной области и профессиональными инструментальными навыками.

    — Произойдёт интеграция с робототехникой. Агенты начнут управлять реальными устройствами — манипуляторами, дронами, мобильными платформами и т.п.

    Риски

    Разумеется, определённые действия агентов могут привести к нежелательным последствиям, поэтому необходимы те или иные виды ограничений на автономные действия агентов, например, на финансовые операции и на юридически значимые процессы. Скорее всего, будет введена обязательная сертификация безопасности при взаимодействии ИИ-агентов и роботов с людьми, ведены формальные верификации агентов, разработаны требования к испытаниям агентных систем и т.п. Необходимы также чёткие юридические правила: кто несёт ответственность при ошибке автономной системы (разработчик, производитель или владелец модели).

    Поскольку технологии агентных ИИ-систем могут использоваться мошенниками, киберпреступниками и даже недружественными государствами, то всегда будут актуальны вопросы кибербезопасности. Скорее всего, это вызовет возникновение отдельного направления информационной безопасности.

    Определённый риск представляет неравномерное развитие агентных систем, возникающее в ходе конкуренции в данной области между крупными игроками ИИ-индустрии и, возможно, государствами, между проприетарными системами и системами с открытыми исходниками.

    Вертикальный рост возможностей LLM-моделей по разным причинам (таким как стена данных) замедлился, а горизонтальный рост с помощью агентских систем потенциально обещает сильный прирост новых качеств ИИ. Поэтому мы вступаем в эпоху, когда ИИ становится не только инструментом для получения информации, а полноценным оператором разнообразных действий. До 2027 года агенты станут широко использоваться в рутинной автоматизации. Затем, до 2030 года, — сформируются цифровые многоагентные структуры, агентные ОС и частично автономные профессиональные ИИ-системы. Эта тенденция, полагаю, необратима — именно агентность будет определять развитие искусственного интеллекта в ближайшие годы.

    (* Meta — признана экстремистской организацией и запрещена на территории РФ)

    Искусственный интеллект (ИИ, AI)Генеративный искусственный интеллект
    Источник

    Оставьте ответ