LAM (Large Action Models) — это AI-агенты, которые не просто генерируют текст, а выполняют задачи: оформляют заказы, автоматизируют процессы, управляют системами. Разбираем архитектуру, кейсы, отличия от LLM и как внедрить LAM в бизнес.
Проблема, которую вы уже ощутили
Вы внедрили ChatGPT в компанию. Сотрудники пользуются им каждый день: пишут промпты, получают ответы, генерируют тексты. Но через три месяца вы смотрите на метрики — и ничего не изменилось:
- Время обработки заявок осталось прежним.
- Ручной труд не сократился.
- Unit-экономика процессов стоит на месте.
- ROI от внедрения AI — близок к нулю.
Проблема не в качестве модели. Проблема в том, что чат генерирует текст, а не выполняет задачи. Ваш менеджер спрашивает ChatGPT: «Какой поставщик лучше?». Получает ответ — и дальше идёт вручную проверять прайсы, создавать заявку в 1С, писать письма, согласовывать бюджет, отслеживать доставку. LLM помог с информацией, но весь процесс исполнения остался на человеке.
В этой статье мы разберём, почему следующая волна AI — это не более умные чаты, а автономные агенты на базе LAM (Large Action Models, больших моделей действий), которые не просто советуют, а реально меняют процессы, метрики и экономику.
Что такое LAM и чем они отличаются от LLM
LLM (Large Language Models) — модели языка
Это нейросети, обученные на огромных текстовых корпусах методом предсказания следующего слова. На входе — ваш вопрос, на выходе — текстовый ответ.
Формула: текст → текст
Что умеют: генерировать тексты, отвечать на вопросы, переводить, писать код, объяснять концепции.
Что НЕ умеют: действовать в реальном мире. LLM выдаёт рекомендацию — вы идёте исполнять вручную.
LAM (Large Action Models) — модели действий
Это нейросети, обученные выбирать и выполнять действия в цифровой или физической среде. На входе — цель, на выходе — изменённое состояние мира: заказ оформлен, отчёт сгенерирован, сервер перезапущен, тикет закрыт.
Формула: намерение → последовательность действий → результат
Что умеют: планировать шаги, вызывать API, кликать по интерфейсам, управлять системами, корректировать план при ошибках — и доводить задачу до конца без участия человека.
Ключевое отличие в одной таблице
| Параметр | LLM (чат-бот) | LAM (агент) |
|---|---|---|
| Основная функция | Генерация текста | Выполнение действий |
| Результат работы | Ответ в чате | Изменённое состояние мира (заказ, отчёт, обновлённая система) |
| Ответственность | За качество текста | За достижение цели |
| Обучение | Текстовые корпуса (книги, статьи, код) | Логи действий + демонстрации экспертов + RL |
| Автономность | Низкая (нужен человек на каждом шаге) | Высокая (может работать без надзора) |
| Контекст | История диалога | Состояние внешних систем + история действий |
| Адаптивность | Низкая (если что-то изменилось — нужен новый промпт) | Высокая (перепланирует при ошибках, пробует альтернативы) |
От текста к действию: эволюция искусственного интеллекта
Чтобы понять, почему LAM — это не хайп, а закономерность, посмотрим на эволюцию AI за последние 40 лет:
1980–2010: Экспертные системы и RPA
Жёсткие правила «если-то», заранее прописанные сценарии. Отлично автоматизировали шаблоны, но ломались при малейшем отклонении.
2010–2020: Машинное обучение и Deep Learning
«Модели научились распознавать паттерны, классифицировать, прогнозировать. Подробнее о том, как работают нейросети, можно почитать отдельно.» Но оставались пассивными: выдавали предсказание — дальше действовал человек.

2020–2024: Большие языковые модели (LLM)
Революция в интерфейсе: теперь можно спросить машину на естественном языке и получить осмысленный ответ. Но всё ещё без действия в реальном мире.
2024–2026: Большие модели действий (LAM)
Переход от понимания к исполнению. LAM планируют, принимают решения и физически выполняют действия — через API, GUI, роботов, базы данных.
Главная формула перехода:
- LLM сделали язык новым интерфейсом к софту.
- LAM делают намерения новым интерфейсом к действиям.
Почему LLM-чат — это тупик для сложных процессов
Три фундаментальные проблемы чат-ботов
1. Нет долговременного состояния
Каждый диалог начинается почти с чистого листа. Модель не помнит, что вы делали вчера, какие задачи выполнены, что изменилось в ваших системах.
2. Нет ответственности за результат
LLM выдаёт текст — правильный или нет — но не проверяет, сработал ли её совет, и не корректирует рекомендации на основе реальных последствий.
3. Человек остаётся оркестратором
Вы обязаны переводить каждую цель в цепочку промптов: «сначала найди X, потом проверь Y, теперь сравни с Z». Это утомительно, подвержено ошибкам и не масштабируется.
Где чат проигрывает агенту
| Тип задачи | LLM-чат | LAM-агент |
|---|---|---|
| Одношаговые (перевод, объяснение) | Отлично | Избыточно |
| Многошаговые процессы (логистика, онбординг) | Требует постоянного участия человека | Выполняет автономно |
| Критичные по надёжности (финансы, медицина) | Нет контроля исполнения | Требует human-in-the-loop |
| Автоматизация рутины (обработка заявок, мониторинг) | Не умеет действовать | Полностью автоматизирует |
Вывод: чат — это интерфейс для общения, но не для исполнения.

Архитектура LAM: из каких компонентов состоят большие модели действий
LAM — это не просто «LLM с прикрученными инструментами». Это оркестровка нескольких специализированных модулей, каждый из которых отвечает за свою часть цикла «цель → действия → результат».
1. Планировщик (Planner)
Разбивает высокоуровневую цель на последовательность подзадач.
Пример:
Цель: «Оптимизировать логистику доставки для Дальнего Востока».
План:
- Проанализировать исторические данные по срокам.
- Проверить доступность транспорта и тарифы.
- Рассчитать оптимальные маршруты с учётом погоды.
- Согласовать смены водителей.
- Обновить ETAs в системе для клиентов.
Планировщик использует методы иерархического планирования, поиска по графу состояний или генеративные модели.
2. Политика действий (Action Policy)
На каждом шаге решает: какое действие выполнить и с какими параметрами. Это обучаемый компонент — не набор if-ов, а нейросеть, которая учится на примерах.
Может быть реализована как:
- Модель, обученная на демонстрациях (imitation learning).
- RL-агент, максимизирующий cumulative reward.
- Трансформер, генерирующий последовательность API-вызовов.
3. Менеджер контекста и состояния (State Manager)
Хранит:
- Историю действий и диалога.
- Результаты промежуточных шагов.
- Состояние внешних систем (остатки на складе, статусы задач, параметры инфраструктуры).
Позволяет агенту возобновлять операции после сбоя и адаптироваться к изменениям.
4. Исполнитель (Executor / Tooling Interface)
Слой, который физически выполняет действия:
- Вызывает API (REST, GraphQL, gRPC).
- Взаимодействует с GUI (клики, ввод данных, скриншоты через computer vision).
- Управляет файлами, БД, командной строкой.
- Отправляет команды RPA-роботам или физическим устройствам.
5. Валидатор / модуль обратной связи (Validator / Feedback)
Отслеживает результаты:
- Успешно ли выполнен шаг?
- Соответствует ли результат ожиданиям?
- Нужна ли корректировка плана?
Формирует обратную связь для планировщика (перепланировать?) и для системы обучения (нужны ли новые данные?).
6. Инструментальный слой (Tool Library)
Каталог доступных инструментов с описаниями и параметрами: API-интеграции, GUI-скрипты, доступ к базам знаний.
Критическое отличие от «LLM + LangChain»:
В классических системах логика выбора инструментов размазана между промптами, внешним оркестратором и if-ами в коде. В LAM выбор и последовательность действий — это учёная способность самой модели.
Как работает LAM: цикл из 6 шагов
Чтобы закрепить понимание, разберём пошаговый цикл работы LAM-агента на примере реальной задачи:
Задача: «Найти и заказать 50 единиц товара X у надёжного поставщика с доставкой до 10 февраля».
Шаг 1: Получение цели
Пользователь или система формулирует задачу через интерфейс (чат, API, триггер).
Шаг 2: Построение плана
Планировщик разбивает задачу:
- Проверить текущие остатки товара X на складах.
- Найти список поставщиков товара X.
- Запросить актуальные прайсы и сроки.
- Выбрать оптимального по цене и надёжности.
- Создать заявку в системе закупок.
- Отправить коммерческий запрос поставщику.
- Отследить подтверждение и обновить статус.
Шаг 3: Выбор следующего действия
Политика действий, учитывая текущее состояние, выбирает: вызвать API CRM для получения списка поставщиков.
Шаг 4: Взаимодействие со средой
Исполнитель вызывает GET /api/suppliers?product=X и получает JSON со списком поставщиков.
Шаг 5: Оценка результата и обновление состояния
Валидатор проверяет: успешен ли запрос? Данные получены? Обновляет контекст: «список поставщиков загружен, 5 кандидатов найдено».
Шаг 6: Продолжение цикла или завершение
Если цель не достигнута — возврат к шагу 3 с обновлённым состоянием. Если цель выполнена — формирование отчёта: «Заказ создан, заявка №12345, ожидаемая доставка 08.02.2026».
Этот цикл явно отличает LAM-агента от LLM-чата, где всё заканчивается после генерации текста.
На чём обучаются LAM: данные и методы
Обучение LAM сложнее, чем LLM, потому что нужны данные не только о том, что сказать, но и о том, что сделать и как.
1. Поведенческие данные (behavioral logs)
История реальных действий пользователей:
- Клики в интерфейсе.
- Последовательности API-вызовов.
- Транзакции в базах данных.
- Успешные и неуспешные сценарии.
Пример: логи операторов call-центра — какие шаги они делают, в каком порядке, как реагируют на ошибки.
2. Демонстрации экспертов (expert demonstrations)
Записи «как это делает профессионал»:
- Screen recordings с аннотациями.
- Пары «задача → последовательность действий».
- Датасеты WebShop, MiniWoB, Mind2Web для обучения агентов на веб-интерфейсах.
3. Reinforcement Learning (обучение с подкреплением)
Модель получает reward signal за успешное выполнение цели:
- +100 за успешно оформленный заказ.
- -50 за таймаут.
- -10 за каждый лишний шаг.
LAM учится максимизировать cumulative reward, оптимизируя политику действий.
4. Synthetic data (синтетические данные)
Задачи и решения, сгенерированные большими моделями для масштабирования. Например, GPT-4 генерирует тысячи вариантов задач и «идеальных планов», на которых дообучается LAM.
Примеры применения LAM: где агенты уже заменили чат-боты
Операционка и логистика: автоматизация закупок
Было (LLM-чат):
Менеджер спрашивает чат: «Какие остатки товара X?». Чат: «Проверьте в системе». Менеджер идёт смотреть, видит нехватку, формирует заявку, ищет поставщика, пишет письмо.
Стало (LAM-агент):
Агент мониторит остатки в реальном времени. При падении ниже критического уровня:
- Находит проверенного поставщика с лучшей ценой.
- Формирует заявку в 1С.
- Отправляет коммерческий запрос.
- Согласует доставку.
- Обновляет статусы и уведомляет менеджера.
Результат: время обработки с 2–3 часов до 5–10 минут, человеческий фактор минимизирован.
Финансовый сектор: автоматизация корпоративной поддержки
Кейс Сбера:
Внедрили AI-ассистента на основе нейросетей в службу поддержки корпоративных клиентов. Помощник распределяет звонки, оценивает работу операторов, сам закрывает часть обращений, ищет информацию. Скорость маршрутизации увеличилась в 3,5 раза. Планируют внедрить LAM-агентов в большинство бизнес-процессов.
LAM для маркетологов: как агенты меняют работу с контентом и автоматизацией
Если вы digital-маркетолог, SEO-специалист или контент-мейкер — вот пример, где LAM может радикально изменить вашу работу:

Агент-исследователь трендов
Что делает:
- Мониторит поисковые запросы в реальном времени (Google Trends, Yandex Wordstat, AnswerThePublic).
- Анализирует конкурентов: какие темы они публикуют, что ранжируется в топе.
- Сканирует соцсети и форумы на предмет болей и вопросов аудитории.
- Формирует контент-план на месяц с приоритетами по потенциалу трафика.
Результат: вместо 4–5 часов ручного исследования — автоматический отчёт каждую неделю. Как начать? Используйте no-code платформы (Make, Zapier) или применяйте подходы вайб-кодинга для создания простых агентов без технического бэкграунда.
Ограничения и риски LAM: что нужно учитывать
1. Надёжность и безопасность
У вас появляется система, которая реально что-то меняет:
Обязательные меры:
- Sandbox-среды для тестирования перед production.
- Уровни доступа: агент не должен иметь возможность удалить продакшен-БД или перевести все деньги.
- Audit logs: каждое действие логируется.
- Rollback mechanisms: откат изменений при ошибке.
2. Контроль и проверяемость (explainability)
Как объяснить, почему агент выбрал именно это действие? Для критичных систем (медицина, финансы) важна интерпретируемость решений.
3. Этические вопросы
- Bias: предвзятость в данных обучения → дискриминационные решения.
- Влияние на занятость: автоматизация рутины сокращает рабочие места для low-skill операторов.
- Автономность: насколько мы готовы доверить AI принятие решений без участия человека?
4. Стоимость разработки и внедрения
Разработка LAM требует:
- Сбора и разметки поведенческих данных.
- Обучения и fine-tuning моделей (вычислительные ресурсы).
- Интеграции с множеством систем.
- Поддержки и мониторинга в production.
Для многих компаний это значительно дороже, чем прикрутить LLM-чат.
Где LLM-чат ещё надолго останется оптимумом
1. Не все процессы выгодно переводить в агентный режим
- Низкий объём: процесс повторяется 2 раза в месяц — затраты на LAM не окупятся.
- Высокая цена ошибки: медицинские решения, крупные финансовые транзакции, юридические документы — риск автономного действия неприемлем.
- Слабая формализуемость: процесс требует интуиции, креативности, глубокого контекста — агент будет ошибаться.
2. Где LLM-чат остаётся лучшим выбором
Исследовательские задачи, брейншторм, креативка
Генерация идей, черновиков, объяснений, переводов — LLM справляется отлично и быстро.
Сценарии, где человек хочет оставаться в контуре
- Стратегическое планирование.
- Сложные сделки с нюансами.
- Медицинские диагнозы (врач должен принимать финальное решение).
- Юридические консультации (AI помогает с исследованием, но не заменяет юриста).
5 главных ошибок при внедрении LAM
1. Начинать с критичных процессов
Ошибка: внедряете агента сразу в финансовые транзакции или управление инфраструктурой.
Правильно: начните с низкорисковых рутинных задач (обновление данных, генерация отчётов).
2. Не собирать логи действий
Ошибка: пытаетесь обучить LAM без данных о том, как процесс выполняется реально.
Правильно: соберите логи действий сотрудников за 2–3 месяца перед обучением.
3. Давать агенту слишком широкие permissions
Ошибка: агент имеет доступ ко всем системам без ограничений.
Правильно: whitelist действий, уровни доступа, human-in-the-loop для критичных решений.
4. Не измерять метрики
Ошибка: внедрили агента и не отслеживаете, работает ли он лучше людей.
Правильно: чётко определите метрики успеха (время, качество, стоимость) и мониторьте.
5. Игнорировать обратную связь
Ошибка: агент делает ошибки, но вы не дообучаете его на этих данных.
Правильно: собирайте фейлы, анализируйте, дообучайте модель.
Частые вопросы про LAM и агентный ИИ
RPA — жёсткие скрипты, повторяющие действия человека по заранее прописанному сценарию. Если что-то на экране изменилось — RPA ломается. LAM использует AI для понимания контекста и адаптации: если кнопка переместилась, LAM найдёт её через computer vision.
Да, но с ограничениями. Можно использовать предобученные LAM (на публичных датасетах) и дообучить few-shot. Но для высокой точности в специфичном домене лучше иметь логи реальных действий.
Только с safeguards: ограниченные permissions, sandbox, human-in-the-loop для критичных решений, audit logs.
OpenAI: ChatGPT agent (июль 2025). Сбер: AI-ассистенты в поддержке корпоративных клиентов. Российские ИБ-компании: LAM для кибербезопасности. Google: Gemini Live. Motorola, Rabbit: персональные ассистенты на базе LAM.
В рутинных задачах — да. Но появятся новые роли: дизайнеры процессов, AI operations, тренеры агентов. Человек смещается из исполнения в контроль, стратегию, креативность.
Заключение: формула перехода от чатов к агентам
LLM сделали язык новым интерфейсом к софту — теперь вы можете спросить машину на человеческом языке и получить осмысленный ответ.
LAM делают намерения новым интерфейсом к действиям — теперь вы можете сформулировать цель, и система выполнит её, изменив реальный мир.
Следующий конкурентный разрыв в продуктах пройдёт не по оси «у кого чат умнее», а по оси «у кого агенты глубже вшиты в реальный контур действий и метрик».
Компании, которые первыми научатся проектировать агентные системы, измерять их экономику и масштабировать — получат радикальное преимущество в скорости, стоимости и качестве операций.






