Поговорили с Head of R&D red_mad_robot Валерой Ковальским о ключевых направлениях развития AI в 2026-м. В статье делимся его прогнозами и разбираем, какие изменения уже формируют индустрию, а какие только станут критичными в ближайшие годы с точки зрения инженерии, масштабирования и реального применения в продуктах.
Дополнительный контекст и комментарии дал Саша Абрамов — AI-визионер, руководитель AI/ML-команд и автор Dealer.AI.
В ближайшие годы AI-индустрия окончательно выйдет из гонки за масштабным базовым предобучением. Рост числа параметров перестанет быть главным источником ценности, а фокус развития LLM сместится в три области:
Постобучение
Тонкую настройку
Архитектурную интеграцию в прикладные системы
Подход к проектированию моделей уйдёт от универсальных «знающих всё» систем. Так что прикладная логика будет всё чаще выноситься за пределы LLM — в инструменты, навыки, внешние источники данных и правила оркестрации. Сама модель станет вычислительным ядром, а ценность будет формироваться на уровне системы вокруг неё.
Сейчас агентные системы находятся в верхней точке Hype Cycle по кривой Gartner. Но в ближайшее время это почти неизбежно приведёт к провалу завышенных ожиданий и переходу в «долину разочарования».
Этот этап необходим, чтобы технология вышла на плато эффективности — состояние, в котором становится понятно, где она действительно работает, а где — нет. Аналогичный путь уже прошли RAG-системы, но они быстрее нашли практическое применение благодаря большей детерминированности.
Смещение логики за пределы LLM формирует основу агентных архитектур. В таких системах ценность создаётся не объёмом знаний модели, а её способностью управлять навыками:
выстраивать последовательности действий;
комбинировать инструменты;
анализировать промежуточные результаты;
корректировать поведение.
Так, LLM перестаёт быть «исполнителем» и становится координатором. Это приближает AI-системы к архитектурам, где интеллект распределён между специализированными компонентами, а не сосредоточен в одной универсальной модели.
На практике уровень успешного выполнения задач часто колеблется в диапазоне 0.9–0.95. Для реальных, особенно критичных сценариев, требуется 0.99 и выше — с предсказуемым поведением и возможностью анализа ошибок.
|
По мере сдвига AI в сторону системного уровня меняется и роль R&D — от исследовательской функции к инженерному драйверу продуктов. И какое совпадение, про это мы выпустили серию интервью с экспертами из Авито, Т-Банка, MWS AI, ВкусВилла и red_mad_robot. |
С переходом к агентным системам меняется и требование к моделям. Если агент действует автономно, то LLM должна уметь корректно работать с инструментами, проверять шаги и выявлять ошибки в ходе выполнения задачи.
Это сдвигает развитие AI в сторону:
reasoning-подходов как механизма самопроверки;
пересборки этапов обучения для снижения галлюцинаций;
новых метрик, оценивающих способность моделей управлять несколькими инструментами и задачами одновременно.
Проблемы качества уже перестают решаться за счёт простого увеличения контекстного окна. Практика показывает, что эффективные системы работают с контекстами в десятки тысяч токенов, а не миллионами.
В этой парадигме на первый план выходит контекст-инжиниринг — проектирование структуры диалога, форматов данных, механизмов сжатия, памяти и логики вызова инструментов. Это позволяет наращивать автономность и переводит заявления о многочасовой работе агентов в воспроизводимую практику.
Развитие пойдёт по двум направлениям одновременно:
Архитектурные улучшения моделей и механизмов внимания для роста эффективного контекста.
Инженерные решения по сжатию информации: новые форматы представления знаний, компрессия и внешняя память.
Экономика AI всё меньше определяется обучением моделей и всё больше — их исполнением. Инференс станет основной статьёй затрат: каждый запрос — это вычисления, энергия и задержки. Поэтому компании будут оптимизировать веса, применять квантование и ускорять генерацию без увеличения размера моделей.
Именно стоимость и скорость инференса будут определять, какие AI-решения смогут стать частью реальных продуктов.
Один из ключевых векторов оптимизации — снижение вычислительной нагрузки без потери качества. Вместо дальнейшего роста параметров индустрия движется к более компактным и специализированным архитектурам.
Mixture of Experts (MoE) и системы с моделью-роутером позволяют активировать только часть весов под конкретную задачу. Аналогичная логика уже используется в агентных системах — со специализированными субагентами и управляющим агентом-оркестратором.
Чат с полем ввода уже сегодня перестаёт быть базовой формой взаимодействия с AI. По мере интеграции моделей в продукты интерфейсы будут проектироваться под конкретные сценарии и задачи, а не вокруг универсального диалога. Так, UX сместится от общения к управлению процессами.
В перспективе также появятся AI-Native системы, где LLM и агенты встроены на уровне базовой инфраструктуры и постоянно участвуют в работе продукта.
Рынок разделится на два слоя:
Компании, создающие core AI-технологии и API
Компании, которые строят прикладные решения, интерфейсы и бизнес-сценарии поверх этих технологий
Оба подхода жизнеспособны, ключевой фактор — экономическая эффективность.
Потребительские сценарии перейдут от взаимодействия к делегированию: пользователь формулирует намерение, а выполнение берёт на себя агент, оставляя человеку только точки контроля и подтверждения.
|
«Собери корзину на десять человек в сервисе доставки»: агент подбирает варианты и присылает на чекаут. |
«Найди самый дешёвый размер обуви в наличии в моём городе на маркетплейсе»: агент выполняет поиск, сравнение и проверку. |
Такие паттерны особенно востребованы там, где важны скорость, удобство и снижение когнитивной нагрузки:
e-commerce
доставка
поиск и сравнение товаров
бронирования
Пока агентные системы не обеспечивают необходимый уровень надёжности, подобные сценарии будут внедряться постепенно и с ограниченным уровнем автономности.
В 2026–2028 годах массовое регулирование AI будет формироваться преимущественно через требования к инфраструктуре, а не пользовательским продуктам. Возможны обязательная сертификация моделей, вычислительных сред и датасетов, особенно в госсекторе и критических областях. Это повысит порог входа в проекты и увеличит ответственность компаний, предоставляющих доступ к LLM, включая требования к безопасности и санкции за нарушения.
Регуляторы будут оценивать не только, что модель отвечает, но и где, как и в каких условиях она запущена. Это ещё один фактор, который ускорит переход от экспериментов к инженерно зрелым AI-системам.
В 2026 году развитие AI будет определяться не отдельными технологическими прорывами, а качеством системной сборки: архитектурой, экономикой инференса, уровнем автономности и требованиями к надёжности.
Модели всё чаще будут рассматриваться как базовый компонент более сложных AI-систем — с распределённой логикой, встроенными механизмами контроля и ограничениями со стороны инфраструктуры и регулирования.
Именно эта связка — инженерная зрелость, экономическая эффективность и управляемая автономность — станет ключевым критерием применимости AI в реальных продуктах и бизнес-контекстах.
Над материалом работали:
Текст — Валера Ковальский, Саша Абрамов
Редактура — Саша Лазарева
Иллюстрации — Саша Буяк
Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с AI сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.
Наш Telegram-канал: t.me/redmadnews
Источник


