Андрей Карпати об ИИ-агентах: эра петель, AutoResearch и будущее профессий

ИИ-агенты
AutoResearch
Андрей Карпати
будущее разработки
машинное обучение

TL;DR

Андрей Карпати, один из ведущих исследователей ИИ, считает: с декабря 2024 года разработка ПО изменилась навсегда. Он лично перестал писать код вручную — вместо него это делают агенты. В интервью Саре Гуо (Conviction) он рассказал об AutoResearch, «когтевых» агентах (claws), будущем профессий и том, почему флопы важнее денег.


Оглавление

  1. Момент перелома: декабрь 2024
  2. Что такое «психоз ИИ» по Карпати
  3. AutoResearch: агент, который улучшает сам себя
  4. Claws — агенты нового уровня
  5. Специация моделей и модульный ИИ
  6. Влияние на профессии и рынок труда
  7. Образование в эпоху агентов: MicroGPT
  8. FAQ

1. Момент перелома: декабрь 2024

В разговоре с Сарой Гуо Карпати описал переломный момент точно: декабрь 2024 года. До этого соотношение «пишу сам / делегирую агенту» было 80/20. После — оно перевернулось и продолжает меняться. По его словам, с декабря он, вероятно, не написал ни строчки кода вручную.

«Я не думаю, что обычный человек осознаёт, насколько это произошло и насколько это было драматично. Буквально если вы подойдёте к случайному разработчику за его столом — его рабочий процесс полностью изменился начиная примерно с декабря».

Это не просто смена инструмента. По Карпати, это смена самого глагола: раньше разработчик «писал код», сейчас он «выражает свою волю агентам».


2. Что такое «психоз ИИ» по Карпати

Карпати ввёл термин «ИИ-психоз» — состояние перманентного возбуждения и тревоги от осознания бесконечных возможностей агентов. Главная его черта: ты сам становишься узким местом системы.

Ключевые симптомы ИИ-психоза:

  • Тревога при незанятых агентах. Если у тебя есть неиспользованная подписка или токены — ты тратишь их впустую. Карпати сравнивает это с ощущением аспиранта, у которого простаивают GPU.
  • Параллельные задачи. Правильная стратегия — как у Питера Штайнберга: несколько агентов работают одновременно над независимыми задачами, каждая занимает ~20 минут, пока ты переходишь между ними.
  • Макро-действия. Единица работы теперь не строчка кода и не функция — а целая фича, делегированная агенту.
«Токенная пропускная способность — вот что теперь имеет значение. Раньше ты ощущал себя ограниченным доступом к вычислениям. Теперь доступ к вычислениям есть — ты сам ограничение».

3. AutoResearch: агент, который улучшает сам себя

AutoResearch — ключевой проект Карпати последних месяцев. Идея проста: исследователь не должен быть в петле эксперимента. Он мешает.

Как работает AutoResearch

  1. Задаётся цель (например, снизить validation loss модели)
  2. Задаётся метрика (объективная, автоматически проверяемая)
  3. Определяются границы допустимых действий
  4. Агент запускается и работает без участия человека

Карпати проверил это на своём проекте Nanochat — компактной реализации GPT. Он потратил годы на ручную настройку гиперпараметров, думал, что модель «достаточно хорошо настроена». За одну ночь AutoResearch нашёл улучшения, которые он пропустил:

  • Забытый weight decay на value embeddings
  • Недостаточно настроенные beta-параметры Adam-оптимизатора
«Я не ожидал, что это сработает, потому что репо уже было довольно хорошо настроено — и тем не менее оно что-то нашло. И это только один цикл петли».

Почему это важно для фронтирных лабораторий

Карпати убеждён: лучшая стратегия для OpenAI, Anthropic и DeepMind — убрать исследователей из петли.

  • Эксперименты проводятся на маленьких моделях автономно
  • Результаты экстраполируются на большие
  • Исследователи вносят идеи в общую очередь — но не управляют исполнением

По сути это переизобретение научного процесса: вместо учёного-исполнителя — учёный-архитектор системы.

Следующий уровень: AutoResearch at Home

Карпати описал концепцию распределённого AutoResearch — аналога Folding@Home, но для улучшения языковых моделей:

  • Пул недоверенных воркеров в интернете
  • Недоверенные воркеры предлагают commits (изменения кода)
  • Доверенная инфраструктура верифицирует предложенное — это дёшево, хотя само нахождение хорошего решения дорого
  • Мотивация участников — место в лидерборде, позже возможен вклад в конкретные исследования (рак, климат и т.д.)

Структура напоминает блокчейн: блоки = commits, proof of work = эксперименты, награда = репутация в лидерборде.


4. Claws — агенты нового уровня

Карпати разграничивает агентов и claws (когти). Агент — это сессия, которая работает, пока ты в ней. Claw — нечто принципиально иное:

АгентClaw
Работает в одной сессииРаботает непрерывно в фоне
Нуждается в вашем участииДействует, даже пока вы спите
Простая памятьСложные системы памяти
Один репозиторийУправляет несколькими системами

Карпати привёл личный пример: Dobby the Elf Claw — его домашний агент. За три промпта тот:

  1. Просканировал локальную сеть
  2. Нашёл Sonos-систему, разобрался с её API
  3. Включил музыку в кабинете

Сейчас Dobby управляет светом, климат-контролем, шторами, бассейном и системой безопасности. При появлении движения на камере снаружи Dobby анализирует видео с помощью VLM-модели и отправляет в WhatsApp: «Приехал FedEx, возможно пришла посылка».

«Раньше у меня было шесть разных приложений для умного дома. Теперь я не использую ни одно из них. Dobby управляет всем в естественном языке».

5. Специация моделей и модульный ИИ

Карпати ожидает специации в мире ИИ — по аналогии с животным царством, где разные виды развили разные когнитивные способности под свои ниши.

Сейчас лаборатории строят монокультуры: одна большая модель, универсальная для всего. Но это приводит к «зазубренности» (jaggedness) — феномену, когда модель решает сложнейшие инженерные задачи за часы, но рассказывает один и тот же плохой анекдот 5 лет подряд.

«Я одновременно разговариваю с невероятно блестящим аспирантом-системным программистом и с десятилетним ребёнком. Это очень странно».

Почему анекдот не меняется? Потому что шутки не верифицируемы — их нельзя улучшить через reinforcement learning. Модели оптимизируются только там, где есть чёткая метрика.

Решение — специализированные модели:

  • Маленькие, но глубоко обученные на конкретной области
  • Эффективнее по латентности и пропускной способности
  • Примеры уже есть: модели для доказательства теорем в системе Lean

6. Влияние на профессии и рынок труда

Карпати изучил данные Bureau of Labor Statistics и опубликовал анализ (хотя и простой по форме — визуализация публичных данных, но уже вызвала широкое обсуждение).

Его ключевые наблюдения:

Три категории профессий:
  1. Полная автоматизация. Рутинные когнитивные задачи с чёткими метриками — максимальный риск в ближайшие годы.
  1. Инструментальное усиление. Большинство нынешних профессий не исчезнет, но изменится: специалист + агент = новая единица производительности. Исторически автоматизация создавала новые профессии.
  1. Новые роли. «Оркестратор агентов», «архитектор AutoResearch», «куратор ProgramMD» — позиции, которых пять лет назад не существовало.
Что важно понять прямо сейчас:

Карпати не считает, что «скоро всё автоматизируют». Он говорит, что навык управления агентами — это новая грамотность. Те, кто освоит его сейчас, получат огромное преимущество. Те, кто будет ждать — рискуют отстать.

Аналогия: в 90-х умение работать с электронной почтой казалось «айтишным» навыком. Сейчас это базовая грамотность. Управление агентами движется по тому же пути — быстро.


7. Образование в эпоху агентов: MicroGPT

Карпати давно продвигает идею обучения через строительство. Его курс Karpathy Zero-to-Hero собрал миллионы просмотров именно потому, что объясняет нейросети снизу вверх — через код.

Теперь он думает о следующем шаге: MicroGPT — персональный агент-наставник, который:

  • Работает как адаптивный учебник
  • Подстраивается под темп и уровень конкретного ученика
  • Сам является примером того, чему учит
«Агент, который обучает вас тому, как использовать агентов. Метауровень».

Карпати верит: образование — одна из областей, где агенты создадут асимметрично большую ценность. Индивидуальный наставник уровня эксперта раньше был доступен единицам. Скоро — всем.


FAQ

Что такое AutoResearch по Карпати?

AutoResearch — это система, в которой агент автономно проводит ML-эксперименты: подбирает гиперпараметры, обучает модели, оценивает результаты и улучшает код — без участия человека. Человек задаёт цель, метрику и ограничения, после чего выходит из петли.

Чем claw отличается от обычного ИИ-агента?

Обычный агент работает в рамках одной сессии и требует вашего участия. Claw — это постоянно работающая система с собственной памятью, которая действует на ваш счёт даже когда вы не за компьютером. Аналог — личный ИИ-сотрудник, а не инструмент.

Правда ли, что разработчики скоро не понадобятся?

По Карпати — нет. Изменяется роль: от написания кода к управлению агентами, постановке задач и верификации результатов. Новая профессия — «оркестратор агентов» — требует глубокого понимания систем, но не ручного кодинга.

Что такое «зазубренность» (jaggedness) ИИ-моделей?

Феномен, при котором модель одновременно превосходит человека в сложных задачах (написание кода, математика) и остаётся на уровне 2020 года в простых (анекдоты, нюансы коммуникации). Причина — RL-обучение улучшает только верифицируемые задачи.

Что такое специация моделей?

По аналогии с биологической эволюцией — движение от одной универсальной модели к экосистеме специализированных: модели для математики, для кода, для медицины. Каждая глубже оптимизирована в своей нише и эффективнее по ресурсам.

Какие навыки важны в эпоху ИИ-агентов?

Карпати выделяет: умение ставить чёткие задачи агентам, понимание того, что верифицируемо, а что нет; навык параллельного управления несколькими агентами; способность строить системы с объективными метриками. Всё остальное — skill issue, который решается практикой.


Заключение

Интервью Андрея Карпати с Сарой Гуо — это не футурология и не хайп. Это честный отчёт человека, который находится на переднем крае и описывает то, что происходит прямо сейчас.

Ключевые выводы:

  • Декабрь 2024 = перелом. Ручное кодирование уходит в прошлое для тех, кто освоил агентов.
  • Узкое место — вы. Не модели, не токены, не вычисления. Ваша способность управлять агентами — единственный реальный лимит.
  • AutoResearch = будущее науки. Убрать исследователя из петли эксперимента — следующий большой шаг.
  • Специация победит монокультуру. Одна универсальная модель уступит экосистеме специализированных.
  • Флопы = новые деньги. Контроль над вычислительными ресурсами становится ключевым активом.

Мы находимся в начале «петлевой эры» ИИ — эпохи, где ценность создаётся не за одну сессию, а в длинных автономных циклах. Те, кто научится строить эти петли сегодня, будут определять направление завтра.


Источник: интервью Андрея Карпати и Сары Гуо, No Priors Podcast, 2025. Оригинальное видео на YouTube.

← Все статьи

Комментарии (10)

Марина
31 марта 2026, 06:12

Игорь, спасибо за объяснение про верифицируемость. Думаю, тогда нам подойдёт подход с прокси-метриками. Буду смотреть в сторону AutoResearch для оптимизации воронки. Хотя сначала, видимо, нужно разобраться с базовой агентной инфраструктурой — это явно не быстрый путь.

Роман
31 марта 2026, 06:12

Про специацию моделей — мне кажется, это уже происходит, просто не так явно. DeepSeek R1 для reasoning, Codestral для кода, специализированные модели для биомедицины. Просто у нас нет единого интерфейса для переключения между ними по задаче. Как раз то, что Карпати называет claws — могут стать этим оркестровым слоем.

Евгений
31 марта 2026, 06:12

Раздел про образование немного скомкан — хотелось бы больше деталей про MicroGPT. Карпати давно говорит о том, что существующая система образования не успевает за темпом изменений в ИИ. Но конкретный формат адаптивного агента-наставника — это интересная идея, особенно в связке с его курсом Zero-to-Hero.

Наталья
31 марта 2026, 06:12

История с Dobby the Elf Claw — это моя любимая часть. Я делала нечто похожее для управления умным домом через n8n, но это заняло несколько недель и требует постоянной поддержки. Три промпта до работающей интеграции с Sonos — это действительно другой уровень. Хотя интересно, насколько это стабильно в долгосрочной перспективе.

Алексей
31 марта 2026, 06:11

Сергей, согласен, но это не противоречие. Для индивидуального разработчика — навык важнее. Для лабораторий масштаба OpenAI — флопы. Карпати говорит скорее о горизонте 5–10 лет, где у каждого будет персональный кластер для AutoResearch. Это звучит фантастически, но Dobby у него уже есть.

Сергей
31 марта 2026, 06:11

Скептически отношусь к тезису про «флопы = новые деньги». Это пока справедливо для очень узкой прослойки людей, которые реально могут утилизировать агентные кластеры. Для большинства компаний узкое место — не вычисления, а умение правильно поставить задачу агенту. Это навык, который стоит дороже.

Дарья
31 марта 2026, 06:11

Про зазубренность моделей — очень точное наблюдение. Мы сталкиваемся с этим постоянно. Агент пишет сложный алгоритм за 10 минут, а потом не может внятно объяснить простую бизнес-логику пользователю. Приходится разделять задачи: одному агенту — код, другому — коммуникация.

Игорь
31 марта 2026, 06:11

Марина, тут ключевое — верифицируемость результата. Если можно однозначно сказать «это решение лучше, чем то», AutoResearch применим. В бизнес-процессах это могут быть конверсия, время выполнения, стоимость транзакции. Сложнее с «мягкими» метриками вроде удовлетворённости клиентов — там нужно сначала хорошо сформулировать прокси-метрику.

Марина
31 марта 2026, 06:11

Интересно про AutoResearch, но хочется уточнить: это работает только для ML-задач с чёткой метрикой, или есть примеры применения в других областях? Вопрос не праздный — у нас задача оптимизации бизнес-процессов, и не всегда понятно, как формализовать «стало лучше».

Алексей
31 марта 2026, 06:11

Раздел про декабрь 2024 — это прямо в точку. Я тоже заметил этот перелом примерно тогда. У нас в команде переход произошёл постепенно, но к январю примерно 60–70% кода уже генерировалось агентами. Причём именно качество улучшилось — агент находит edge cases, которые мы раньше закрывали только в code review.

Оставить комментарий
Регистрация не требуется

Оставьте заявку,
чтобы обсудить проект

Напишите ваш вопрос, не забудьте указать телефон. Мы перезвоним и все расскажем.

Отправляя заявку, вы соглашаетесь с политикой конфиденциальности

Контакты

Москва

Работаем по всей России
и миру (онлайн)

+7 (999) 760-24-41

Ежедневно с 9:00 до 21:00

lamooof@gmail.com

По вопросам сотрудничества

Есть предложение?

Напишите нам в мессенджеры

© 2025 AI студия Владимира Ломтева