C
ChaoBro

Ставка Лекуна на $1 млрд: AMI Labs строит анти-LLM

Ставка Лекуна на $1 млрд: AMI Labs строит анти-LLM

Yann LeCun наконец перестал скрывать свои планы.

Когда он покинул Meta в ноябре прошлого года, он оставил одну фразу: «Я сделаю это быстрее, дешевле и лучше сам». Четыре месяца спустя AMI Labs закрыла посевной раунд на $1,03 млрд — крупнейший посевной раунд в истории Европы, оценка $3,5 млрд. Nvidia, Samsung, Sea и Alpha Intelligence Capital — все за столом.

Это не ещё один стартап-обёртка. LeCun строит систему ИИ, которая «понимает физический мир», используя архитектуру V-JEPA, идя в лобовую атаку на то, что он называет «мёртвой дорогой» — большие языковые модели.

Мировые модели против LLM: ставка в $1 млрд

AMI расшифровывается как Advanced Machine Intelligence, штаб-квартира в Париже. LeCun занимает должность сооснователя и исполнительного председателя. Китайский учёный Се Сайнин (соавтор статьи DiT) подтвердил своё присоединение.

Технический путь ясен: вместо накопления интеллекта через предсказание следующего токена модель учится «понимать» — строить внутренние представления физического мира с постоянной памятью и способностью планирования. Это ядро JEPA (Joint Embedding Predictive Architecture), направления, которое LeCun отстаивает с 2022 года.

Почему сейчас? Потому что дивиденды масштабирования LLM заметно сокращаются. GPT-6, Claude Opus 4.7, серия Gemini 3 — параметры растут, затраты растут, но кривая роста способностей выравнивается. Тезис Лекуна: предсказывать следующее слово — не то же самое, что понимать мир.

Прав ли он? Никто пока не может сказать определённо. Но посевной раунд на $1,03 млрд сам по себе является сигналом: рынки капитала начинают оценивать «не-LLM маршруты».

Почему инвесторы купились

Посевной раунд на $1,03 млрд звучит безумно, но если разобрать — логика есть:

  • Nvidia делает ставку на диверсификацию спроса на вычисления. Если мировые модели станут новой парадигмой, история чипов для обучения и вывода изменится.
  • Samsung видит потенциал развёртывания на краю. Если мировые модели смогут выполнять более эффективное обучение представлениям, implications для телефонов и AR-устройств будут не менее значимыми, чем для облака.
  • Sea (юго-восточноазиатский интернет-гигант) сигнализирует, что варианты использования AMI выходят за пределы США и Европы.

Оценка в $3,5 млрд для компании, которая ещё собирает команду, не дешёвая. Но учитывая личный бренд Лекуна и теоретическую основу JEPA, ценообразование не безумное — больше похоже на опцион на вопрос: «Если LLM не конечная игра, то что?»

Сравнение с Ineffable Intelligence

В том же месяце Ineffable Intelligence, основанная бывшим ключевым исследователем DeepMind Дэвидом Сильвером, также закрыла посевной раунд на $1,1 млрд (под руководством Sequoia, с участием Nvidia и Google), оценка $5,1 млрд. Обе компании бросают вызов парадигме LLM, но разными путями: Сильвер идёт через обучение с подкреплением + рассуждение, ЛеКун — через мировые модели + обучение представлениям.

Вместе эти два раунда составляют более $2,1 млрд. Это не только вопрос денег — это ранний сигнал о том, что парадигмы исследований ИИ могут расходиться.

Оценка

AMI Labs не идёт за рынком Coding Agent. Её цель дальше, и риск соответственно больше. Сработает ли маршрут мировых моделей, зависит от двух вопросов: можно ли проверить эффективность обучения представлениям на масштабных данных и найдёт ли эта архитектура сценарии, которые LLM не могут обработать.

В краткосрочной перспективе ничего продуктового не выйдет. Сам ЛеКун говорил, что это проект «минимум на пять лет».

Но посевной раунд на $1,03 млрд говорит об одном: уже достаточно денег делают ставку на то, что LLM — это не конечная точка. Этот капитал будет гореть долго и привлечёт топ-исследователей из OpenAI, Google DeepMind и Anthropic.

Что наблюдать дальше: когда AMI Labs опубликует свою первую техническую статью и как команда Се Сайнина продвинется в направлении видео/3D представлений. Если JEPA сможет дать более эффективные представления, чем существующие модели для визуального понимания, лагерю LLM действительно стоит напрячься.

Основные источники:

  • Статья AMI Labs в Baidu Baike
  • Отчёт Sina Tech от 2026-05-09
  • Комплексные отчёты об уходе ЛеКуна из Meta и создании AMI Labs