Модель TRM от Samsung с 7 млн параметров обошла o3-mini на тесте ARC-AGI благодаря рекурсии, что ставит под сомнение превосходство масштаба и открывает путь для on-device AI.
Samsung представил Tiny Recursive Model — 7M-параметровую модель с рекурсивным рассуждением, которая в ряде задач обходит гигантские LLM (включ ...
TRM обучается, рекурсивно уточняя свои собственные ответы, используя две внутренние памяти: латентное состояние рассуждения (z) и текущий ответ ...
With each recursive cycle, the model is able to produce progressively better predictions or results. Samsung's approach, which is akin to a ...
We propose Tiny Recursive Model (TRM), a much simpler recursive reasoning approach that achieves significantly higher generalization than HRM, ...
Новое исследование от Samsung, опубликованное 6 октября 2025 года, демонстрирует, как система с удивительно небольшим числом параметров, Tiny Recursive Model (TRM), или «Крошечная рекурсивная модель», обходит существенно более крупные языковые модели, включая DeepSeek-R1, Google Gemini 2.5 Pro и OpenAI o3-mini на сложных задачах логического рассуждения, таких как ARC-AGI. Эта работа, выполненная единственным автором Алексией Жоликер-Мартино, ставит под вопрос устоявшееся представление о том, что масштаб - единственный путь к прогрессу в возможностях искусственного интеллекта.
Ключевым отличием TRM является использование рекурсии - итеративного процесса, в рамках которого модель многократно пересматривает и уточняет свои промежуточные выводы, прежде чем сформировать окончательный ответ. Это позволяет ей имитировать глубину и сложность рассуждений, характерные для существенно более крупных архитектур, без сопутствующих вычислительных и ресурсных затрат.
TRM работает по циклу, включающему несколько этапов «внутреннего мышления»:
Подобный подход, по словам автора, уменьшает хрупкость традиционных «цепочек рассуждений» (chain-of-thought), где одна ошибка в начале может исказить весь вывод, и снижает склонность к переобучению при росте количества слоёв.
Показатели TRM на тестах логического рассуждения оказались замечательными:
Модель, содержащая лишь 7 млн параметров, что менее 0.01 % от размеров некоторых её «соперников», продемонстрировала превосходство в задачах, требующих итеративной корректировки и логического обоснования. В частности, она обогнала более ранний подход Hierarchical Reasoning Model (HRM), использующий две сети и сложные методы обучения.
Несмотря на поразительные достижения, важно подчеркнуть, что TRM не является языковой моделью. Её текущая специализация - алгоритмические задачи, и она не предназначена для генерации текстовых ответов или широкого языкового самовыражения. Низкий результат на ARC-AGI-2 (8 %) также свидетельствует о том, что система ещё далека от универсальности и имеет ограничения по типу задач, которые она может решать эффективно. Тем не менее, как отмечается в публикации на Reddit, «рекурсия, а не масштаб, движет рассуждением».
Работа Samsung подчёркивает важность алгоритмической эффективности для будущего искусственного интеллекта, особенно в контексте «ИИ на устройстве» (on-device AI) и «граничного ИИ» (edge AI), где память и вычислительные ресурсы ограничены. Масштабные модели, безусловно, сохранят свою актуальность для задач, требующих обширных мировых знаний и генерации разнообразного контента. Однако Tiny Recursive Model показывает, что для определённого класса задач архитектурные инновации и рекурсивные схемы способны дать значительный прирост в ресурсной и энергоэффективности.
Это открывает новые направления для исследований: как комбинировать рекурсию с большим контекстом, какие механизмы контроля качества промежуточных шагов гарантируют стабильность вывода, и как интегрировать подобные подходы в гибридные системы, где небольшие рекурсивные модули могли бы работать совместно с крупными языковыми моделями.
Полный текст статьи «Less is More: Recursive Reasoning with Tiny Networks» доступен на arXiv. Ранее проведённый разбор работы Hierarchical Reasoning Model, на которую ссылаются в текущем исследовании, можно найти здесь.
Samsung представил Tiny Recursive Model — 7M-параметровую модель с рекурсивным рассуждением, которая в ряде задач обходит гигантские LLM (включ ...
TRM обучается, рекурсивно уточняя свои собственные ответы, используя две внутренние памяти: латентное состояние рассуждения (z) и текущий ответ ...
With each recursive cycle, the model is able to produce progressively better predictions or results. Samsung's approach, which is akin to a ...
We propose Tiny Recursive Model (TRM), a much simpler recursive reasoning approach that achieves significantly higher generalization than HRM, ...
Вопросы и ответы