9 октября 2025 года Лукаш Кайзер из OpenAI назвал подход SGR "тупиковым путем развития" для LLM на TED AI, утверждая, что фиксированный характер SGR мешает по-настоящему сложному мышлению.
Building on Łukasz Kaiser's insights, he highlighted the "yin and yang” relationship between Large Language Models (LLMs) and retrieval systems.
SGR гарантирует структурную целостность каждого шага рассуждения через типизированные схемы, в то время как CoT полагается на неопределенные ...
In the last few years I worked on machine learning using neural networks as part of… · Experience: OpenAI · Education: RWTH Aachen · Location: San Francisco ...
This article focuses on reinforcement learning training methods used to develop and improve reasoning models.
САН-ФРАНЦИСКО, 9 октября 2025 года - Лукаш Кайзер, старший исследователь OpenAI и один из соавторов фундаментальной работы о трансформерах «Attention is all you need», выступил с острым замечанием в адрес подхода Schema-Guided Reasoning (SGR), назвав его «тупиковым путем развития». Это высказывание, сделанное на конференции TED AI, освещает стратегические приоритеты OpenAI в сфере развития больших языковых моделей (LLM) и вызывает живую дискуссию в AI-сообществе.
В то время как SGR позиционируется как метод, обеспечивающий повышенную точность и воспроизводимость в корпоративных решениях, Кайзер настаивает, что его фиксированный характер мешает достижению по-настоящему сложного, открытого мышления, способного решать задачи уровня научного исследования или сворачивания белка.
Кайзер, работавший как над трансформерами, так и над новейшими моделями, ориентированными на рассуждения (reasoning), признаёт отдельные успехи, достигнутые современными системами. Тем не менее он подчёркивает их фундаментальные слабости: линейное решение задач путём «забрасывания» токенами, недостаточную масштабируемость и длительные задержки отклика. По его словам, будущее принадлежит следующему поколению моделей, так называемым «Researchers», которые значительно легче поддаются распараллеливанию. Слайды, представленные им на конференции, демонстрируют архитектурные изменения, направленные на декомпозицию сложных задач и более рациональное использование вычислительных ресурсов.
Подход SGR, описанный в исследовании Schema-Guided Scene-Graph Reasoning based on Multi-Agent Large Language Model System (arXiv:2502.03450), представляет технику структурированного промптинга, использующую заранее заданные типизированные схемы для навигации LLM через явные рабочие процессы рассуждения. Этот метод, как утверждается, повышает точность на 5-10 % и обеспечивает 95 % воспроизводимость результатов, кодируя экспертные когнитивные процессы непосредственно в инференс через JSON Schema и валидацию Pydantic. Такие свойства делают его особенно привлекательным для корпоративных приложений, где важны надёжность, аудируемость и контроль качества. Инструменты вроде Instructor с более чем 3 млн скачиваний в месяц и 11 тыс. звёзд на GitHub лидируют в экосистеме SGR.
Тем не менее, в прямом диалоге с Кайзером, отвечая на вопрос о соотношении SGR с его видением будущего, исследователь из OpenAI заявил: «SGR - это тупиковый путь развития. Почему? Потому что reasoning в таком случае фиксированный, и модель движется по заранее проложенным «рельсам». Даже если с таким промптом модель решает конкретную задачу точнее и быстрее, чем универсальная модель, она никогда не сможет самостоятельно провести научное исследование или свернуть белок».
Этот комментарий подчёркивает глубокое расхождение во взглядах между разработчиками специализированных, контролируемых решений и теми, кто стремится к созданию более гибкого и автономного ИИ. Пример со сворачиванием белков не случаен: на той же конференции выступил Ориоль Виньялс, вице-президент по исследованиям Google DeepMind, который рассказывал об успехе AlphaFold в этой области, намекая на стремление крупных LLM к подобным прорывам.
В отличие от SGR, Кайзер предлагает обучать модели с помощью Reinforcement Learning (RL), что, по его мнению, позволит «не обрезать им крылья». Он признаёт, что сейчас нет полностью открытых библиотек для подобных задач, но подчёркивает наличие Reinforcement Fine-Tuning как функции в API OpenAI. Это согласуется с текущими тенденциями в отрасли. Так, апрельский отчёт Себастьяна Рашки о состоянии «The State of Reinforcement Learning for LLM Reasoning» в 2025 году подтверждает значимость RL в развитии LLM, особенно после выхода таких моделей, как xAI Grok и Anthropic Claude с явными возможностями «мышления» (thinking) посредством RL.
Кайзер также осуждает constrained decoding (Structured Outputs) как «зло», ограничивающее «полет мысли» моделей, предлагая вместо этого использовать тюнинг или полноценное обучение. Такая позиция отражает неприятие любых методов, накладывающих жёсткие ограничения на процесс генерации, в пользу более органичных и гибких подходов к обучению.
Очевидно, что Лукаша Кайзера вдохновляют глобальные и масштабные задачи, к которым он привык, о чём свидетельствует его вклад в Transformer Architecture и GPT-4. Его видение направлено на создание ИИ, способного к самостоятельному, адаптивному и творческому мышлению, а не к выполнению заранее определённых шаблонов. «Ну работает ваш SGR на маленькой модели лучше, чем reasoning-модель с проверенным качеством? Молодцы! Но путь всё равно тупиковый, ведь протеины-то оно складывать не сможет», - так он лаконично выразил своё отношение к эффективности SGR в узкоспециализированных областях.
Эта дискуссия иллюстрирует фундаментальное напряжение в разработке ИИ: между желанием предсказуемости, контролем и высокой точностью в конкретных доменах, что предлагает SGR, и амбициями создать универсального, адаптивного и по-настоящему интеллектуального агента, что является целью OpenAI и других игроков, инвестирующих в RL и открытое мышление. Как разрешится это противоречие, определит дальнейшее направление развития LLM и их применение в разных сферах.
Building on Łukasz Kaiser's insights, he highlighted the "yin and yang” relationship between Large Language Models (LLMs) and retrieval systems.
SGR гарантирует структурную целостность каждого шага рассуждения через типизированные схемы, в то время как CoT полагается на неопределенные ...
In the last few years I worked on machine learning using neural networks as part of… · Experience: OpenAI · Education: RWTH Aachen · Location: San Francisco ...
This article focuses on reinforcement learning training methods used to develop and improve reasoning models.
Вопросы и ответы