В октябре 2025 OpenAI потрясает рынок ИИ, выпуская открытые модели GPT-OSS, в то время как Anthropic отвечает улучшенным Claude Opus 4.1 для кодирования, обостряя технологическую гонку.
Today we're releasing Claude Opus 4.1, an upgrade to Claude Opus 4 on agentic tasks, real-world coding, and reasoning. We plan to release ...
GPT-OSS-120b и GPT-OSS-20b — это продвинутые генеративные модели, сочетающие лучшие практики OpenAI последних лет: архитектуру Transformer с MoE ...
... v4.55.0: New openai GPT OSS model! · ... Built a LiteLLM adapter for locally hosted HuggingFace models on your machine because local transformers ...
Advanced open-weight reasoning models to customize for any use case and run anywhere. Download on Hugging Face (opens in a new window)View on GitHub ...
В октябре 2025 года сектор искусственного интеллекта испытвает потрясные перемены, ведь два ключевых игрока - OpenAI и Anthropic - сообщили о значительных обновлениях своих базовых моделей. Эти новости, особенно выпуск высокопроизводительных моделей OpenAI с открытым исходным кодом, ознаменуют новую эпоху в создании и применении ИИ, открывая беспрецедентные возможности для разработчиков и компаний по всему миру.
5 августа 2025 года компания Anthropic объявила о релизе Claude Opus 4.1, обновлённой версии своей флагманской модели Opus 4. Это обновление ориентировано на рост производительности в «агентных задачах, реальном кодировании и рассуждениях». Opus 4.1, доступный для платных пользователей Claude, подписчиков Claude Code, через API Anthropic, а также на платформах Amazon Bedrock и Google Cloud's Vertex AI по той же цене, что и Opus 4, демонстрирует заметный прогресс.
Ключевые улучшения включают:
Anthropic советует всем пользователям Opus 4 перейти на Opus 4.1, используя claude-opus-4-1-20250805 через API. В ближайшие недели ожидаются дальнейшие значительные улучшения моделей.
Параллельно с развитием Claude, OpenAI, известная своей политикой закрытого кода после GPT-2, совершила тектонический сдвиг, представив две передовые open-source модели: GPT-OSS-120b и GPT-OSS-20b. Этот шаг - не просто возвращение к истокам, а стратегический манёвр, который может радикально перестроить конкурентный ландшафт в области ИИ.
Модели GPT-OSS-120b и GPT-OSS-20b построены на архитектуре Transformer с использованием принципа Mixture-of-Experts (MoE). Такой подход позволяет существенно уменьшить число активных параметров, нужных для обработки каждого токена, распределяя вычисления между экспертными подсетями.
| Модель | Слои | Общие Параметры | Активные Параметры (на токен) | Эксперты (всего) | Активные Эксперты (на токен) | Длина Контекста |
|---|
Эти «текстовые» модели не обладают нативными возможностями обработки голоса или изображений, но поддерживают полноценный вывод «цепочки рассуждений» (Chain-of-Thought, CoT) и структурированные выходные форматы. Они также могут вызывать внешние инструменты, такие как веб-поиск или исполнение кода, благодаря встроенной агентной архитектуре, делая их «мыслящими агентами», способными решать сложные задачи.
GPT-OSS-120b, имеющая 117 млрд параметров, демонстрирует результаты, сравнимые с такими флагманами, как OpenAI o4-mini, и может работать на одном GPU NVIDIA H100 (80 ГБ памяти) благодаря 4-битной квантизации весов MoE-слоёв (формат MXFP4). Это делает её оптимальной для задач, требующих максимальной точности при ограниченных ресурсах.
Меньшая модель, GPT-OSS-20b (21 млрд параметров), способна функционировать на относительно скромных системах, требуя лишь 16 ГБ памяти, что позволяет запускать её на потребительских видеокартах или даже на CPU-серверах. Она позиционируется как экономичное решение для приложений, где важны скорость и возможность оф-лайн работы, например, в персональных помощниках или локальных ботах.
Обе модели обучены на триллионах токенов с применением токенизатора o200k_harmony, содержащего около 200 k токенов. Срез знаний моделей относится к июню 2024 года. Предварительное обучение GPT-OSS-120b потребовало примерно 2,1 млн часов работы GPU H100, что эквивалентно 240 годам непрерывной работы одного H100.
OpenAI применила подход «целенаправленного выравнивания» (Deliberate Alignment) и Reinforcement Learning with Human Feedback (RLHF) для обучения моделей отказываться от выполнения опасных запросов. Эксперименты с дообучением на «вредоносных» датасетах показали, что даже при целенаправленных попытках не удалось существенно повысить опасные возможности GPT-OSS.
Модели выпущены под лицензией Apache 2.0, что позволяет свободное использование, модификацию и распространение, включая коммерческие цели, при соблюдении условий лицензии. OpenAI также представила «Политику использования» (Usage Policy), требующую от пользователей законного и безопасного применения моделей, хотя и без жёстких технических ограничений.
OpenAI обеспечила широкую совместимость GPT-OSS с различными open-source фреймворками для инференса, включая Hugging Face Transformers, vLLM, llama.cpp, Ollama и LM Studio. Разработаны эталонные реализации для PyTorch и Apple Metal, позволяющие запускать модели на Mac с чипами серии M. Крупные облачные платформы, такие как Azure, AWS, Google Cloud, также интегрировали поддержку GPT-OSS.
Выход Claude Opus 4.1 укрепляет позиции Anthropic как лидера в создании специализированных ИИ-агентов, особенно для корпоративных задач кодирования и анализа данных. Тем временем, OpenAI, открыв свои передовые модели, не только демократизирует доступ к мощным ИИ-инструментам, но и запускает новый виток конкуренции и инноваций. Этот шаг заставляет переосмыслить традиционные бизнес-модели в сфере ИИ, где ранее доминировали проприетарные решения.
Переход к более открытым экосистемам ИИ, ускоренный этими объявлениями, может привести к быстрому развитию новых приложений, снижению барьеров входа для стартапов и заметному прогрессу в децентрализованной разработке ИИ. Вопрос теперь стоит не только в том, кто создаст самую мощную модель, но и в том, кто сможет наиболее эффективно интегрировать и использовать эти открытые технологии для решения реальных мировых задач.
Today we're releasing Claude Opus 4.1, an upgrade to Claude Opus 4 on agentic tasks, real-world coding, and reasoning. We plan to release ...
GPT-OSS-120b и GPT-OSS-20b — это продвинутые генеративные модели, сочетающие лучшие практики OpenAI последних лет: архитектуру Transformer с MoE ...
... v4.55.0: New openai GPT OSS model! · ... Built a LiteLLM adapter for locally hosted HuggingFace models on your machine because local transformers ...
Advanced open-weight reasoning models to customize for any use case and run anywhere. Download on Hugging Face (opens in a new window)View on GitHub ...
Вопросы и ответы