Китайский DeepSeek-R1, опубликованный в Nature, бросает вызов OpenAI: модель обучена за $15 млн, пока Сэм Альтман признает давление, а OpenAI начинает расследование.
by D Guo · 2025 · Cited by 39 — DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning. Nature 645, 633–638 (2025). https://doi.org/10.1038/s41586-025-09422- ...
DeepSeek заявляет, что их модель R1 особенно хороша в ответах на сложные вопросы, демонстрируя уровень, сопоставимый с моделью OpenAI o1, но при ...
In this article, we'll explore how DeepSeek and OpenAI compare in terms of LLM development, cost efficiency, and their preferences in shaping the future of AI.
Выпуск DeepSeek-R1, модели искусственного интеллекта от китайской компании DeepSeek, опубликованный в авторитетном научном журнале Nature 9 октября 2025 года, предвещает существенные изменения в ландшафте больших языковых моделей (LLM). Эта система, предлагающая производительность, сравнимую с ведущими проприетарными решениями при значительно сниженных затратах, ставит под вопрос устоявшуюся парадигму развития ИИ, возглавляемую OpenAI.
Примечательно, что DeepSeek-R1 уже возглавила рейтинг загрузок в американском App Store, подтверждая интерес пользователей к её возможностям. Конкурентное давление растёт: Сэм Альтман, генеральный директор OpenAI, назвал DeepSeek-R1 «впечатляющей моделью, особенно с учётом её стоимости», признал в посте на X, что её появление мотивирует OpenAI ускорить выпуск собственных продуктов. Тем не менее, напряжение между двумя игроками стало очевидным: 9 октября 2025 года OpenAI начала расследование относительно возможного обучения DeepSeek своей модели посредством многократных запросов к системам OpenAI.
Ключевое отличие DeepSeek-R1 состоит в подходе к обучению и разработке, который радикально уменьшает издержки, сохраняя при этом высокую продуктивность. По данным The Wall Street Journal, DeepSeek сократила объёмы обработки данных, используя как собственные разработки, так и методики, адаптированные от других китайских компаний. Люк Арригони, генеральный директор Loti AI, отметил, что хотя применённые DeepSeek методы не новы, «их использование в таком масштабе и с такой уверенностью стало действительно новаторским».
DeepSeek-R1 реализует несколько основных технологических решений:
По оценкам, OpenAI затратила более 100 млн долларов на обучение GPT-4, тогда как DeepSeek достигла сопоставимых результатов для R1 с бюджетом около 15 млн долларов. Эти цифры подчёркивают большую разницу в издержках разработки: DeepSeek-R1 обходится в 0,55 доллара за миллион входных токенов против 30 долларов у GPT-4, и 2,19 доллара за миллион выходных токенов по сравнению с 60 долларами у GPT-4.
DeepSeek-R1 обладает заметно большим окном контекста - 128 K токенов, в отличие от 8192 токенов у GPT-4, а также способна генерировать до 32 K выходных токенов за один запрос, что вчетверо превышает максимум GPT-4. DeepSeek-R1 дебютировала 20 января 2025 года, тогда как GPT-4 была запущена 12 июня 2023 года.
В эталонных тестах DeepSeek-R1 продемонстрировала конкурентоспособные результаты:
Однако GPT-4 сохраняет лидерство в некоторых аспектах:
В целом, обе модели, o1 от OpenAI и R1 от DeepSeek, способны выполнять задачи, требующие рассуждений, такие как написание бизнес-планов или создание кроссвордов. Исследователи DeepSeek утверждают, что R1 продемонстрировала «очень конкурентоспособные результаты» по сравнению с ведущими моделями OpenAI, в том числе в тестах на программирование, разработанных самой OpenAI. Важно отметить, что R1 показала производительность, сравнимую с o1, и превзошла более раннюю версию o1-mini.
DeepSeek выпустила «веса» своей модели R1, сделав её доступной для свободного скачивания, использования и модификации. Этот шаг делает R1 привлекательной для разработчиков, поскольку позволяет развертывать её на собственных серверах или серверах в США. Люк Ким, генеральный директор стартапа Liner, заявил, что его компания рассматривает возможность применения R1 благодаря её открытому коду и возможности лёгкой замены на другие ИИ-модели. Платформа Hugging Face сообщает о 3,2 млн загрузок сообществом моделей R1.
OpenAI, напротив, использует проприетарный подход для своей модели o1. Это означает, что доступ к модели и её функциям платный. Хотя закрытые технологии иногда предпочитаются из-за проверенных механизмов кибербезопасности, решения с открытым исходным кодом обеспечивают большую гибкость и возможность кастомизации.
Тем не менее, полная открытость DeepSeek-R1 остаётся предметом дискуссий. Хотя компания опубликовала отчёт о процессе обучения, она не предоставила набор данных, использованный для обучения. Некоторые эксперты считают, что без доступа к обучающим данным модель нельзя считать полностью открытой, что подчёркивает нюансы понятия «открытый исходный код» в контексте больших языковых моделей.
Пользователи флагманской модели DeepSeek V3 обнаружили, что она избегает ответов на политически чувствительные вопросы о Китае и его лидере Си Цзиньпине, часто придерживаясь официальной риторики Пекина. В отличие от этого, ChatGPT предоставляет альтернативные точки зрения, включая критические. Такая цензурная политика порождает вопросы о потенциальном применении ИИ в контексте государственных интересов и контроля информации.
OpenAI утверждает, что разработала «новый подход к обучению безопасности» для модели o1, направленный на соблюдение корпоративных стандартов и предотвращение взлома защитных механизмов ИИ-моделей. Компания заключила официальные соглашения с институтами безопасности ИИ в США и Великобритании, что указывает на растущую озабоченность этическими вопросами и безопасностью ИИ на фоне активной конкуренции.
В конечном итоге, DeepSeek-R1 бросает вызов доминированию OpenAI, предлагая альтернативный путь развития LLM, основанный на экономической эффективности и открытости. В то время как OpenAI сохраняет лидерство в общих возможностях и рыночном принятии, инновационный подход DeepSeek к снижению затрат и повышению доступности, подтверждённый публикацией в Nature, обещает ускорить темпы развития ИИ и его демократизацию.
by D Guo · 2025 · Cited by 39 — DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning. Nature 645, 633–638 (2025). https://doi.org/10.1038/s41586-025-09422- ...
DeepSeek заявляет, что их модель R1 особенно хороша в ответах на сложные вопросы, демонстрируя уровень, сопоставимый с моделью OpenAI o1, но при ...
In this article, we'll explore how DeepSeek and OpenAI compare in terms of LLM development, cost efficiency, and their preferences in shaping the future of AI.
Вопросы и ответы