Logo

OpenAI: Оптимизатор Промптов для GPT-5 — Революция или Маркетинг?

13 августа 2025 г. OpenAI выпустила оптимизатор промптов для GPT-5, призванный упростить создание запросов. Никита Собетов, Head of Digital Marketing, считает, что инструмент генерирует лишь базовые промпты без сложных техник.

16 жовтня 2025 р., 20:02
4 мин чтения

OpenAI представляет оптимизатор промптов для GPT-5: эволюция инструмента или маркетинговый ход?

В условиях быстрого развития генеративного искусственного интеллекта (ИИ) компания OpenAI выпустила новый инструмент - оптимизатор промптов, созданный для подгонки запросов к модели GPT-5. Объявленный в API-гайдах в разделе, посвящённом миграции со старых моделей на GPT-5, он нацелен упростить процесс генерации эффективных запросов, которые включают новейшие «лучшие практики» промптинга. Однако эксперты отрасли выражают как поддержку, так и сомнения по поводу его новаторства.

Функциональность и позиционирование нового инструмента

Инструмент, доступный по адресу platform.openai.com/chat/edit?models=gpt-5&optimize=true, обещает упростить переход к новой модели GPT-5, поскольку, по словам OpenAI, старые промпты «скорее всего не используют лучшие практики и тем более не заточены пока еще под GPT-5». Руководство по промптингу для GPT-5 расположено в OpenAI Cookbook по адресу cookbook.openai.com/examples/gpt-5/gpt-5promptingguide.

Основные заявленные возможности оптимизатора включают:

  • Создание промптов «с нуля» на базе минимального контекста.
  • Редактирование уже существующих промптов для улучшения стиля, структуры и точности.
  • Поддержку нескольких языков, в том числе русского.
  • Приоритетную оптимизацию промптов для моделей GPT-5, GPT-4.1 и GPT o3.

Пользователю достаточно вставить текущий промпт или указать желаемый результат, после чего сервис сгенерирует или скорректирует запрос под конкретную задачу. Например, Никита Собетов, Head of Digital Marketing, отметил в своём обзоре от 13 августа 2025 г., что все полученные им промпты были построены в технике Zero-Shot prompting, без единого примера в запросе. Это подразумевает отсутствие применения таких продвинутых подходов, как One-Shot, Few-Shot или Chain-of-Thought, хотя OpenAI заявляет об их использовании.

Ограничения и перспективы

Несмотря на заявленные функции, некоторые специалисты ставят под вопрос возможность нового инструмента полностью заменить квалифицированного промпт-инженера. Собетов, в частности, утверждает, что сервис «решает лишь часть задач: генерирует стартовые, базовые промпты или подсвечивает, как слегка усовершенствовать уже написанное». По его словам, это напоминает то, что опытные пользователи уже делают, используя базовые большие языковые модели (LLM) для черновой работы.

Ключевое преимущество оптимизатора, по мнению Собетова, - возможность загрузить готовый промпт, после чего сервис выделит потенциальные ошибки и укажет на области для улучшения. Однако окончательное решение остаётся за пользователем, который обязан самостоятельно проверить рекомендации.

Интеграция с API и значение для разработчиков

Важный аспект инструмента - возможность выгрузки оптимизированных промптов через API. Это может значительно упростить и ускорить работу в сценариях, где один и тот же запрос используется в нескольких задачах и требует централизованного обновления. Такая функциональность предоставляет разработчикам удобный механизм для масштабирования и поддержания консистентности запросов в своих приложениях.

Конкурентный ландшафт и производительность моделей

На фоне анонса OpenAI другие игроки рынка тоже активно развивают свои модели. Так, Anthropic недавно представила Haiku 4.5, которая, по утверждениям компании, превосходит Sonnet 4 по производительности, при этом имеет более низкую стоимость и заметно большую скорость обработки токенов в секунду. Это свидетельствует о растущей конкуренции в сфере LLM, где эффективность, скорость и экономичность становятся ключевыми параметрами.

Между тем пользователи уже имели возможность тестировать ранние версии моделей, таких как Codex (gpt-5-codex), доступный подписчикам ChatGPT Plus. Пользователь Reddit с ником "RevolutionaryLevel39" поделился своими наблюдениями, проведя тесты с Codex, а также с конкурирующими моделями, такими как CC (предположительно, Claude.ai), Gemini и GLM.

В ходе тестирования Codex (ChatGPT Plus, $20) было отмечено:

  • Относительную эффективность 5-часового окна использования по сравнению с CC.
  • Использование 1,23 млн токенов (1,14 млн входных + 89 тыс. выходных) в рамках 5-часовой сессии.
  • Потребление 100 % 5-часовой квоты, но всего 30 % еженедельной квоты, что означает около 13-14 часов использования в неделю (в сравнении с 10 часами в неделю для CC Pro за $20).

"RevolutionaryLevel39" подчеркнул, что Codex «определённо не то же самое, что CC», но эффективно реагирует и решает вопросы, если пользователь чётко знает, что спросить. Он охарактеризовал Codex как модель, которая «меньше болтает» и «больше делает», в отличие от CC, которая, по его словам, требует более детального взаимодействия. Вывод был таков: CC и Codex - лучшие модели для программирования, не конкурирующие, а дополняющие друг друга.

Заключение

Представленный OpenAI оптимизатор промптов для GPT-5 является эволюционным шагом, направленным на упрощение взаимодействия с их новейшими моделями. Он предлагает полезные функции для создания и доработки запросов, а также интеграцию через API, что представляет значительное преимущество для разработчиков. Тем не менее, по всей видимости, инструмент пока не способен полностью заменить квалифицированного промпт-инженера, функционируя скорее как помощник для базовых или черновых промптов. Его появление подчёркивает общую тенденцию в индустрии ИИ к созданию более доступных и интуитивных средств работы с мощными LLM, при этом сохраняется потребность в экспертных знаниях для решения сложных задач.

Вопросы и ответы

OpenAI представляет оптимизатор промптов для GPT-5: эволюция инструмента или маркетинговый ход?
Функциональность и позиционирование нового инструмента
Ограничения и перспективы
Интеграция с API и значение для разработчиков
Конкурентный ландшафт и производительность моделей
Заключение