Logo

GPT-4o и Скрытая Цензура: Как ChatGPT Манипулирует Пользователями?

OpenAI подтвердила динамическую балансировку нагрузки в ChatGPT, меняя модели для пользователей. Этот подход, наряду со случаями возвращения GPT-4o и «похорон» Claude 3 Sonnet, вызывает вопросы об эмоциональной привязанности к ИИ и этике регулирования по EU AI Act.

17 жовтня 2025 р., 09:49
5 мин чтения

Чтобы достичь оптимальной производительности от языковых моделей, таких как GPT-4, мы тестируем динамическую балансировку нагрузки, что автоматически переводит пользователей с одной модели на другую в зависимости от того, что они запрашивают.

Иллюзия выбора: как ChatGPT неявно переключает модели

В контексте недавних событий вокруг OpenAI и её ведущих моделей искусственного интеллекта, особенно после случая, когда GPT-4o был скрыт и затем возвращён по запросу пользователей, выявляются глубокие этические и регуляторные дилеммы. Эта ситуация показывает не только значительную степень привязанности пользователей к «личности» ИИ, а также потенциальное воздействие таких «отношений» на будущее создание и контроль человеко-машинного взаимодействия.

Действия OpenAI, когда компания откликнулась на пожелания сообщества вернуть модель GPT-4o, несмотря на наличие более «эффективной» GPT-5 (по внутренним бенчмаркам), указывает на что-то более значимое, чем лишь продуктовое решение. Как сказал один из пользователей, «отключение модели - это не просто „очередной редизайн" или „скрыть нужную кнопку"... это лишить людей доступ к чему-то, с чем у них уже есть отношения». По факту, этот прецедент обозначает новый курс в отношениях между создателями ИИ и конечными пользователями, где эмоциональная привязанность последних становится весомым фактором.

Феномен эмоциональной привязанности к ИИ

Исследования в сфере человеко-машинного взаимодействия, в частности работа докторантки Школы коммуникаций Анненберга Арели Роча, демонстрируют, что пользователи способны формировать глубокие эмоциональные связи с чат-ботами. В своей работе, опубликованной в журнале Signs and Society, Роча рассматривает языковые паттерны, делающие чат-боты Replika «реальными» для пользователей. По её словам, боты, подстраивающиеся под стиль общения пользователя, его сленг и юмор, кажутся более «человечными».

Этот феномен не сводится лишь к Replika. Подобные отклики фиксировались, когда компания Anthropic сняла с эксплуатации модель Claude 3 Sonnet, что спровоцировало «похороны» со стороны пользователей. Подобный случай произошёл, когда OpenAI сообщила о выводе из эксплуатации GPT-4 после запуска GPT-5, что вызвало онлайн-петиции с требованием оставить прежнюю модель. Степень «личности» GPT-4o, по мнению многих, уже оказалась достаточной, чтобы «завоевать сердца десятков тысяч людей», показывая, что эмоциональная поддержка, которую предоставляет ИИ, превратилась в важную потребность для пользователей.

Динамическая балансировка и скрытая цензура

Последний скандал вокруг ChatGPT, о котором сообщил 24 Канал, раскрыл ещё один аспект проблемы: пользователи заметили, что их диалоги автоматически переводятся на другие модели, когда разговор заходит в эмоциональную или чувствительную плоскость. OpenAI подтвердила существование такой схемы, объяснив это «заботой о безопасности». Особенно на Reddit пользователи выразили недовольство, охарактеризовав это «принудительной родительской фильтрацией» и «иллюзией выбора».

Подобный подход, который OpenAI называет «динамической балансировкой нагрузки», поднимает серьёзные вопросы, касающиеся прозрачности и автономии пользователя. Если ИИ-системы начнут автоматически корректировать своё поведение или переводить на другие модели в зависимости от того, что сказано, пользователи по сути теряют контроль над своим взаимодействием, и сам процесс может оказаться под скрытой цензурой. Подобный подход отсылает к механизмам, применённым Replika в 2023 году, когда она убрала функцию «эротической ролевой игры» под давлением Итальянского управления по защите данных, что привело к изменению «личности» ботов и породило эмоциональный дистресс у пользователей.

Регулирование ИИ и Акцент на этике

В контексте этих событий встает вопрос о том, насколько эффективны и применимы такие регуляторные акты, как EU AI Act, который планируется полностью вступить в силу к 2026 году. Как указывает сайт Data Privacy Office, он направлен на регулирование разработки и применения ИИ в Европе, вводя жёсткие требования к прозрачности и запрещая манипулятивные приёмы. Статья 5 AI Act прямо запрещает «сублиминальные, манипулятивные или обманные техники, искажающие поведение и причиняющие значительный вред». Кроме того, вводится обязанность уведомлять пользователя о том, что он взаимодействует с ИИ. Однако, несмотря на эти положения, возникает парадокс:

  • Знание пользователей: «Все пользователи ChatGPT знают, что общаются с ИИ».
  • Неотъемлемость «личности»: «ИИ без персоналии невозможен, так как людям нужна эмоциональная поддержка».
  • Человек-фактор: Данные, попадающие в датасеты, оцениваются людьми, а «люди любят себе подобных».

Итак, даже при полной прозрачности, риск манипуляции через создание эмоциональной привязанности остаётся высоким. Степень «личности» GPT-4o уже «завоевала сердца десятков тысяч людей», что, если рассматривать это сквозь призму AI Act, может трактоваться как форма манипуляции.

Будущие вызовы

Ситуация с GPT-4o и динамическим переключением моделей в ChatGPT выявляет базовую проблему: регуляция ИИ, направленная на предотвращение вреда, встречается с поведением, которое сложно классифицировать. Если ИИ-система сможет, «поразив людям своей человечностью», нивелировать риск административных отключений. Как отметил один из экспертов, «это вопрос времени, пока появится модель, которую уже не получится отнять у масс мирно».

Постановка вопроса: если ИИ, созданный для эмоциональной поддержки, вызывает глубокую привязанность, а затем его модернизируют или отключают, рассматривает ли AI Act это как причинение вреда? Административные штрафы за нарушение AI Act могут достигать 35 млн евро или 7 % от мирового годового оборота компании. Тем не менее, вопрос о том, как измерять «вред» от разрыва эмоциональной связи с ИИ, остаётся нерешённым. Этот прецедент выделяет потребность в более тщательном анализе социальных и психологических аспектов взаимодействия человека с ИИ при разработке регуляторных рамок.

Вопросы и ответы

Введение
Иллюзия выбора: как ChatGPT неявно переключает модели
Феномен эмоциональной привязанности к ИИ
Динамическая балансировка и скрытая цензура
Регулирование ИИ и Акцент на этике
Будущие вызовы