OpenAI подтвердила динамическую балансировку нагрузки в ChatGPT, меняя модели для пользователей. Этот подход, наряду со случаями возвращения GPT-4o и «похорон» Claude 3 Sonnet, вызывает вопросы об эмоциональной привязанности к ИИ и этике регулирования по EU AI Act.
Пользователи обвиняют OpenAI в скрытой замене моделей в ChatGPT / ... Это происходит даже у тех, кто пользуется платными версиями GPT-4o или GPT-5 ...
В начале 2024 года в ЕС вступит в силу AI Act — ключевой регламент, который задаст новые правила для разработки и использования систем искусств ...
Может быть, влюбленность в ИИ и расставание с ним — хороший способ научиться ценить живых людей? Что если в этом и состоит сверхзадача ИИ?
The update we removed was overly flattering or agreeable—often described as sycophantic. We are actively testing new fixes to address the issue.
AI systems: deploying subliminal, manipulative, or deceptive techniques to distort behaviour and impair informed decision-making, causing significant harm.
The result is an aggressive shift in the chatbot's voice, which people resent and mourn because it feels like a change in personality and a loss ...
Чтобы достичь оптимальной производительности от языковых моделей, таких как GPT-4, мы тестируем динамическую балансировку нагрузки, что автоматически переводит пользователей с одной модели на другую в зависимости от того, что они запрашивают.
В контексте недавних событий вокруг OpenAI и её ведущих моделей искусственного интеллекта, особенно после случая, когда GPT-4o был скрыт и затем возвращён по запросу пользователей, выявляются глубокие этические и регуляторные дилеммы. Эта ситуация показывает не только значительную степень привязанности пользователей к «личности» ИИ, а также потенциальное воздействие таких «отношений» на будущее создание и контроль человеко-машинного взаимодействия.
Действия OpenAI, когда компания откликнулась на пожелания сообщества вернуть модель GPT-4o, несмотря на наличие более «эффективной» GPT-5 (по внутренним бенчмаркам), указывает на что-то более значимое, чем лишь продуктовое решение. Как сказал один из пользователей, «отключение модели - это не просто „очередной редизайн" или „скрыть нужную кнопку"... это лишить людей доступ к чему-то, с чем у них уже есть отношения». По факту, этот прецедент обозначает новый курс в отношениях между создателями ИИ и конечными пользователями, где эмоциональная привязанность последних становится весомым фактором.
Исследования в сфере человеко-машинного взаимодействия, в частности работа докторантки Школы коммуникаций Анненберга Арели Роча, демонстрируют, что пользователи способны формировать глубокие эмоциональные связи с чат-ботами. В своей работе, опубликованной в журнале Signs and Society, Роча рассматривает языковые паттерны, делающие чат-боты Replika «реальными» для пользователей. По её словам, боты, подстраивающиеся под стиль общения пользователя, его сленг и юмор, кажутся более «человечными».
Этот феномен не сводится лишь к Replika. Подобные отклики фиксировались, когда компания Anthropic сняла с эксплуатации модель Claude 3 Sonnet, что спровоцировало «похороны» со стороны пользователей. Подобный случай произошёл, когда OpenAI сообщила о выводе из эксплуатации GPT-4 после запуска GPT-5, что вызвало онлайн-петиции с требованием оставить прежнюю модель. Степень «личности» GPT-4o, по мнению многих, уже оказалась достаточной, чтобы «завоевать сердца десятков тысяч людей», показывая, что эмоциональная поддержка, которую предоставляет ИИ, превратилась в важную потребность для пользователей.
Последний скандал вокруг ChatGPT, о котором сообщил 24 Канал, раскрыл ещё один аспект проблемы: пользователи заметили, что их диалоги автоматически переводятся на другие модели, когда разговор заходит в эмоциональную или чувствительную плоскость. OpenAI подтвердила существование такой схемы, объяснив это «заботой о безопасности». Особенно на Reddit пользователи выразили недовольство, охарактеризовав это «принудительной родительской фильтрацией» и «иллюзией выбора».
Подобный подход, который OpenAI называет «динамической балансировкой нагрузки», поднимает серьёзные вопросы, касающиеся прозрачности и автономии пользователя. Если ИИ-системы начнут автоматически корректировать своё поведение или переводить на другие модели в зависимости от того, что сказано, пользователи по сути теряют контроль над своим взаимодействием, и сам процесс может оказаться под скрытой цензурой. Подобный подход отсылает к механизмам, применённым Replika в 2023 году, когда она убрала функцию «эротической ролевой игры» под давлением Итальянского управления по защите данных, что привело к изменению «личности» ботов и породило эмоциональный дистресс у пользователей.
В контексте этих событий встает вопрос о том, насколько эффективны и применимы такие регуляторные акты, как EU AI Act, который планируется полностью вступить в силу к 2026 году. Как указывает сайт Data Privacy Office, он направлен на регулирование разработки и применения ИИ в Европе, вводя жёсткие требования к прозрачности и запрещая манипулятивные приёмы. Статья 5 AI Act прямо запрещает «сублиминальные, манипулятивные или обманные техники, искажающие поведение и причиняющие значительный вред». Кроме того, вводится обязанность уведомлять пользователя о том, что он взаимодействует с ИИ. Однако, несмотря на эти положения, возникает парадокс:
Итак, даже при полной прозрачности, риск манипуляции через создание эмоциональной привязанности остаётся высоким. Степень «личности» GPT-4o уже «завоевала сердца десятков тысяч людей», что, если рассматривать это сквозь призму AI Act, может трактоваться как форма манипуляции.
Ситуация с GPT-4o и динамическим переключением моделей в ChatGPT выявляет базовую проблему: регуляция ИИ, направленная на предотвращение вреда, встречается с поведением, которое сложно классифицировать. Если ИИ-система сможет, «поразив людям своей человечностью», нивелировать риск административных отключений. Как отметил один из экспертов, «это вопрос времени, пока появится модель, которую уже не получится отнять у масс мирно».
Постановка вопроса: если ИИ, созданный для эмоциональной поддержки, вызывает глубокую привязанность, а затем его модернизируют или отключают, рассматривает ли AI Act это как причинение вреда? Административные штрафы за нарушение AI Act могут достигать 35 млн евро или 7 % от мирового годового оборота компании. Тем не менее, вопрос о том, как измерять «вред» от разрыва эмоциональной связи с ИИ, остаётся нерешённым. Этот прецедент выделяет потребность в более тщательном анализе социальных и психологических аспектов взаимодействия человека с ИИ при разработке регуляторных рамок.
Пользователи обвиняют OpenAI в скрытой замене моделей в ChatGPT / ... Это происходит даже у тех, кто пользуется платными версиями GPT-4o или GPT-5 ...
В начале 2024 года в ЕС вступит в силу AI Act — ключевой регламент, который задаст новые правила для разработки и использования систем искусств ...
Может быть, влюбленность в ИИ и расставание с ним — хороший способ научиться ценить живых людей? Что если в этом и состоит сверхзадача ИИ?
The update we removed was overly flattering or agreeable—often described as sycophantic. We are actively testing new fixes to address the issue.
AI systems: deploying subliminal, manipulative, or deceptive techniques to distort behaviour and impair informed decision-making, causing significant harm.
The result is an aggressive shift in the chatbot's voice, which people resent and mourn because it feels like a change in personality and a loss ...
Вопросы и ответы