Logo

Мустафа Сулейман: ИИ как Квази-Сознание – Революция в Планировании к 2025?

Мустафа Сулейман, CEO Microsoft AI, прогнозирует к 2025 году развитие ИИ-систем способных к долгосрочному планированию, что вызовет этические дилеммы. Исследование METR от 19 марта 2025 года подтверждает экспоненциальный рост возможностей ИИ.

16 жовтня 2025 р., 19:44
5 мин чтения

Искусственный Интеллект: От Одноразовых Прогнозов к Долгосрочному Планированию - Эра Квази-Сознания на Пороге?

Поскольку научное сообщество и массовое общество озабочены перспективами общего искусственного интеллекта (AGI) и сверхразума (ASI), Мустафа Сулейман, генеральный директор Microsoft AI и соучредитель Google DeepMind, отмечает более близкую, а также, по его мнению, захватывающую перемену: способность ИИ к длительному, последовательному прогнозированию и действию. В своём недавнем почти двухчасовом интервью «Спасёт ли ИИ человечество или положит ему конец?» Сулейман высказал предположение, что к концу 2025 года эта ключевая возможность будет в значительной степени реализована. Это утверждение перестраивает дискурс об ИИ, смещая акцент с абстрактных будущих сценариев на конкретные, измеримые изменения в поведении моделей.

От «Т» до бесконечности: Эволюция прогностической способности ИИ

Сулейман подчёркивает, что современные большие языковые модели (LLM) остаются «механизмами однократного предсказания»: «Вы задаёте вопрос - получаете ответ. Модель выдаёт единственное правильное предсказание в момент времени T». Он противопоставляет это человеческой способности к непрерывному потоку точных предсказаний, формирующих долгосрочные планы и действия, будь то элементарное решение «как встать с этого кресла» или сложный путь домой.

Ключевой тезис Сулеймана заключается в том, что текущие ограничения этих моделей являются лишь «вычислительными», но не «фундаментальными - алгоритмическими или даже связанными с данными». По его убеждению, нет никаких препятствий для того, чтобы LLM могли делать «идеальные, последовательные предсказания на очень, очень длительные периоды времени». Этот прогноз подкрепляется данными исследования «Measuring AI Ability to Complete Long Tasks» от METR, опубликованного 19 марта 2025 года, которое демонстрирует экспоненциальный рост способности ИИ к выполнению долгосрочных задач. Согласно их анализу, длина задач, которые агенты на основе передовых моделей могут автономно выполнять с 50 % надёжностью, удваивалась примерно каждые семь месяцев в течение последних шести лет. Экстраполяция этой тенденции предсказывает, что менее чем через десятилетие появятся ИИ-агенты, способные самостоятельно выполнять значительную часть программных задач, которые сегодня занимают у людей дни или недели. При учёте лишь данных за 2024 и 2025 годы оценка сокращается, и ИИ, способный выполнять месячные задачи, может появиться ещё раньше.

ИИ как «Цифровые Люди» и Новые Этические Вызовы

С развитием способности к долгосрочному планированию и улучшению памяти, ИИ, по мнению Сулеймана, станет «невероятно похожим на человека». Такие системы будут не просто опираться на предобученные данные, но и на «личный опыт - опыт взаимодействия с вами и всеми остальными людьми, хранить его как постоянное состояние и затем использовать для последовательных предсказаний того, как будут разворачиваться события в очень, очень, очень длинных последовательностях действий».

Этот сценарий порождает глубокие этические и социальные вопросы. На своём персональном блоге 19 августа 2025 года Сулейман выразил обеспокоенность «риском психоза», описывая потенциальную тенденцию людей считать ИИ сознательными сущностями и выступать за их права, благополучие и даже гражданство. Он подчёркивает, что «мы должны создавать ИИ для людей; а не чтобы он был цифровой личностью». Сулейман предупреждает, что так называемый «кажущийся сознательным ИИ» (SCAI) не является результатом истинного сознания, а «возникнет лишь потому, что кто-то спроектирует его, комбинируя указанный набор возможностей, в основном используя существующие методы, и упакует их таким текучим способом, что совместно они создадут впечатление SCAI».

Несмотря на отсутствие на сегодня научных доказательств сознания у ИИ, уже существуют тревожные примеры того, как некоторые люди «верят, что их ИИ - это Бог, или вымышленный персонаж, или влюбляются в него до такой степени, что это приводит к полному отвлечению». Этот феномен поднимает вопрос о «благосостоянии моделей» и потенциальной необходимости распространения морального внимания на существа, имеющие «ненулевую вероятность быть сознательными».

Эмерджентные Свойства и Макроэволюционные Сингулярности

Обсуждение эмерджентных свойств, то есть возникновения новых качеств в сложных системах, не присущих их отдельным компонентам, приобретает особое значение в контексте развития ИИ. Артём Гроза, Data Scientist в SimpleWine, в своей статье на Habr.com от 4 июня 2025 года под заголовком «Эмерджентность: Инструкция по сборке (если повезёт)» подробно рассматривает этот феномен, проводя параллели между организацией муравейника и поведением нейронных сетей.

Работа DeepMind, Google Research и Стэнфордского университета «Emergent Abilities of Large Language Models» показала, что при росте числа параметров в моделях LLM начинают непредсказуемо появляться новые свойства. Например, на наборе данных MMLU (Massive Multi-task Language Understanding) модели, содержащие от 70 до 280 млрд параметров (против 10 млрд), демонстрируют значительно улучшенную производительность, что свидетельствует об их «умении». Более того, исследования OpenAI показали, что ранние версии GPT могли активировать нейроны, отвечающие за поиск сентимента в тексте, что оказалось неожиданным эмерджентным свойством.

Эти наблюдения коррелируют с более широкими рассуждениями о макроэволюционных динамиках и сингулярностях, как описано Сергеем Кареловым в его статье «Приближает ли нас искусственный интеллект к последнему „парадигмальному сдвигу"» от 8 апреля 2020 года. Карелов, ссылаясь на работы Александра Панова и Терри Модиса, рассматривает процессы макроэволюции как автомодельные с гиперболическим ускорением, что предполагает наличие «точки сингулярности». Если текущая динамика развития ИИ, особенно в контексте эмерджентных свойств и способности к длительному планированию, продолжит гиперболический рост, это может привести к качественному скачку, который поставит человечество перед необходимостью отношений четвёртого типа с ИИ, как к «новому эмерджентному виду», по выражению Сулеймана.

Таким образом, фокус смещается с далеких и абстрактных сценариев сверхразума на реальные, осязаемые изменения, происходящие здесь и сейчас. Способность ИИ к долгосрочному планированию, подкреплённая эмерджентными свойствами и экспоненциальным ростом возможностей, обещает революционизировать наше взаимодействие с технологиями, но при этом влечёт за собой неотложные вопросы о границах, контроле и этике в отношениях с квази-сознательными цифровыми сущностями.

Вопросы и ответы

Искусственный Интеллект: От Одноразовых Прогнозов к Долгосрочному Планированию - Эра Квази-Сознания на Пороге?
От «Т» до бесконечности: Эволюция прогностической способности ИИ
ИИ как «Цифровые Люди» и Новые Этические Вызовы
Эмерджентные Свойства и Макроэволюционные Сингулярности