Сэм Альтман выдал в блоге письмо с заголовком «Размышления» 📝. Вспомнил прошлое, заглянул в будущее, поделился мыслями о «сверхразуме» 🧠. У многих после прочтения появился вопрос, почему в размышлениях Сэм уклоняется от фирменной повестки компании – обсуждения темы AGI 🤔. OpenAI давно продвигает концепцию Artificial General Intelligence, но в своем обращении генеральный директор явно смещает акцент. И это, скорее всего, совсем не из области лексики.

OpenAI давно продвигает концепцию Artificial General Intelligence, но в своем обращении генеральный директор явно смещает акцент. И это, скорее всего, совсем не из области лексики.

Альтман пишет, что компания знает, как создать интеллект, который соответствует когнитивным способностям человека. Другими словами – AGI. В 2025 году, делится Альтман, что-то похожее на AGI мы увидим в формате «агентов» 🤖. Вслед за этим руководитель OpenAI отмечает, что компания хочет выйти за пределы Artificial General Intelligence. А именно – направляется к «сверхинтеллекту в истинном смысле этого слова».

Туманные формулировки могут быть следствием партнерских соглашений с Microsoft, вливающей миллиарды в разработки компании. В юридических документах информация часто попадает под NDA (non-disclosure agreement) – соглашение о неразглашении 🔒. Альтман, возможно, аккуратно избегает слов об AGI в тех местах, где это может быть трактовано как цели.

С другой стороны, что-то, выходящее за пределы Artificial General Intelligence, звучит угрожающе ⚠️. Фраза «мы знаем, как построить AGI» выглядит как констатация: вопрос решен ✅. В контексте всего, что мы знаем про искусственный интеллект, это может быть заявлением о готовности двигаться дальше. Куда 🤔?

Рассуждения Сэма Альтмана о «сверхинтеллекте», выходящем за пределы AGI, дают основание думать, конечно же, об ASI (Artificial Superintelligence). Концепция вызывает тревогу и философские размышления о будущем человечества. Потому что прыжок в неизвестное, хотя Альтман в прогнозах настроен оптимистично. Пишет, что это приведет к «изобилию и процветанию». Но добавляет, что «нужно действовать с большой осторожностью».

ASI – не просто очень умная штука. Предполагается, что искусственный интеллект этого уровня способен создавать решения, недоступные даже коллективному разуму человечества. Речь идет, с одной стороны, о прорывных достижениях. Например, это может быть разработка лекарств от неизлечимых болезней 💊. С другой стороны, потенциал «сверхразума» способен не только решать проблемы, но и быть их источником.

По поводу ASI существует ряд вопросов, остающихся пока без ответа. Может ли он «генерировать» цели, несовместимые с интересами человечества? Кто будет контролировать интеллект, превосходящий людей? И, главное, нельзя исключать, что ASI может решить: человек – угроза для жизни планеты 🌍.

Альтман пишет о грядущем «изобилии и процветании». А недавно он же писал, что компания теряет деньги на подписке за 200 долларов в месяц. Если попробовать совместить эти две новости, выглядит как интересный маркетинговый ход. Мол, работаем в убыток ради будущего. Это вызывает доверие. А заявление про сверхразум привлекает внимание, в том числе, и инвесторов.

Считаем, что OpenAI не нужно переживать. Если смогут приблизиться к ASI, «сверхразум» подскажет, как правильно монетизировать продукты компании 💡. Кстати, Лекун в своем в выступлении в Bloomberg Center Джона Хопкинса отметил, что все разговоры про AGI и ASI – это хайп. Ничего похожего на человеческий интеллект на горизонте не видно. И говорят об этом компании по причине – бабло 💰. Надо деньги с инвесторов выколачивать.

Правда, как обычно, где-то посередине. Лекуна сложно заподозрить в недостатке опыта, когда речь идет об ИИ. «Крестный отец нейронных сетей» имеет полное право на экспертные оценки 🎓. Однако позиция «это хайп» выглядит как щелчок по носу конкурирующим компаниям. Meta*, в которой работает Ян, держится более реалистичной повестки.

*Meta Platforms Inc признана на территории РФ экстремистской организацией.