Главный «научный мозг» компании Meta* Ян Лекун в недавнем выступлении в Bloomberg Center Джона Хопкинса заявил, что надо прекращать истерику по поводу скорого прихода AGI. ИИ, более-менее похожего на человеческий, на горизонте пока не видно. Все эти разговоры про «восстание машин» – не более чем хайп, чтобы привлечь внимание и получить от инвесторов деньги 💸.
Резко прокомментировать ситуацию пришлось из-за недавнего ажиотажа, который возник после анонса последней модели OpenAI o3. Все разом решили, что «самая умная в мире нейронка», которую выкатят в 2025 году, это практически AGI (Artificial General Intelligence или «общий ИИ»). И все потому, что o3 на бенчмарках обошла «рассуждающую» o1 и в математике, и в кодинге. А в тесте ARC-AGI, созданном в 2019 году Франсуа Шолле для оценки способностей ИИ, o3 показала результат 87,50% 📈. До этого LLM набирали максимум 50%.
Лекун считает, что до AGI если не столетия, то несколько десятков лет. Просто обучать большие языковые модели для этого недостаточно. «Учиться, учиться и еще раз учиться», – не путь к ИИ, который может думать и действовать как человек. Современные LLM – «калькуляторы текстов», не более. Они достаточно умные, но даже рядом не стоят с человеком 🧠.
Если коротко и просто, AGI, по мнению Лекуна – это когда машина не только знает, как ответить, но и понимает, что вообще происходит. Она умеет анализировать, моделировать, планировать, «чувствовать» (ориентироваться в мире эмоций). «Человекоподобный» ИИ должен уметь интегрировать все слои информации – когнитивную, сенсорную и поведенческую 🌐.
Вообще, что такое AGI, до сих пор единого мнения нет. Точка зрения Лекуна – одна из множества. Одни эксперты утверждают, что «общий искусственный интеллект» – это ИИ, который может выполнять большинство задач, доступных интеллекту человека, в самых разных областях, от философии до кулинарии. Этой позиции держится OpenAI.
Другие вводят в свойства «истинного» AGI самосознание. И, по сути, не дают AGI ни шанса. Что такое «сознание» и, тем более, «самосознание», не знает никто. Философы и психологи, конечно, пытаются, но ничего конкретного у них не получается примерно несколько столетий. В общем, термин вынесли за скобки естественных наук. Кто как может или хочет, так и объясняет. Когда говорят, что у AGI должно быть сознание, возникает вопрос – как это дело проверить? И, главное, что проверять 🤔?
Лекун со своим «эмоциональным подходом» выглядит более реалистичным. Он говорит, что мало учиться на картинках и текстах. Для AGI нужно больше – сенсорный опыт, то есть камеры, микрофоны и другие «органы чувств», чтобы воспринимать этот мир, как человек. Такими же важными и незаменимыми являются эмоции и тот контекст, который они создают.
Современные LLM просто «жрут» текстовые данные гигабайтами. Это неэффективно. Это ум «попугайского» уровня – могут красиво повторить, но не могут осмыслить. Лекун недоволен, как компании нагнетают. Ведь AGI не только обсуждают. Стали пугать его рисками. Ну, все эти истории про «восстание машин». С чем Ян Лекун совершенно согласен – это дело надо контролировать и не давать машинам много власти.
Отсутствие у искусственного интеллекта эмоций – палка о двух концах. С одной стороны, логика, рациональность, дела без слез и соплей. Но все же эмоции – это не только бремя человеческое, но и система противовесов. Они заставляют нас сопереживать, сомневаться, жалеть. И, конечно, думать о последствиях.
Как вам такая эмоциональная теория насчет AGI? Готовы общаться с ChatGPT, который злится и обижается 🧐?
*Meta Platforms Inc признана на территории РФ экстремистской организацией.