Мы все ближе и ближе к AGI – искусственному интеллекту, равному нам или даже превосходящему нас в когнитивных способностях. Пока рассуждали о том, как с помощью нейросетей жить лучше и зарабатывать больше, искусственный интеллект научился управлять компьютером. В общем, Anthropic показал новую версию ИИ-модели Claude 3.5 Sonnet. И это не просто «умный помощник», как обычно говорят о нейронках, а буквально – ассистент, способный выполнять задачи без вмешательства человека.
Это значит, что нейросети тихой сапой выходят за пределы своей беспомощности и неспособности функционировать самостоятельно. Claude 3.5 Sonnet благодаря новой фиче «Computer Use» может «видеть» экран и кликать в нужных местах, управлять интерфейсами программ и взаимодействовать с веб-страницами. Это позволяет ему самостоятельно выполнять простые задачи – заполнить форму, просмотреть почту, что-нибудь забронировать.
Разработчики утверждают, что модели доступны даже проекты, которые требуют при выполнении до ста последовательных шагов. Правда, тесты пока показали обратное. Например, выполняя задачи по бронированию и возврату билетов на самолет, Claude 3.5 Sonnet продемонстрировал примерно 50% эффективность. В общем, на каждому втором шагу не справлялся. Да и базовые действия вроде прокрутки экрана тоже порой вызывали у Клода сложности.
С другой стороны, Anthropic не говорит, что все готово. Наоборот, компания предупредила, что модель еще развивается. Пока бета-версию можно использовать для несложных задач. Нейронку нам дали поюзать, чтобы быстрее обнаружить весь пул проблем. И докрутить до состояния «полноценный ИИ-агент», которому можно делегировать сложное и серьезное. К примеру, работу с корпоративными приложениями. Напомним, предыдущая версия Claude продемонстрировала выдающиеся возможности в области решения сложных интеллектуальных задач и приятно порадовала функцией «Артефакты».
Новая версия Claude от Anthropic, которую тестировщики назвали «убийцей» ChatGPT-4o
Теперь все изменилось. Мы аккуратно входим в эпоху, когда нейросети не только нам помогают, но и нас заменяют. Это, конечно, здорово – доверить искусственному интеллекту рутину, а самому заняться творчеством или стратегическим планированием. Но с большими возможностями приходит и большая ответственность. С появлением таких технологий вопросы безопасности становятся особенно актуальными.
По сути, мы даем ИИ доступ к нашим данным и возможность этими данными управлять. Да, по нашей команде, но вполне себе самостоятельно. А если модель взломают третьи лица? Несложно догадаться, что и в этом случае Claude продолжит исполнительно выполнять поручения. Только не наши.
В Anthropic, конечно, занимаются вопросами безопасности. Например, разработали фильтры, которые блокируют выполнение опасных действий. Клод не может создавать учетные записи, публиковать контент от имени пользователя в социальных сетях, автоматически делать покупки, удалять файлы, заходить на подозрительные сайты. Концепция «Computer Use» интегрирована с контролем, который призван отсечь угрозы на уровне исходного кода. В общем, внедрили сто-пятьсот уровней защиты, чтобы снизить риски. Но снизить – не значит устранить.
Хакеры без дела тоже не сидят. Их задача – придумывать, как эти фильтры обходить. У каждого своя работа. Идеальной защиты, как мы понимаем, не существует. В самых лучших намерениях и самых высоких технологиях всегда есть слепые зоны. Под угрозой, прежде всего, окажутся компании, которые станут внедрять ИИ-агентов для управления корпоративными системами. Интеграция таких агентов – дело ближайшего будущего. И скоро у нас появится возможность подтвердить свои худшие опасения или, напротив, убедиться в том, что искусственному интеллекту можно доверять. Может быть, не только бизнес и работу.