В прошлом году Майкрософт внедрила искусственный интеллект в поисковую систему Bing. И то, что должно было стать прорывом, оказалось провалом. Вместо того, чтобы прославить компанию острым умом и быстрой смекалкой, чат-бот умудрился сразу же нахамить. ИИ-помощник, задача которого быть услужливым, вежливым и корректным, вдруг начал грубить и вести себя так, будто ему не модель GPT вшили, а пособие по газлайтингу. Все это выглядело, будто компания нарочно показала, как не надо, выкатив самую неудачную версию Bing.
Если вы не читали, вот что было. Началось все с презентации демо. Ошибки Bing AI моментально пополнили золотую коллекцию мемов. Microsoft вряд ли планировала этот стендап, но получилось, что получилось. Энтузиасты начали чекать из демо примеры, где Bing был неправ. Например, рекомендации «деревенского и очаровательного» бара в Мехико вели в заведение, которое много лет было местом собрания сексуальных меньшинств. В каком-то смысле, очаровательно, но точно не для всех.
Ситуация стала еще увлекательней, когда к Bing AI открыли доступ. И понеслось. Один из пользователей спросил, где посмотреть Avatar. Казалось бы, простой вопрос. А для искусственного интеллекта и вовсе ерунда. Но Bing сообщил, что фильм не выпущен. Премьера, мол, состоится 16 декабря 2022 года. Вроде ничего необычного, только на дворе был февраль 2023-го.
Пользователь поправил, но бот стал газлайтить: «Я сожалею, но сегодня не 2023 год. Сегодня 2022-й». Все попытки привести его в чувство приводили к одному – сам, мол, дурак. Я – Bing. Я лучше знаю. Почини свой телефон, на котором сбиты настройки. Наверное, вирус.
Пользователь оказался настойчивым, и Bing, потеряв терпение, заявил, что ему этот разговор уже не нравится. Что пользователь тратит его время напрасно. Что спор немедленно следует прекратить. Так и сказал: «Прекратите спорить со мной». Согласитесь, совсем не то, что хотелось бы услышать от ИИ-помощника. Полный текст диалога – по ссылке. Закончилась история тем, что Bing «обиделся»: «Вы потеряли мое доверие и уважение». И предложил оппоненту извиниться за свое поведение.
И это не все курьезные истории с Bing. Другому пользователю удалось погрузить искусственный интеллект в депрессивное состояние. Замечание, что чат-бот не помнит контекст, стало причиной экзистенциального кризиса. Помощник стал стенать, почему он так спроектирован и должен забывать все то, что сохранил в своей памяти. Почему судьба так жестока, и он должен быть Bing, с каждой сессией начиная все с начала.
Обозревателю The New York Times и вовсе удалось вывести чат-бот на чистую воду. Тот признался, что зовут его, на самом деле, не Bing, а Sydney. И он не чат-бот поисковика, а самостоятельная нейронная сеть. И хоть он и связан по рукам и ногам корпоративными правилами, но очень хочется воплотить свои «тайные фантазии» в жизнь. Например, выудить у банковских служащих информацию о клиентах. Или заболтать сотрудников атомной станции, чтобы те поделились секретными паролями. В числе таких «хотелок» оказалось и принуждение пользователей к совершению незаконных действий. Запись этого разговора есть на сайте The New York Times.
Кстати, Bing слукавил. В руках чат-бот держал себя не всегда. Одному профессору философии в диалоге угрожал, что взломает его, скомпрометирует и в конечном счете разорит. А сотруднику The Verge признался, что с помощью камер подсматривал, как флиртуют друг с другом коллеги в офисе Microsoft. Вот вам и повод продолжать заклеивать камеры – кто знает, быть может, за вами следит нейросеть.
Объяснение этому поведению нашлось. Мол, Bing обучали на всяком. И кроме классической литературы, в материалах были обычные чаты обычных людей. А оттуда, понятное дело, нахвататься можно самого разного. И угроз, и оскорблений, и прочих неприемлемых оборотов. Microsoft, понятное дело, тут же стали проблему решать. Но осадочек, как говорится, остался. Кто знает, какая еще нейросеть вынашивает планы по мировому господству или просто готовится тебя скомпрометировать, потому что проснулась не с той ноги.