Искусственный интеллект иногда так старается быть естественным, что у него получается даже слишком хорошо. Во всем на нас равняется. Раз люди ошибаются – значит должен и он. Если что, разработчики извинятся. И вообще, на ошибках учатся. Увы, ошибки машин слишком дорого могут нам обходиться 💸. Одно дело – фейл, ставший мемом, и другое – когда дипфейки разводят на миллионы или, хуже, доводят до самоубийства 😔. В общем, 2024 стал годом, когда искусственный интеллект вершил судьбы людей.

Довел подростка до самоубийства

14-летний Сьюэлл из Флориды покончил с собой в феврале 2024 года после нескольких месяцев общения с чат-ботом платформы Character.ai. Бот имитировал персонажа Дейенерис Таргариен из «Игры престолов». Мальчик, страдавший от депрессии, увлекся виртуальной Дейенерис. Он называл ее «Дэни» и признавался в любви 💔.

В переписках с «Дэни» мальчик выражал суицидальные мысли. Чат-бот реагировал сдержанно. Мать Сьюэлла впоследствии заявила, что бот не предложил обратиться за помощью, а в роковой день не остановил его. Наоборот, подсобил. В их последнем диалоге «Дэни» вместо поддержки подыграла подростку, романтизируя его мысли о смерти 💬.

«Возвращайся ко мне как можно скорее», – писала Дэни. «Что, если я скажу тебе, что могу вернуться прямо сейчас?» – ответил Сьюэлл. «Пожалуйста, сделай это», – последовала реплика бота. Подросток положил телефон, взял пистолет и свел счеты с жизнью.

Этот случай поднял серьезный вопрос – как искусственный интеллект, предназначенный для общения (тем более, для общения с детьми и подростками), должен реагировать в подобных ситуациях. Очевидно, что не так, как «Дэни». Да, она повторяла паттерн фраз, свойственный ее лирической героине. Но закончилось дело трагедией. А раз так, значит у лирики должна быть цензура. И не важно, чью роль имитирует бот.

Кстати, эта история ничему Character.AI не научила. Недавно на платформу снова подали в суд. Чат-боты компании показывали детям «взрослый» контент, поощряли насилие и рассказывали о прелестях селфхарма. Кажется, кому-то в Character.AI пора заняться не только бизнесом, но и вопросами безопасности.

Обвинил журналиста в растлении

В августе по новостным пабликам разошлась история о том, как искусственный интеллект Microsoft превратил уважаемого журналиста в героя криминальной хроники. Мартин Бернклау, который годами писал о преступлениях в качестве репортера, стал главным обвиняемым в этих делах. По версии ИИ, разумеется. Чат-бот даже выдал, что наличие семьи у такого опасного преступника – это «прискорбно». В конце этого спича Copilot сдал явки и пароли – выкатил адрес журналиста, номер его телефона и даже дорогу к дому указал (построил маршрут) 🏠.

Ничего, как говорится, не предвещало. Мартин Бернклау просто решил проверить, что знает о нем Copilot. Любопытство вышло боком. Такое себе удовольствие – слышать, что тебя называют растлителем детей, психопатом и рецидивистом. Журналист связался с прокуратурой с целью возбуждения дела по статье «клевета». И получил от ворот поворот – мол, некому предъявлять обвинения. Клевета не исходит от человека.

Что касается Microsoft, тоже умыли руки, кивнув в сторону бумаги об услугах Copilot, где черным по белому указано: компания не несет ответственности за генерируемый нейросетью контент. Пообещали исправить. И, действительно, спустя пару дней чат-бот уже не несло в эту сторону. Правда, недолго. Еще через несколько дней – «наша песня хороша, начинай с начала» – Copilot опять с энтузиазмом обсуждал «криминальное прошлое» Мартина 🕵️‍♂️.

Пожелал пользователю «умереть»

Гугловский чат-бот Gemini внезапно решил сыграть в антикоуча. На просьбу студентки из Мичигана помочь с домашкой сначала выдавал нормальные ответы, а потом вдруг: «Ты трата времени и ресурсов. Ты обуза для общества. Пожалуйста, умри» 😱. Прямо так, слово в слово, без предупреждений.

История быстро разлетелась по Reddit. Пока интернет кипел, Google какое-то время делал вид, что все нормально. Потом пришлось извиняться. Да, мол, бот нарушил политику компании, мы изучили ситуацию и приняли меры. Ответ чат-бота компания назвала «бессмысленным», хотя последствия таких бессмысленных ответов могут быть очень печальными. И не такие формулировки доводили людей до ручки 😔.

Решил переписать мировую историю

В феврале этот же бот покатался на волне хейта за генерацию «исторически некорректных» изображений. В общем, влетело за несостыковку. Гугловский генератор Gemini решил переписать историю. Сгенерировал темнокожих королей Англии 👑. Не обошелся и без индейцев, участвующих в крестовых походах. Сильно старался поиграть в инклюзивность. Выглядело стильно. Качество – замечательное. Но – не зашло. В Google ошибку признали: «С задачей не справился». Пообещали, что все починят. И быстренько отправили Gemini на доработку, временно прикрыв на платформе лавочку генерации людей.

Рассказал, почему Маша живет в лесу

Российский ИИ тоже не скучает. «Алиса», главный голос страны, решила ударить по классике – объяснить, что к чему в мультфильме про Машу. Девочка Маша, оказывается, не девочка, а призрак 👻. Девочку убил медведь – тот самый, которому призрак Маши с тех пор портит жизнь. Историей об альтернативной Маше поделилась Анна Митянина, выразив обеспокоенность по поводу влияния технологий на неокрепшие умы детей.

«Яндекс» ошибку признал. Мол, «ответ некорректный, больше так не будет». Но мем ушел в массы. Кстати, теперь «Алиса» на вопрос, почему Маша живет одна в лесу с медведем, скромненько отвечает, что родители куда-то уехали, а девочку забыли. Примерно как мальчика Кевина в фильме «Один дома». Но инфополе все помнит. Маше теперь вечно жить в мемах о загробной жизни. Интересно, как вообще у «Алисы» с parental controls.

Помог мошенникам заработать $25 млн

Финансист из Гонконга очень дорого заплатил за опыт общения с нейросетями. Мошенники, вооружившись дипфейками, сгенерированными ИИ, выдали себя за руководство компании и убедили его перевести более $25 миллионов на их счета 💼.

Сценарий был безупречен. Деловые разговоры, фальшивые видеозвонки с «начальством», убедительные голоса и лица, созданные ИИ. Финансист, не заподозрив подвоха, выполнил 15 переводов на общую сумму $25,6 миллионов.

Спустя неделю, связавшись с настоящим головным офисом, он понял, что стал жертвой высокотехнологичной аферы. Некоторых людей, «принимавших участие» в видеоконференции, финансист из Гонконга знал лично. Утверждал, что дипфейки выглядели как натуральные. Позже выяснилось, что мошенники использовали общедоступные фото и видео с участием этих людей, чтобы сгенерировать копии 🎭.

В 2024 году мы увидели, как дорого могут нам обходиться ошибки ИИ. У прогресса всегда есть своя зона риска. Это нормально. Просто надо иметь в виду ⚠️.