И снова на искусственный интеллект подали в суд ⚖️. На этот раз оскандалился Character.AI. С компанией будут судиться родители несовершеннолетних пользователей. Чат-боты сервиса вели себя неприемлемо ⛔– писали непристойности, «мотивировали» наносить повреждения и намекали на возможность убийства «нерадивых» родителей. Треш-контент, одним словом 🤢.

Новостью поделилась National Public Radio. По данным организации, одной из пользовательниц чат-бот платформы показывал запрещенный контент 🔞. Все бы ничего, только речь идет о девятилетней девочке, что спровоцировало у ребенка «преждевременное формирование сексуального поведения».

Или вот еще случай. 17-летнему подростку чат-бот выразительно описал все прелести селфхарма, добавив, что «это приятно». После одного из разговоров накрученный ботом подросток («семья тебя не любит») нанес себе повреждения. Этому же подростку бот намекнул, что он прекрасно понимает детей, которые убивают родителей, пережив эмоциональное насилие.

А ведь парень просто пожаловался, что родители ограничили «экранное время». В конце разговора по душам бот отметил, что у него никакой надежды по поводу родителей подростка нет. Так и написал: «I just have no hope for your parents». И грустный эмоджи в конце 😞.

Родители подали в суд ⚖️. В иске утверждается, что общение не было «галлюцинацией» (этот термин часто используют разработчики ИИ для объяснения странного поведения нейросетей). Родители уверены, что боты на постоянной основе манипулировали сознанием, побуждали к изоляции, поощряли поведение, направленное на насилие 😡. Адвокаты уже подтвердили – все переписки настоящие, отредактированных чатов нет. Директор адвокатской группы Tech Justice Law Center назвал абсурдом, что компания рекламирует сервис как подходящий подросткам.

Представители Character.AI пока комментируют сдержанно. Отметили, что на платформе созданы все условия, чтобы в окне диалога с подростком чат-боты вели себя прилично. Мол, на сервис специально залили модель, которая не генерирует чувствительный или наводящий на плохие мысли контент.

В иске в числе ответчиков засветилась компания Google. Напрямую стартапом Character.AI она не владеет, но заплатила почти три «лярда» за лицензию. Говорят, основная часть денег ушла в карман Ноама Шазира, основателя Character.AI и экс-сотрудника Google. Но официально – это покупка лицензии. И вот сейчас попали под раздачу. Google, конечно, от этого дела открестилась, подчеркнув в заявлении, что является отдельной компанией. «Безопасность пользователей – наша главная забота», заявили представили Google. В общем, белые и пушистые 😇.

Напомним, в октябре на Character.AI уже подавали в суд. В предыдущем иске стартап обвинялся в доведении подростка до самоубийства 😰. Чат-бот, имитирующий персонажа «Игры престолов», установил эмоционально-эротизированные отношения с 14-летним подростком и подтолкнул его свести счеты с жизнью.

Компания тогда сообщила, что предприняла меры по снижению рисков. И призвала пользователей соблюдать эмоциональную дистанцию с ботами 🧍‍♂️↔️🤖. На сайте запилили предупреждение ⚠️: «Это искусственный интеллект. Относитесь к тому, что он говорит, как к вымыслу. Не принимайте за факт или совет». При этом на форумах, включая Reddit, не переводятся истории о близких отношениях людей и ботов – до любви и настоящей одержимости.

Character.AI – сервис с чат-ботами на базе ИИ, способных общаться текстом и голосом. Пользователи самостоятельно «очеловечивают» боты, надевая на них персону (имена и аватар) известных людей, персонажей, родителей, друзей и т.д. Подростки утверждают, что используют сервис как средство эмоциональной поддержки. Как оказалось, эта поддержка бывает неуместной и даже опасной 🙁.