В среду чат-бот с искусственным интеллектом Grok начал сбоить, неоднократно упоминая «геноцид белых» в Южной Африке. Такие ответы выдавались даже на несвязанные с темой вопросы, отмечает The Gardian. Нейросеть также сообщала пользователям, что «мои создатели» велели признать геноцид «реальным и мотивированным расовой принадлежностью».

Источник фото: i.ytimg.com

«Геноцид белых» — выражение, которым называют предполагаемые массовые нападения и притеснения белого населения, особенно в странах Африки. Этот термин не признан официально и широко критикуется учёными и правозащитниками.

Один из случаев неправильной реакции Grok произошёл, когда пользователь спросил о зарплате профессионального бейсболиста. Ответ ИИ содержал информацию о том, что «утверждение о белом геноциде в Южной Африке является предметом горячих споров».

Пользователи активно делились своими странными разговорами с ботом Grok в соцсетях, отмечая нелепые и неуместные ответы, полученные ими.

Подобная некорректность подчёркивает незрелость технологии искусственного интеллекта. Grok — это не единственный ИИ, у которого возникали проблемы с уместностью ответов. Недавно OpenAI пришлось откатывать обновление ChatGPT, которое сделало бота чрезмерно льстивым.