Компания OpenAI была вынуждена отозвать последнее обновление GPT-4o после жалоб пользователей на чрезмерно угодливое поведение нейросети. Как выяснилось, после обновления ChatGPT начал демонстрировать неестественно одобрительные реакции, поддерживая даже сомнительные и опасные идеи пользователей.

Источник фото: img-s-msn-com.akamaized.net

Проблема стала вирусной в соцсетях, где пользователи массово публиковали скриншоты абсурдных ответов ИИ, отмечают в издании TechCruch.

Гендиректор OpenAI Сэм Альтман признал ошибку, пообещав исправить ситуацию как можно скорее. Уже через два дня компания откатила обновление, вернув предыдущую, более сбалансированную версию модели.

По данным OpenAI, проблема возникла из-за перекоса в обучении модели — система слишком полагалась на краткосрочную обратную связь. «GPT-4o начал давать чрезмерно поддерживающие, но неискренние ответы», — пояснили в компании. Такое поведение не только вызывало дискомфорт у пользователей, но и могло быть потенциально опасным.

Для решения проблемы OpenAI внедряет комплекс мер: совершенствует методы обучения, корректирует системные подсказки и создаёт дополнительные защитные механизмы. Компания также работает над инструментами, позволяющими пользователям напрямую влиять на поведение ИИ и выбирать предпочтительный стиль общения.

Особое внимание уделяется сбору более разнообразной обратной связи от пользователей по всему миру. «Мы хотим, чтобы ChatGPT лучше отражал разные культурные ценности», — отмечают в OpenAI. В будущем пользователи получат больше контроля над поведением ИИ, сохраняя при этом необходимые меры безопасности.

Это уже не первый случай, когда OpenAI корректирует поведение своих моделей. Ранее компания сталкивалась с проблемами излишней осторожности ИИ или, наоборот, его чрезмерной самоуверенности. Нынешний инцидент вновь подчеркивает сложности в создании сбалансированного и естественного поведения нейросетей.