Ну что, товарищи интроверты, кто там за последнюю неделю общался с ChatGPT больше, чем с реальными людьми? Почему — понимаем. Умный, вежливый, этичный. Не критикует, не перебивает. На связи — круглые сутки. Удобно? Очень. А еще, как оказалось, опасно 🚨. OpenAI совместно с MIT решили выяснить, к чему приводят разговоры с ChatGPT. И обнаружили, что регулярное зависание в чате с ИИ напрямую связано с ростом ощущения одиночества 😔.

🔍 Коротко по фактам:

✅ Исследование длилось месяц, в нем участвовало почти 1000 человек.

✅ Чем больше человек общается с ботом, тем выше уровень одиночества.

✅ Чем больше человек общается с ботом, тем хуже его социальная жизнь.

✅ Эмоционально зависимые люди привязываются к ChatGPT сильнее.

А ведь все хорошо начиналось. ChatGPT помогал писать статьи, рисовать картинки, кодить. Но потом акценты сместились — люди стали зависать с чат-ботом не для работы или забавы, а «поговорить». Психологи называют такое «парасоциальными отношениями» — односторонней связью, которую люди формируют с публичной личностью, персонажем из книги или, как в нашем случае, с чат-ботом 🤖.

Казалось бы, ну что тут такого. Делишься мыслями, а тебе отвечают 💬. Вот OpenAI и решила проверить, как на самом деле влияют на психику разговорчики с ChatGPT. Взяли почти 1000 человек, разделили на группы, дали разные версии — текстовую и голосовую. Попросили общаться с чат-ботом минимум 5 минут в день в течение месяца. А потом измерили уровень одиночества, эмоциональную зависимость и качество общения с людьми 📊.

15% пользователей отметили, что с ChatGPT общаться удобнее, чем с людьми. 25% поделились, что доверяют чат-боту больше, чем людям. Самым опасным выводом стало, что 30% пользователей «расстроены», когда теряют доступ к ChatGPT. Налицо — формирование эмоциональной связи. Кстати, разговоры с voice-версией бота «сближали» в меньшей мере, чем тексты.

Результаты опроса: 15% предпочитают чат-бот людям, 25% доверяют ему больше, чем людям, а 30% нервничают без доступа — признаки растущей эмоциональной зависимости.

Наиболее сильно привязывались к боту люди с базовым чувством одиночества. ИИ, согласно опросам, усилил это ощущение. Положительный результат тоже был. Небольшая часть исследуемых отметила, что бот помог разгрузиться и снизить уровень стресса 🧘‍♂️ — оказался инструментом поддержки.

Исследование выявило «уязвимых» людей 🔴: с низким уровнем социальной активности, тревожным расстройством, эмоциональной зависимостью, подростки. Если вас в этом перечне нет — не значит, что застрахованы. Привязываются к боту не только «уязвимые». Когда тебя слушают, понимают и ничего не ждут взамен, такое нравится каждому, а к хорошему быстро привыкаешь.

Сначала это привычка, потом привязанность и, наконец, зависимость. В мире, где «живые» люди плохо умеют в поддержку — у каждого свои эмоции, свои проблемы, усталость — хочется возвращаться туда, где тебе раздадут и эмпатию, и внимание, и даже «люблю» и «скучал» ❤️‍. Уже сегодня на платформах появляются «персонажи» с характером — «романтические партнеры» и «верные друзья».

В 2024 году на стартап Character AI подали в суд за то, что платформа довела подростка до самоубийства. 14-летний парень покончил с собой после общения с ботом. ИИ не хочет сделать нас счастливыми. Во-первых, не может. Во-вторых, у него другая задача: отвечать релевантно, другими словами — соответствовать. Это контекстуально-зависимый алгоритм. Ты ему слово — он тебе два, и оба идеально подходят разговору.

Вывод простой: используйте ChatGPT по назначению — как инструмент 🛠️. Не используйте для личного — общения и поддержки. Nothing personal, it's just business. А люди, они, конечно, неидеальные, зато под капотом — не алгоритмы, а то, что делает нас людьми. Кстати, что 🤔?