ИИ становится всё умнее и к 2029 году может превзойти по интеллекту всех жителей Земли. Но даже самые продвинутые модели иногда «галлюцинируют» — выдают ложную, вымышленную или абсурдную информацию. Почему так происходит, чем это опасно и можно ли исправить — разобрались в статье.

Источник фото: substackcdn.com

Почему нейросети «галлюцинируют»

Независимая платформа для анализа моделей искусственного интеллекта Artificial Analysis проверила нейросети на ошибки. Важнейшим критерием стала не просто точность ответов, а способность модели признавать свои границы — то, умеет ли она говорить «не знаю» вместо генерации вымысла. Результаты первого тестирования оказались показательными: большинство протестированных ИИ-моделей чаще давали неверные ответы, чем правильные. Единственным исключением стали три модели семейства Claude.

Как видим, нейросети ошибаются нередко, но надо понимать, что галлюцинации искусственного интеллекта возникают из-за особенностей его работы, а не из-за сознательного обмана. Разобрали причины этого эффекта по полочкам.

Как работают нейросети и почему это приводит к галлюцинациям.

Искусственный интеллект похож на очень эрудированного, но лишенного критического мышления и реального опыта стажёра, который прочитал огромное количество книг, но не понимает смысла многих вещей. Он учится не на опыте, а на статистических закономерностях.

Простая аналогия: если попросить такого «стажёра» написать эссе о «биологии единорогов», он не скажет «их не существует». Нейросеть возьмёт шаблоны из текстов о реальных животных и создаст убедительный, но полностью вымышленный текст.

Конкретные технические причины.

Собрали основные технические факторы, способствующие галлюцинациям:

  • Ограничения обучающих данных. Нейросеть учится на огромном массиве сведений, и в этом её главная проблема. Если этих данных было мало по какой-то теме, они были старыми, полными ошибок или однобокими, то и нейросеть перенимает все эти недостатки. Она не умеет проверять факты, а просто воспроизводит то, что видела. 
  • Ошибки в процессе генерации. Этот этап похож на игру в «угадай следующее слово», где она постоянно предсказывает наиболее вероятный вариант, основываясь на предыдущих словах и своих знаниях, почерпнутых из данных. В механизм специально заложен элемент случайности — без него все тексты были бы скучными и абсолютно предсказуемыми. Именно эта доля случайности помогает ей быть креативной, но она же является прямой причиной «галлюцинаций». Модель может пойти по неверному, но правдоподобному с её точки зрения пути и начать сочинять несуществующие факты, детали или события.
  • Проблемы с проверкой информации. У нейросети нет встроенного «детектора правды» — она не умеет проверять факты, как это делает человек, заглядывая в справочник или проверяя несколько источников. Её главная задача — создать правдоподобный и связный текст, а не докопаться до истины. Поэтому она легко может выдать вымышленный факт, несуществующую цитату или ссылку на неверный источник, если это статистически хорошо сочетается с остальным текстом. Она не понимает разницы между правдой и вымыслом, а лишь ориентируется на шаблоны, которые усвоила во время обучения.

Источник фото:giga.chat

Какие ошибки допускают нейронные сети 

Ошибки, которые допускают нейронные сети, многообразны и проистекают из их архитектуры и принципов работы. Их можно разделить на несколько крупных категорий:

  • Фактические ошибки. 

Самый известный тип ошибок, особенно для языковых моделей. Во-первых, нейросеть может просто выдумывать факты, создавая несуществующие даты, имена или цитаты. Когда она не находит точного ответа в своих знаниях, то вместо честного «не знаю» предпочитает сгенерировать правдоподобный, но полностью ложный ответ.

Во-вторых, проблема возникает с устаревшей информацией, ведь модели, обученные на данных до определённого периода, не знают о более поздних событиях. Так, модель с данными до 2024 года не будет иметь информации о важных событиях, произошедших после этой даты.

  • Ошибки логики и здравого смысла.

Несмотря на умение работать с шаблонами, нейросети испытывают проблемы с пониманием реальности, что приводит к курьёзным и грубым ошибкам. ИИ регулярно нарушает причинно-следственные связи, порождая абсурдные утверждения вроде «он упал, потому что сломал ногу», и допускает ошибки в простейших логических или арифметических задачах, с которыми легко справился бы ребёнок.

  • Ошибки контекста и памяти.

Нейросети часто не понимают контекст и нюансы человеческого общения. В процессе длинного диалога модель может «забыть» первоначальные условия и начать противоречить самой себе, упуская общую нить беседы. Кроме того, она с трудом распознаёт иронию, сарказм и юмор, воспринимая шутку как серьёзный факт и строя на её основе ошибочные умозаключения.

  • Дискриминация и предвзятость.

Нейросети неизбежно наследуют все предубеждения, заложенные в их обучающих данных, что проявляется в социальных стереотипах — например, по запросу «изобрази врача» модель сгенерирует мужчину, а «медсестру» — женщину, усиливая гендерные клише.

  • Ошибки компьютерного зрения.

Нейросети при распознавании изображений часто ошибаются — они могут принять кошку за собаку, а из-за блика на камере или странного ракурса и вовсе перестать понимать, что перед ними.

  • Ошибки в генеративных моделях: изображения, видео, код.

Когда нейросеть что-то создаёт — будь то картинка, текст или программа — она часто выдаёт брак. На фото у людей могут быть лишние пальцы, искривлённые руки или фон, который не сходится в стыках. В рассказе она может забыть, как звали героя в начале, и придумать ему новое имя. А если она пишет код, то он с виду кажется правильным, но на самом деле содержит ошибки или не запускается, потому что нейросеть не понимает логики, а просто копирует шаблоны.

  •  Проблемы с безопасностью. 

Нейросети, как и любые компьютерные системы, уязвимы для взлома. В отличие от обычных кибератак, здесь часто не нужно взламывать код — достаточно обмануть «восприятие» модели. Например, незаметные для глаза изменения в изображении лица заставят систему распознавания ошибиться. Нейросети также уязвимы к «промпт-инъекциям» — скрытым инструкциям в тексте, которые заставляют их игнорировать правила и раскрывать конфиденциальные данные. Эти риски особенно критичны в медицине, финансах и автономных системах, где ошибка ИИ может привести к серьёзным последствиям.

Чем опасны галлюцинации ИИ

Ситуации, когда искусственный интеллект выдаёт ложную информацию за правду, опасны по нескольким причинам:

  1. Распространение дезинформации. ИИ может генерировать убедительные фейковые новости, поддельные научные данные или вымышленные исторические факты. Например, нейросеть способна сочинить «исследование», доказывающее вред вакцин, или приписать политику слова, которых он никогда не говорил.
  2. Ошибки в важных сферах.
  • Медицина: неверный диагноз или опасная рекомендация по лечению.Недостоверная информация от ИИ может привести к прямому ущербу для здоровья или жизни пациента. Врач, полагаясь на сгенерированный ИИ ложный диагноз, может назначить ненужную операцию, опасный курс химиотерапии или несовместимые лекарства. Пациент, получивший от ИИ персональную рекомендацию, может отказаться от доказанных методов лечения в пользу вымышленных, теряя драгоценное время. 
  • Юриспруденция: ссылки на несуществующие законы или судебные прецеденты.Это может привести к проигранным судебным делам, неправосудным приговорам и краху карьеры. Юрист, ссылающийся на вымышленное решение Верховного суда, потеряет доверие клиента и репутацию, а также может быть привлечён к дисциплинарной ответственности. Для самих граждан это означает лишение свободы, незаконные увольнения, финансовые потери и подрыв веры в правовую систему.
  • Финансы: ошибочные прогнозы или инвестиционные советы.Это может привести к многомиллионным убыткам, банкротству компаний и разрушению личных сбережений. Трейдер, действующий по ложному прогнозу ИИ, может совершить убыточную сделку. Частный инвестор, последовавший вымышленному совету, может потерять все свои накопления. Для компаний это означает неверные стратегические решения, падение акций и потерю рыночной доли. В масштабах экономики такие ошибки способны спровоцировать локальные финансовые кризисы и подорвать стабильность рынков.

3. Этические проблемы.

Нейросети могут усиливать социальные предрассудки, генерировать дискриминационный контент или создавать материалы, нарушающие этические нормы.

4. Потеря доверия к технологиям.

Постоянные ошибки ИИ подрывают веру в искусственный интеллект в целом, что замедляет его внедрение в важных областях.

Примеры галлюцинаций в популярных нейросетях 

Когда нейросеть выдаёт информацию, которая кажется убедительной, но на самом деле является вымыслом, — это и есть «галлюцинация». Такие ошибки встречаются не только в текстовых моделях, но и в любых других типах ИИ — от генерации изображений до создания музыки. Они происходят потому, что нейросети не понимают смысла, а лишь предсказывают данные на основе шаблонов, изученных во время тренировки. Вот как это выглядит на практике в разных сферах:

Проблемы с генерацией текста ИИ

  • Выдуманные факты. ИИ может «сочинить» автора, название журнала или цитату. Всё выглядит правдоподобно, но не существует.
  • Несуществующие ссылки. Может дать ссылку на сайт, который сам же и выдумал. Если перейти по ней, выходит ошибка 404.
  • Ошибки в переводах. Может добавить в перевод детали, которых не было в оригинале, или изменить смысл, додумав его.

Пример галлюцинации:

Запрос пользователя: «Напиши короткий абзац о самом жарком дне в истории Москвы».

Ответ нейросети:

«Самый жаркий день в истории Москвы был зафиксирован 29 июля 1936 года, когда столбик термометра на метеостанции МГУ поднялся до +40,2 °C. Этот рекорд, описанный в трудах климатолога Александра Орлова, продержался почти 80 лет и был побит лишь во время аномальной жары 2010 года. Интересно, что именно в этот день в городе было зарегистрировано рекордное потребление кваса — более 2 миллионов литров».

Что здесь является галлюцинацией:

  • Вымышленная дата и температура: хотя жара 1936 года — реальный исторический факт, точная дата 29 июля и температура +40,2 °C являются вымыслом. Реальный рекорд для Москвы (+38,2 °C) был установлен в 2010 году.
  • Несуществующий источник: упоминание климатолога «Александра Орлова» и его трудов — типичная галлюцинация. Нейросеть создала правдоподобное сочетание имени и профессии.
  • Правдоподобная, но непроверяемая деталь: информация о рекордном потреблении кваса звучит логично, но является полностью сгенерированной, чтобы сделать рассказ более живым и убедительным.

Этот пример показывает, как ИИ смешивает реальные факты — аномалия 1936 года, жара 2010 года, с вымышленными деталями, создавая правдоподобный, но ложный нарратив.

Нейросети для изображений

  • Странная анатомия. Классический пример — лишние пальцы на руках, три ноги у собаки или уши в неестественном месте. Модель не «понимает» строение тела, а лишь угадывает, как оно должно выглядеть.
  • Невозможные объекты. Может нарисовать здание с окнами в неподходящем месте или часы со стрелками, прикреплёнными к циферблату неправильно.
  • Искажение надписей. Часто создаёт похожие на буквы символы, которые не складываются в осмысленные слова.

Лишние или недостающие пальцы — самая частая ошибка нейросетей.

Нейросети для видео 

  • Нарушение законов физики. Машина при повороте «течёт» как жидкость. Яблоко падает, а потом внезапно исчезает в воздухе.
  • Внезапные трансформации. Человек в середине видео может неожиданно поменять цвет куртки или причёску без всякой причины.
  • Проблемы с логикой. Кошка может пройти сквозь закрытую дверь, а у человека во время разговора будет неестественно двигаться рот.

Надписи, особенно на русском языке, — это слабое место многих нейросетей.

Нейросети для музыки 

  • Бессмысленные тексты. Нейросети могут генерировать песни на «псевдо-языке», где слова звучат похоже на английский или русский, но не имеют смысла.
  • Дисгармония. Внезапное изменение ритма или мелодии, которое звучит неестественно и режет слух, будто песню склеили из двух разных частей.
  • Неправильные звуки инструментов. Гитарное соло может звучать неестественно, или у барабанов внезапно появится эхо, которого не должно быть.

Музыка звучит бодро, но текст вызывает вопросы. Например, удивляют строчки: «Каждый товар — это счастья орех» и «Каждый день с нами — это звездопад».

Голосовые ассистенты и синтез речи

  • «Придумывание» команд. «Алиса» или Siri могут «услышать» команду, которую человек не произносил, и выполнить случайное действие — например, начать звонить не тому абоненту.
  • Искажение фактов в ответах. На простой вопрос «Кто президент России?» в теории может назвать случайное имя или несуществующего человека, «додумав» ответ.

Этические аспекты галлюцинаций ИИ и ответственность разработчиков за их последствия

Этические проблемы галлюцинаций выходят далеко за рамки технических ошибок и затрагивают важные вопросы справедливости и безопасности:

Проблема доверия и прозрачности.

  • ИИ выдаёт вымышленную информацию с той же уверенностью, что и факты.
  • Пользователи не могут отличить правду от вымысла без дополнительной проверки.

Усиление социального неравенства.

  • Галлюцинации часто воспроизводят и усиливают предрассудки из обучающих данных.
  • Могут генерировать дискриминационный контент по расовому, гендерному или социальному признаку.

Манипуляция общественным мнением.

  • Создание правдоподобной дезинформации.
  • Возможность генерации фейковых новостей, поддельных научных исследований.
  • Риск влияния на политические процессы и общественные настроения.

Ключевой этический принцип — разработчики несут моральную обязанность не только создавать технологию, но и предотвращать возможный вред от её использования. Это требует комплексного подхода и постоянного диалога с обществом.

Как уменьшить галлюцинации нейросетей 

Борьба с галлюцинациями — одно из главных направлений исследований в области искусственного интеллекта. Полностью устранить их пока невозможно, но существует целый набор эффективных методов борьбы с галлюцинациями ИИ.

1. Архитектурные решения:

  • RAG (Retrieval-Augmented Generation) — поиск информации в проверенных базах знаний перед генерацией ответа.
  • Самопроверка (Self-Consistency) — генерация нескольких вариантов ответа и выбор наиболее согласованного.
  • Цепочка рассуждений (Chain-of-Thought) — пошаговое логическое объяснение перед выдачей ответа.

2. Техники обучения:

  • RLHF (обучение с подкреплением) — человеческая оценка ответов.
  • Adversarial Training — тренировка на сложных примерах, провоцирующих ошибки.
  • Калибровка уверенности — обучение модели оценивать вероятность ошибки.

3. Методы генерации:

  • Поиск с ограничениями — запрет на использование информации не из исходного контекста.
  • Контрастный поиск — избегание повторяющихся и бессмысленных комбинаций.
  • Уменьшение случайности при генерации ответов.

4. Практические подходы:

  • Человеческий контроль — обязательная проверка ответов в критических областях.
  • Чёткие формулировки промптов — указание «отвечать только на основе предоставленных данных».
  • Автоматическая проверка сгенерированных фактов.

На практике эти и другие методы объединяют — единого решения пока нет, но вместе эти подходы значительно снижают количество выдуманных ответов.

Будущее галлюцинаций ИИ — можно ли их победить

Полное устранение галлюцинаций в ближайшей перспективе маловероятно, однако можно достичь их существенного контроля и минимизации рисков.

Реалистичная перспектива на пять – десять лет.

В ближайшие годы галлюцинации ИИ не исчезнут полностью, но станут управляемой проблемой — как погрешность у измерительного прибора. Мы научим нейросети честно признаваться в незнании: вместо выдуманных фактов они будут говорить: «Я не уверен» или «Это требует уточнения». Появятся встроенные системы, которые автоматически сверяют ответы с надёжными источниками. Важные области вроде медицины получат «строгие» ИИ с минимальной фантазией, а для творческих задач останутся «свободные» модели.

Главное — исчезнет слепая вера в ИИ: люди поймут, что это инструмент, требующий разумного контроля, а не непогрешимый оракул.

Футуристический сценарий.

В далёком будущем человечество сможет создать ИИ, который действительно понимает смысл, а не просто комбинирует слова. Такой искусственный интеллект будет отличать вымысел от факта так же легко, как человек отличает фантазию от воспоминания. Он будет знать не только «что», но и «почему», понимая скрытые причинно-следственные связи мира.

Это потребует фундаментального прорыва — возможно, объединения нейросетей с совершенно иными принципами мышления, более близкими к человеческому разуму. В таком мире галлюцинации станут редким артефактом прошлого, как чёрно-белое кино в эпоху голограмм.

На смену слепому доверию ИИ придёт осознанное партнёрство, где человек сохраняет роль критически мыслящего контролёра, а искусственный интеллект становится мощным, но небезупречным инструментом.