Когда алгоритм становится сказочником: Почему искусственный интеллект порой «галлюцинирует»
ИИ умеет писать стихи, решать задачи и даже вести диалоги. Но иногда он начинает «галлюцинировать» — придумывать факты, людей и события. Почему же машина, основанная на математике, вдруг ведёт себя как рассказчик-фантазёр?
Когда алгоритм становится сказочником
Представьте, вы спрашиваете у ИИ ссылку на научную статью — и получаете идеально оформленную цитату, которой… не существует. Ошибка? Да, но особенная. Искусственный интеллект не хранит энциклопедию в памяти, он строит ответ как «самую вероятную комбинацию слов».
Учёные Стэнфорда (Maynez и соавт., 2020) показали: модели особенно часто «выдумывают» детали в пересказах. Им важно не столько проверить факт, сколько завершить текст так, чтобы он звучал убедительно.
Почему это происходит
Причин несколько:
- Мир вероятностей. Для ИИ слова — это не знания, а числа. Он просто продолжает цепочку там, где мы видим «историю».
- Неполные данные. Если модель училась на текстах с ошибками, ошибки будут жить и в её ответах.
- Сложные вопросы. Исследования британской компании и исследовательской лаборатории, которая специализируется на искусственном интеллекте DeepMind показали: чем более запутанный запрос, тем выше шанс, что модель «придумает» ответ.
Галлюцинации в цифрах и картинках
В Массачусетском технологическом институте (Ji и коллеги, 2022) изучали сотни ответов языковых моделей.
Итог: при редких вопросах до трети «фактов» оказывались вымышленными.
То же самое наблюдают и с генераторами изображений. В работе OpenAI модель DALL·E по запросу «двухголовый фламинго» выдала птицу, похожую на правду… но такого вида в природе нет.
Как минимизировать выдумки ИИ
Можно ли снизить риск «фантазий»? Да — и это во многом зависит от того, как мы используем модель:
- Формулируйте запросы чётко. Чем яснее вопрос, тем меньше простора для выдумок.
- Проверяйте факты. Особенно, если речь идёт о науке, медицине или истории.
- Просите источники. ИИ может не всегда дать корректную ссылку, но он подскажет направление поиска.
- Используйте несколько моделей. Сравнение ответов часто помогает отсеять ошибки.
- Комбинируйте ИИ с базами знаний.
Примерысочитания ИИ с базами знаний:
- Bing Chat (Copilot) — проверяет ответы через поиск и всегда показывает ссылки.
- Perplexity AI — формирует краткий ответ с обязательным набором источников.
- Elicit.org — помогает искать научные статьи по теме, напрямую подключаясь к базам данных.
- ChatGPT с подключением к интернету — может уточнять и перепроверять данные в реальном времени.
Ошибка или особенность?
Можно ли назвать это дефектом? Или это новая форма «творчества»? Ведь способность придумывать — это то, что отличает художника от сухого справочника.
Вопрос к вам: если ИИ фантазирует, стоит ли мы бояться этого? Или лучше использовать «галлюцинации» там, где нужна креативность — в идеях, текстах, искусстве?
Заключение
Галлюцинации искусственного интеллекта — это не баг, а неизбежное следствие того, как он обучен. Он не видит мир напрямую, а только угадывает, как слова должны следовать друг за другом. Поэтому ИИ можно слушать как талантливого рассказчика, но проверять как строгий редактор.
Источник: gemini.google.com





9 комментариев
Добавить комментарий
Так будет спасена честь ИИ.
За деньги он хранит данные ))
Добавить комментарий