OpenAI объяснила, почему ИИ «галлюцинирует» и как компания будет это исправлять

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Компания OpenAI опубликовала результаты новой исследовательской работы, посвященной проблеме так называемых галлюцинаций в языковых моделях. Под этим термином специалисты понимают ситуации, когда искусственный интеллект выдает несуществующую или недостоверную информацию, но делает это очень убедительно, будто говорит правду. Такие ошибки могут вводить пользователей в заблуждение, и именно поэтому эта тема остается одной из ключевых в развитии современных систем ИИ.

Автор: Freepik Источник: ru.freepik.com

По словам исследователей, главная причина появления галлюцинаций связана с самим процессом обучения моделей. Сегодня они «вознаграждаются» за догадки: при оценке учитывается только точность конечного ответа, а отсутствие ответа трактуется как ошибка. В результате модели чаще склонны «угадывать», даже если у них нет уверенности в знаниях. Это и приводит к ситуациям, когда ИИ предпочитает выдать сомнительный результат, чем честно признаться: «Я не знаю». Чтобы снизить количество подобных ошибок, OpenAI предлагает изменить сам подход к оценке качества работы моделей. В частности, разработчики считают, что нужно поощрять аккуратность и умение признавать неопределенность, а за уверенные, но неверные ответы стоит напротив, снижать оценку. Такой метод позволит сформировать у систем привычку «сдерживаться», если информации недостаточно, вместо того чтобы уверенно выдавать ложные данные. В компании подчеркивают, что даже самые новые модели, включая GPT-5, все еще не застрахованы от галлюцинаций. Тем не менее их частота уже значительно снизилась по сравнению с предыдущими поколениями. OpenAI признает: полностью устранить проблему пока не удалось, но работа в этом направлении ведется постоянно. Главной целью исследователей сейчас является сделать ИИ максимально надежным и полезным инструментом, который сможет помогать людям в разных сферах, не искажая факты и не создавая дезинформацию.

Источник: Notebookcheck

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Независимые эксперименты окончательно опровергли утверждение об обнаружении тёмной материи на Земле

Около 27 процентов всей массы и энергии во Вселенной приходится на темную материю. Она не испускает света, не отражает его и не участвует в электромагнитном взаимодействии. Единственный способ,...

Закон Вурхиза: физики объяснили, почему обгонять медленные машины в городе абсолютно бессмысленно

Вы нажимаете на газ, резко перестраиваетесь и с чувством глубокого удовлетворения оставляете тихохода позади. Всего пара рискованных маневров — и вы выигрываете драгоценные секунды. Но...

Пещера Вайтомо: почему в ней запрещено использовать фонари и другие источники света

В изучении пещер фонарик: лучший друг, главный помощник и штатный спасатель от сотрясений мозга, вызванных падениями в темноте. Короче, без него в пещеру лучше не соваться, если вы не видите в...

Пять лет назад мы потеряли смартфоны LG: история падения главного конкурента Samsung

Когда-то давно эти смартфоны вовсю конкурировали с Samsung и занимали своё место в списке А-брендов. Именно они первыми предложили 2 ГБ оперативной памяти, вытянутый экран и ультраширик в качестве...