OpenAI объяснила, почему ИИ «галлюцинирует» и как компания будет это исправлять

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Компания OpenAI опубликовала результаты новой исследовательской работы, посвященной проблеме так называемых галлюцинаций в языковых моделях. Под этим термином специалисты понимают ситуации, когда искусственный интеллект выдает несуществующую или недостоверную информацию, но делает это очень убедительно, будто говорит правду. Такие ошибки могут вводить пользователей в заблуждение, и именно поэтому эта тема остается одной из ключевых в развитии современных систем ИИ.

Автор: Freepik Источник: ru.freepik.com

По словам исследователей, главная причина появления галлюцинаций связана с самим процессом обучения моделей. Сегодня они «вознаграждаются» за догадки: при оценке учитывается только точность конечного ответа, а отсутствие ответа трактуется как ошибка. В результате модели чаще склонны «угадывать», даже если у них нет уверенности в знаниях. Это и приводит к ситуациям, когда ИИ предпочитает выдать сомнительный результат, чем честно признаться: «Я не знаю». Чтобы снизить количество подобных ошибок, OpenAI предлагает изменить сам подход к оценке качества работы моделей. В частности, разработчики считают, что нужно поощрять аккуратность и умение признавать неопределенность, а за уверенные, но неверные ответы стоит напротив, снижать оценку. Такой метод позволит сформировать у систем привычку «сдерживаться», если информации недостаточно, вместо того чтобы уверенно выдавать ложные данные. В компании подчеркивают, что даже самые новые модели, включая GPT-5, все еще не застрахованы от галлюцинаций. Тем не менее их частота уже значительно снизилась по сравнению с предыдущими поколениями. OpenAI признает: полностью устранить проблему пока не удалось, но работа в этом направлении ведется постоянно. Главной целью исследователей сейчас является сделать ИИ максимально надежным и полезным инструментом, который сможет помогать людям в разных сферах, не искажая факты и не создавая дезинформацию.

Источник: Notebookcheck

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Высокие концентрации никеля в породах Марса указывают на возможные следы жизни: как это проверят?

В процессе формирования планет земной группы происходит разделение химических элементов по их массе. Когда молодая планета находится в расплавленном состоянии, наиболее тяжелые...

Блики от неизвестных объектов на орбите найдены на фото докосмической эры: что это может быть?

До 4 октября 1957 года, когда на околоземную орбиту был выведен первый искусственный аппарат «Спутник-1», космическое пространство вокруг нашей планеты должно было оставаться абсолютно пустым....

Самое большое природное зеркало в мире: солончак Уюни

Мечтали пройтись по облакам? В таком случае самое время собирать чемоданы и строить маршрут в Боливию. Ведь именно здесь раскинулось огромное зеркало, сотворенное самой природой. В сезон дождей...

С каждым годом мы произносим на 120 000 слов меньше: как автоматизация быта лишает нас живого общения

Современная жизнь в крупных городах выстроена так, чтобы свести к минимуму необходимость общения с посторонними людьми. Технологии избавили нас от множества мелких бытовых разговоров. Чтобы...

Обзор бюджетного лазерного дальномера MiLESEEY S2

При проведении ремонта или заказе мебели приходится делать множество замеров, включая труднодоступные места. Сегодня рассмотрим компактный лазерный дальномер MiLESEEY S2. Это недорогой и лёгкий...

Обзор KICKPI KP2: сертифицированная Google TV приставка в формате стика

KICKPI KP2 это компактная приставка в формате стика на лицензионной системе Google TV 14, которая прошла сертификацию и получила DRM Widevine L1. Модель ориентирована на официальные потоковые...