OpenAI объяснила, почему ИИ «галлюцинирует» и как компания будет это исправлять

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Компания OpenAI опубликовала результаты новой исследовательской работы, посвященной проблеме так называемых галлюцинаций в языковых моделях. Под этим термином специалисты понимают ситуации, когда искусственный интеллект выдает несуществующую или недостоверную информацию, но делает это очень убедительно, будто говорит правду. Такие ошибки могут вводить пользователей в заблуждение, и именно поэтому эта тема остается одной из ключевых в развитии современных систем ИИ.

Автор: Freepik Источник: ru.freepik.com

По словам исследователей, главная причина появления галлюцинаций связана с самим процессом обучения моделей. Сегодня они «вознаграждаются» за догадки: при оценке учитывается только точность конечного ответа, а отсутствие ответа трактуется как ошибка. В результате модели чаще склонны «угадывать», даже если у них нет уверенности в знаниях. Это и приводит к ситуациям, когда ИИ предпочитает выдать сомнительный результат, чем честно признаться: «Я не знаю». Чтобы снизить количество подобных ошибок, OpenAI предлагает изменить сам подход к оценке качества работы моделей. В частности, разработчики считают, что нужно поощрять аккуратность и умение признавать неопределенность, а за уверенные, но неверные ответы стоит напротив, снижать оценку. Такой метод позволит сформировать у систем привычку «сдерживаться», если информации недостаточно, вместо того чтобы уверенно выдавать ложные данные. В компании подчеркивают, что даже самые новые модели, включая GPT-5, все еще не застрахованы от галлюцинаций. Тем не менее их частота уже значительно снизилась по сравнению с предыдущими поколениями. OpenAI признает: полностью устранить проблему пока не удалось, но работа в этом направлении ведется постоянно. Главной целью исследователей сейчас является сделать ИИ максимально надежным и полезным инструментом, который сможет помогать людям в разных сферах, не искажая факты и не создавая дезинформацию.

Источник: Notebookcheck

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Идеальный эспрессо просчитали математически: физики вывели точное уравнение проницаемости кофейной таблетки

Каждое утро миллионы людей запускают сложный физический эксперимент. В небольшой металлической корзине — портафильтре (или, по-простому, рожке) — спрессовывается мелко...

Обзор зарядного устройства GP B423 – как распределяется мощность между слотами

Зарядные устройства для аккумуляторов формата AA и AAA обычно не вызывают особого интереса, пока не начинаешь смотреть, как они реально работают. GP B423 относится к базовому сегменту, но при...

Бозон Хиггса отвечает только за 2% массы видимой Вселенной. Откуда берется остальная?

В современной науке большой разрыв между тем, что мы знаем о мире из экспериментов, и тем, что мы можем доказать математически. Один из самых ярких примеров этого разрыва касается вопроса о том,...

История Wi‑Fi: От алгоритмов радиоастрономии до гигабитных стандартов

Wi‑Fi, который сегодня используется во всём мире, возник благодаря научным исследованиям передачи слабых радиосигналов через шумные и искажённые среды. В конце 1970-х годов инженеры австралийского...

Обзор зарядного устройства VOLTME Revo 140: 140 ватт без компромиссов

Рынок GaN-зарядок сейчас переполнен: каждый второй бренд обещает «революционную» компактность и рекордную мощность, и разобраться, кто из них реально делает качественный продукт, всё сложнее....