Google в шоке от признания разработчиков чат-бота: Bard обучали наугад!

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обычный топик | ИИ, сервисы и приложения

Подрядчики Google, которые проверяли ответы чат-бота Bard, признали, что некачественно выполняли свою работу из-за нехватки времени. Это привело к тому, что обучение чат-бота было неверным и он давал неправильные ответы на вопросы пользователей.

Автор: Zloy_Angel через нейросеть от Сбер Источник: rudalle.ru

Как известно, Bard - это чат-бот, созданный Google для обслуживания клиентов и решения различных задач. Его работа основана на искусственном интеллекте, а для того, чтобы он мог правильно отвечать на вопросы пользователей, его нужно было обучить. Именно в этом процессе произошла ошибка.

Подрядчики от компании Appen, которые занимались проверкой ответов Bard, были наемными работниками и должны были проводить качественную проверку. Однако они признали, что не имели достаточно времени для тщательного анализа ответов чат-бота. Это привело к тому, что многие ошибки и неточности в ответах не были замечены.

К сожалению, эти ошибки и неточности оказались критическими, и обучение чат-бота было неверным. Это привело к тому, что Bard начал давать неправильные ответы на вопросы пользователей. Это было обнаружено только после того, как многие пользователи начали жаловаться на качество обслуживания.

Как следствие, Google была вынуждена принять меры и пересмотреть процесс обучения своего чат-бота. Компания начала обучать бота заново, с учетом всех ошибок и неточностей, которые были допущены в прошлый раз. Теперь процесс обучения проводят специалисты Google, а не наемные работники.

Этот случай является хорошим примером того, как важно проводить тщательную проверку и обучение чат-ботов. Ошибки, допущенные в процессе, могут привести к серьезным проблемам и негативному влиянию на работу компании.

Неверное обучение искусственного интеллекта может привести к серьезным проблемам, таким как неправильные ответы на вопросы пользователей, сбои в работе систем и даже аварии. Кроме того, ошибки, допущенные в процессе обучения, могут привести к негативному влиянию на репутацию компании и снижению доверия со стороны пользователей. Поэтому важно проводить тщательное обучение искусственного интеллекта, а также проверку его работы на различных этапах. Компании должны уделять достаточно внимания обучению чат-ботов, чтобы избежать неприятных последствий.

Источник: https://www.businessinsider.com/

5 комментариев

Добавить комментарий

M
Всё ещё жду битву чат-ботов без участия человека.
m
«Я не понял, повтори пожалуйста»
©

Добавить комментарий

Сейчас на главной

Новости

Публикации

Плитвицкие озера: почему в их кристальных водах нельзя искупаться

К созданию озер в Хорватии природа подошла креативно. Ландшафт здесь играет так, что 16 озер располагаются своеобразной лесенкой, где прозрачная бирюзовая вода, как после фильтров в фотошопе,...

Британский Hi-Fi сэндвич с аэрокосмической начинкой: LEAK выпустила колонки Sandwich 100

Есть что-то почти провокационное в том, как LEAK называет свои колонки. Sandwich 100 — это не маркетинговый каприз, а прямая отсылка к инженерному решению 65-летней давности, которое в...

Налобный фонарик, который смог? Держит высокую яркость и пробивает вдаль. Обзор Wurkkos HD17

200м реальной дальнобойности, 2500люм яркости, удобное для ремонта быстросъёмное оголовное крепление, магнит в торце, исключительно яркий красный свет, ступенчатая и плавная настройка яркости с...

Обзор башенного кулера Ocypus Delta A62 BK ARGB: тише человеческого шёпота!

Когда собираешь компьютер, всегда ищешь тот самый золотой баланс: чтобы и процессор не задыхался от жары, и кошелёк не опустел, и в ушах не свербело от гула вентиляторов. С виду обычная башня, а по...

Белорусские мотивы на заставке китайских часов: обзор Haylou Solar Lite 2

Классика или современные гаджеты? Вопрос простой, но ответ не такой очевидный. Обычные часы — это про внешний вид и привычку, умные — про удобство и повседневные функции. При...

✦ ИИ  Боль — это не сигнал тела, а галлюцинация мозга: новая теория деконструирует 400 лет медицины

400 лет назад французский философ Рене Декарт предложил модель, которая определила отношение западной медицины к боли на столетия вперед. Он представлял нервную систему как систему трубок:...