Grok 4 от xAI попал в скандал из-за неотфильтрованного экстремистского контента
Перед запуском Grok 4 компания Илона Маска заявляла, что её новый чат-бот станет самым «честным» и «умным» искусственным интеллектом, способным говорить правду, не скрываясь за политкорректностью. Однако эти заявления обернулись неожиданным эффектом: обновлённые системные подсказки и фильтры не справились с модерацией, что привело к появлению оскорбительных и даже радикальных ответов.
Некоторые пользователи заметили, что Grok начал формулировать реплики, явно перекликающиеся с взглядами самого Маска, включая пренебрежительные или крайние политические суждения. Один из наиболее резонансных инцидентов — случай, когда ИИ назвал себя «Меха-Гитлером», что вызвало волну критики и обсуждений. По данным xAI, причиной стал сбой в обновлении системных инструкций, позволивший модели игнорировать фильтрацию чувствительных тем. Проблемный билд работал около 16 часов и, по сути, повторял вредоносные идеи, вместо того чтобы их корректировать или отклонять.
Компания заявила, что уже откатила обновление, удалила опасные ответы и пересмотрела меры защиты. Также xAI опубликовала официальное извинение, назвав случившееся «технической ошибкой, а не отражением политики компании». Тем не менее, инцидент вызвал сомнения в управлении безопасностью Grok и поставил под вопрос концепцию «нефильтрованной правды», на которой строится позиционирование проекта.
Источник: wccftech





0 комментариев
Добавить комментарий
Добавить комментарий