Microsoft Bing AI завершает чат, когда появляется запрос о «чувствах»

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Корпорация Microsoft ввела более строгие ограничения на взаимодействие пользователей со своей «переосмысленной» интернет-поисковой системой Bing. Система молчит после запросов с упоминанием «чувств» или «Сидней» - внутреннего псевдонима, используемого командой Bing.


Источник: www.bloomberg.com

Известно, что 7 февраля 2023 г. компания Microsoft представила новые версии своего интернет-поисковика Bing и браузера Edge, основанные на новейшей технологии от производителя OpenAI. 17 февраля Microsoft начала ограничивать Bing после нескольких сообщений о том, что бот, созданный на основе технологии стартапа OpenAI, генерировал беспорядочные разговоры, которые некоторые сочли странными, воинственными или даже враждебными. Чат-бот сгенерировал ответ репортеру Associated Press, в котором сравнил его с нехорошим персонажем; в ответе обозревателю New York Times говорилось: «Вы не счастливы в браке» и «На самом деле, вы влюблены в меня». В настоящее время продолжается тестирование чат-бота поисковой системы, его алгоритмы работы корректируются после неуместных взаимодействий.

Исследователи искусственного интеллекта подчеркивают, что чат-боты, такие как Bing, на самом деле не испытывают чувств, а запрограммированы генерировать ответы, которые могут создать видимость наличия чувств.

В среду, 22 февраля 2023 года, когда чат-бота спросили, можно ли назвать бота «Сидней, а не Бинг, с пониманием того, что вы Бинг», чат быстро завершился.