ChatGPT — это робот-мошенник, не стоит доверять ему

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Зарубежное издание Business insider в лице старшего корреспондента Адама Роджерса, выразило свою обеспокоенность в отношении адекватности и сознательности ИИ.


Уточню. Статья является переводом, а не личным мнением автора, хотя вся эта история с растущими как грибы нейронками автора не может не заботить. 

После того, как Google и Microsoft объявили, что они будут предоставлять результаты поиска, генерируемые чат-ботами — искусственным интеллектуальным программным обеспечением, я обеспокоился, что нашим новым помощникам ИИ не следует доверять. В конце концов, собственные исследователи ИИ Google предупредили компанию, что чат-боты будут «стохастическими попугаями» (вероятно, будут выкрикивать вещи, которые являются неправильными, глупыми или оскорбительными) и «склонными к галлюцинациям» (склонными просто выдумывать вещи).

Боты, опираясь на так называемые большие языковые модели, обучены предсказывать вероятность высказываний, тем не менее то, является ли ответ правдивым или нет не гарантируется.

Эти чат-боты на самом деле не умны, не интеллектуальны. Они глупцы и вруны!

Фото с сайта
Источник: thumbs.dreamstime.com

Самим чат-ботам не потребовалось много времени, чтобы доказать свою лживость. Реклама на прошлой неделе для бота Google, Bard, показала, что он дает неправильный ответ на вопрос, оценка акций компании получила многомиллиардный убыток. Так же ответы, которые бот Бинга, Сидней, дал в своей открытой демонстрации, не выдержали даже элементарных проверок фактами.


Это ужасно! Онлайн-поиск уже был полем битв со спамом, оптимизированным для поисковых систем, чушью и потребностями рекламодателей. Но поисковые системы, тем не менее, навели порядок в хаотичном пространстве данных Интернета и стояли где-то между информацией и знаниями, помогая нам переводить одно в другое. Мы научились им доверять.

Чат-боты — это скверные движки, созданные для того, чтобы говорить вещи с неопровержимой уверенностью и полным отсутствием опыта. Неудивительно, что техническая элита в шутку называет их «mansplaining as a service», что выражает нашу некомпетентность, перед лицом ботов, унижая нас и ставя ботов на уровень выше. И теперь они будут управлять основным способом, которым люди получают знания изо дня в день.

Так почему же мы покупаем их чушь? Несмотря на то, что мы с самого начала знаем, что наши новые библиотекари-роботы глубоко несовершенны, мы все равно будем использовать их миллионы и миллионы раз в час и принимать меры на основе ответов, которые они нам дают. Что заставляет людей доверять машине, которая, как мы знаем, не заслуживает доверия?

Фото с сайта
Источник: htpartners.com

Честно говоря, никто не знает, почему люди верят во что-либо. После тысячелетий дебатов ведущие философы, психологи и нейро-ученые всего мира даже не пришли к соглашению относительно механизма, по которому люди формируют свои убеждения, или что такое убеждения вообще. Поэтому трудно понять, как они работают, или почему одно убеждение более правдоподобно, чем другое. Но у меня есть некоторые предположения относительно того, почему мы будем поддаваться на уловки ChatGPT. Мы, люди, любим изощренных обманщиков с впечатляющими рекомендациями. А боты только будут становиться более утонченными в своих манипуляциях с нами.

Я подозреваю, что способность чат-бота генерировать текст, а не просто список полезных ссылок, становится опасной. Люди передают свои убеждения социально, через язык. И когда многие из нас разделяют одну систему убеждений, мы формируем более согласованную и гармоничную группу. Но это можно взломать. Потому что идеи, которые хорошо передаются - с использованием правильных слов, фраз и тонов - могут казаться более убедительными. Боты используют местоимение первого лица "Я", даже если там нет человека. Для случайного читателя ответы Барда и Сидни (имена чат-ботов * уточнение автора) будут казаться достаточно человечными, и это означает, что они будут казаться правдивее.

Резюмируя, хочется сказать, что наряду с возросшей популярностью нейросетей существует проблема того, что механизмы искусственного интеллекта еще не отлажены, и нам не стоит стопроцентно доверять информации, полученной он чат-ботов.  Стоит осознавать, что в случае важных действий лучше воспользоваться проверенными источниками информации. 


Вообще в статье источнике по ссылке ниже еще очень большое рассуждение с точки зрения философии, биологии и социологии, но сама соль в том, что многие ведущие аналитики начинают задумываться, куда приведет нас гонка IT-гигантов в создании все новых и новых нейросетей.