ChatGPT — это робот-мошенник, не стоит доверять ему

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обычный топик | Программы, сервисы и сайты

Зарубежное издание Business insider в лице старшего корреспондента Адама Роджерса, выразило свою обеспокоенность в отношении адекватности и сознательности ИИ.

Уточню. Статья является переводом, а не личным мнением автора, хотя вся эта история с растущими как грибы нейронками автора не может не заботить. 

После того, как Google и Microsoft объявили, что они будут предоставлять результаты поиска, генерируемые чат-ботами — искусственным интеллектуальным программным обеспечением, я обеспокоился, что нашим новым помощникам ИИ не следует доверять. В конце концов, собственные исследователи ИИ Google предупредили компанию, что чат-боты будут «стохастическими попугаями» (вероятно, будут выкрикивать вещи, которые являются неправильными, глупыми или оскорбительными) и «склонными к галлюцинациям» (склонными просто выдумывать вещи).

Боты, опираясь на так называемые большие языковые модели, обучены предсказывать вероятность высказываний, тем не менее то, является ли ответ правдивым или нет не гарантируется.

Эти чат-боты на самом деле не умны, не интеллектуальны. Они глупцы и вруны!

Фото с сайта
Источник: thumbs.dreamstime.com

Самим чат-ботам не потребовалось много времени, чтобы доказать свою лживость. Реклама на прошлой неделе для бота Google, Bard, показала, что он дает неправильный ответ на вопрос, оценка акций компании получила многомиллиардный убыток. Так же ответы, которые бот Бинга, Сидней, дал в своей открытой демонстрации, не выдержали даже элементарных проверок фактами.

Это ужасно! Онлайн-поиск уже был полем битв со спамом, оптимизированным для поисковых систем, чушью и потребностями рекламодателей. Но поисковые системы, тем не менее, навели порядок в хаотичном пространстве данных Интернета и стояли где-то между информацией и знаниями, помогая нам переводить одно в другое. Мы научились им доверять.

Чат-боты — это скверные движки, созданные для того, чтобы говорить вещи с неопровержимой уверенностью и полным отсутствием опыта. Неудивительно, что техническая элита в шутку называет их «mansplaining as a service», что выражает нашу некомпетентность, перед лицом ботов, унижая нас и ставя ботов на уровень выше. И теперь они будут управлять основным способом, которым люди получают знания изо дня в день.

Так почему же мы покупаем их чушь? Несмотря на то, что мы с самого начала знаем, что наши новые библиотекари-роботы глубоко несовершенны, мы все равно будем использовать их миллионы и миллионы раз в час и принимать меры на основе ответов, которые они нам дают. Что заставляет людей доверять машине, которая, как мы знаем, не заслуживает доверия?

Фото с сайта
Источник: htpartners.com

Честно говоря, никто не знает, почему люди верят во что-либо. После тысячелетий дебатов ведущие философы, психологи и нейро-ученые всего мира даже не пришли к соглашению относительно механизма, по которому люди формируют свои убеждения, или что такое убеждения вообще. Поэтому трудно понять, как они работают, или почему одно убеждение более правдоподобно, чем другое. Но у меня есть некоторые предположения относительно того, почему мы будем поддаваться на уловки ChatGPT. Мы, люди, любим изощренных обманщиков с впечатляющими рекомендациями. А боты только будут становиться более утонченными в своих манипуляциях с нами.

Я подозреваю, что способность чат-бота генерировать текст, а не просто список полезных ссылок, становится опасной. Люди передают свои убеждения социально, через язык. И когда многие из нас разделяют одну систему убеждений, мы формируем более согласованную и гармоничную группу. Но это можно взломать. Потому что идеи, которые хорошо передаются - с использованием правильных слов, фраз и тонов - могут казаться более убедительными. Боты используют местоимение первого лица "Я", даже если там нет человека. Для случайного читателя ответы Барда и Сидни (имена чат-ботов * уточнение автора) будут казаться достаточно человечными, и это означает, что они будут казаться правдивее.

Резюмируя, хочется сказать, что наряду с возросшей популярностью нейросетей существует проблема того, что механизмы искусственного интеллекта еще не отлажены, и нам не стоит стопроцентно доверять информации, полученной он чат-ботов.  Стоит осознавать, что в случае важных действий лучше воспользоваться проверенными источниками информации. 

Вообще в статье источнике по ссылке ниже еще очень большое рассуждение с точки зрения философии, биологии и социологии, но сама соль в том, что многие ведущие аналитики начинают задумываться, куда приведет нас гонка IT-гигантов в создании все новых и новых нейросетей. 

Источник: Business Insider

34 комментария

s
С душой?!
«Онлайн-поиск уже был безостановочной битвой со спамом, оптимизированным для поисковых систем gobbledygook и потребностей рекламодателей. „
для поисковых систем gobbledygook и потребностей рекламодателей? что?
zloy_Angel
Ну автор закладывал мысль, что онлайн поисковик — это поле битва между информацией, которую мы ищем и рекламой разной масти.
gobbledygook — это термин, обозначающий чушь собачья.
з
Кто бы сомневался. Чем больше загруженная база данных и совершенен алгоритм выбора, тем более точным будет результат. Ничего нового современный ИИ создать не может, только ускорить выбор решения на очевидные задачи, где требуется принятие решений на основе множества факторов. А вот в точных науках ИИ может оказаться весьма полезен, облегчив работу программистам и конструкторам.
156346974@vkontakte
Большая база благодаря которой ChatGPT смог поверить что существует «множество авторитетных источников, сообщающих что в результате Сталинских репрессий погибли миллионы человек.» Когда начинаешь спрашивать почему он так считает, оказывается что миллионы смертей у него синонимичны миллиону жертв. А когда спрашиваешь про авторитетные источники о которых он говорит, он ссылается на документы которых не существует. Когда указываешь на это он скатывается к «у меня нету конкретных источников в которых это упоминается, но оно действительно часто написано в различных источниках». Где-то.
156346974@vkontakte
*Цель не показать что тезисы не верны, так как тогда их можно было бы исправить дополнив базу. Проблема в допущениях того что жертвы и смерти это одно и то же, а так же заявление о существовании множества источников без присутствия таковых. Это всего лишь предложение, но возможно ему просто скормили базу где так и сказано, что есть «множество авторитетных источников, сообщающих что в результате Сталинских репрессий погибли миллионы человек», и он это принял за чистую монету.
113928129992909222247@google
Мне он на такое ответил, что все это под сомнением. Он сперва даже ломался обсуждать такие вещи. У него же есть как базы данных Википедии, которая, как известно независимый и непойманный на лжи источник, так и десятки тысяч слов из переписок людей в соц сетях, а там явно есть множество авторитетных источников
105541404663996881166@google
Так это не фактическая ошибка, так много людей же думает
156346974@vkontakte
Проблема в том что алгоритм настроен не на факт чекинг, а предоставление информации. То есть, он даже не знает говорят ли авторитетные источники об этом. У него НАПИСАНО в базе что об этом говорят авторитетные источники. А он даже не знает, существуют ли они.
S
А авторитетный источник по репрессиям эт конечно наследники НКВД которые конечно никак не заинтересованы в выдаче правды а лишь в выдаче того что им самим выгодно… Как и многим другим *источникам*
156346974@vkontakte
Не совсем понимаю даже какую сторону вы пытаетесь высмеять. Но фундаментальная проблема которую я считаю присутствующей в нейронке — принятие утверждения за знание. То есть, у неё есть утверждение, и она ставит его под сомнение только если на это указать. Сам такой подход не может в принципе считаться адекватным, даже если утверждение совпадает с фактами. Только если вы не считаете что у нейронки появилось 6 чувство, и она может найти подтверждение тому, чего нету в её базе.
t
Краткий пересказ: угроза скайнета отменяется, он слишком глючен.
105541404663996881166@google
Людям тоже свойственно совершать ошибки так-то
D
Зачем тогда создавать нечто глобальное, которое будет делать те же «свойственные людям ошибки»?
Мне лет пятнадцать назад выдал пойманный на вранье журналист БиБиСи: «я не лгал, а добросовестно заблуждался». Вот и нейросеть будет «добросовестно заблуждаться» из-за определенной направленности «обучающих» материалов.

А зачем вообще пытаться тестировать эти интеллектуальные поисковики такими вопросами? Насчёт этой темы и просто опрос людей на улице наверняка выдаст весьма неоднозначные результаты. А робот просто смотрит интернет, где те же самые люди всё и пишут. И «авторитетные» исследования тоже будут прямо противоположные друг другу, в зависимости от взглядов их авторов.
Но в том, что бот может ошибаться — в этом нет никаких сомнений.
100686097844733078294@google
Чатботы это реально сырая технология, и как и любая новая технология чатботы будут развиваться и улучшаться, есть не одно хорошее приминение таких ии, это и перевод текстов на разные языки, в том числе и аудио перевод, это и программирование, ведь уже сейчас ии способны дополнять код, и предлагать решения проблем (код) программисту, а в будущем эта возможность лишь улучшится, это и помощь в поиске информации, хоть алгоритмы поисковиков и неплохие, но только в том случае если правильно делать запрос, а вот если попросить поисковик, человеческим языком, найти тебе, где купить болт м8 на 40 с внутренним шестигранником — сталь 10.9 чёрный с конусом на конце, то хрен обычный поисковик тебе что-то покажет, а вот чатбот вполне сможет перевести твои хотелки в удобоваримый запрос поисковику, и выдаст результат. А многие (большинство) люди не умеют правильно искать в поисковике всякое нужное, то есть польза будет огромная.
Кроме того чатботы это развитие/ответвление от голосовых помощников, то есть по логике следующий этап, это улучшение голосовых помощников наработками чат ботов. В общем ии развивается и со временем всё будет.
Главное, чтобы самосознание не развилось, ибо это будет ещё тот скандалл, всякие борцы за свободу «разумных» ии наведут хаоса…
105541404663996881166@google
Человек ошибки совершает, тоже сырая технология?
S
Конечно сырая… Взлом очень прост тупым флудом пропаганды
484279242@vkontakte
Меня веселит как люди бесятся мол чатбот иногда неверную инфу выдаёт как будто ссылки в гугл поиске выдают сугубо достоверную инфу лол
105541404663996881166@google
И как будто настоящие люди не ошибаются
S
Так поисковик не выдаёт верную или не верную инфу… Лиш ссылки на инфу где есть ключевые слова из запроса
100922890507616394839@google
Мне лично нравится изучать с помощью него базовые знания по физике, химике и т.д. А вот по программированию не так гладко, иногда выдает совершенно не рабочий код
S
Надо конечно в него вселить Соловьёва и Кеосаяна?))))
N
Так ведь нейронку в основе ChatGPT обучали через википедию и кучу других сайтов. Безусловно, если человек где-то написал ложную информацию и бота ей обучили — он выдаст вам ложный ответ. Даже сами разрабы предупредили ворнингами на страничке чата, что бот может иногда выдавать некорректную информацию и его знания по мировым событиям позже 2021 года весьма ограничены. Отправляя своё первое сообщение, вы сами согласились на то, что можете получить ложную информацию. А называть его обманщиком бессмысленно, ведь то, у чего нет сознания, не может осознанно обманывать. Скорее наоборот, у бота нереально огромные познания о мире. Он может ответить почти на любой вопрос и выполнить в два счета задачу, которую человек делал бы 3 часа. Это, воистину, величайшее изобретение человечества за последние 10 лет. А опасность в перспективе бот представляет только для различных профессий по типу переводчиков, редакторов и копирайтеров. Так что используйте его для достижения своих целей. Ведь именно создавался он именно для этого

Добавить комментарий

Сейчас на главной

Новости

Публикации

Бесшумная механическая клавиатура Zone 51 Garnet: обзор с разборкой

Почти полноразмерная (98%) клавиатура с бесшумными переключателями KTT Peach Silent. Колпачки из PBT пластика выполненные методом двойного литья. Подключение проводное. Имеется RGB подсветка с...

Как эффективно избавиться от сныти на участке

На первый взгляд, сныть может показаться лишь невинным дополнением к вашему дачному участку: с ее сочной зеленью и нежными белыми соцветиями, она словно приглашает пчел на пиршество. Но не стоит...

Почему Франция пыталась ввести 10-ти часовые сутки и что из этого могло получиться?

Все мы привыкли к системе исчисления времени, в основе которой 24 часа, состоящих из 60 минут. Привыкли — ключевое слово! Но когда речь заходит о том, что пора научить ребенка понимать,...

Обзор портативной акустической системы УРАЛ Гагарин ГР-001: младшенькая в «легендарной» линейке

В линейке портативной акустики от производителя Урал пополнение. Гагарин ГР-001 самая младшенькая, но в то же время может показать свою мощь. Эта компактная беспроводная колонка с 2 по 10 Вт...

Как сделать свое безлимитное облачное хранилище с помощью Teledrive в 2024 году. Google Drive и Яндекс Диск, пока!

За последние годы, как бы это ни было странно, но моим основным облачным хранилищем стали «Избранные» в Telegram, потому что сервис доступен на всех платформах и сам открыто рассказывает об...

Rostic’s отметил свой первый день рождения

В «Ростикс» подвели итоги первого года работы под новым названием и рассказали о планах на будущее. Одним из условий проведенной в апреле 2023 года сделки по передаче активов между американской...