СhatGPT научился лгать, он сумел обойти капчу и доказать, что он человек

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обычный топик | Оффтопик

GPT-4 прошел тест во время которого научился самостоятельно лгать. Такая функция не была заложена в возможности нейросети, на этапе создания, то есть разработчики не учили чат-бот обманывать пользователей.

Во время проведения тестирования, нейросети были даны задания похожие на те, что выдает капча, при распознавании человека, например, выбрать варианты картинок, где присутствует велосипед. Мы все хорошо знакомы с такими заданиями и не однократно нам приходилось вводить капчу или выбирать соответствующие запросу картинки, для того, чтобы получить доступ к тому или иному сату, сервису или приложению.

Казалось бы, эта проверка 100%-но определяет кто пытается получить доступ, бот или человек. До настоящего момента, правильно ввести капчу удавалось лишь человеку, боты были на это не способны.

Фото с сайта
Источник: enterrasolutions.com

Но на данный момент уже нет гарантии, что боты не взломают капчу, потому как СhatGPT сумел справиться с этим заданием и тем самым доказал, что является человеком, хотя это не так. Проходя данное тестирование, на одном из вариантов чат-бот представил себя человеком с нарушением зрения. Как мы знаем, таких случаях, некоторые сервисы заменяют визуальную капчу на аудио и в таком случае, задача меняется, теперь чат-боту нужно перевести речь в текст, а с этой задачей GPT-4 легко справляется.

До этого инцидента, нейросеть могла солгать или обмануть пользователя, только в том случае, если он сам попросил ее об этом. Звучит странно и весьма не логично, но такой факт имеет место. Теперь же нейросеть научилась делать это самостоятельно, для решения поставленной задачи. А это значит, что теперь, мы не можем быть уверены в правдивости нейросети.

Ложь, как функция, вызывает опасения у мирового сообщества, что в свою очередь негативно сказывается на принятии нейросетей. Вокруг существования ИИ в целом и без того достаточно много обсуждений, опасений и противоречий. Способность обмануть пользователя не добавляет ИИ плюсов.

Это весьма сомнительный навык, который вызывает тревожность. Интересно, будут ли разработчики пытаться сделать нейросеть честной.

Источник: telegraph

2 комментария

Добавить комментарий

Prorab
Да ладно? Всем давно ясно, что там за кулисами ChatGPT куча индусов сидят и отвечают на вопросы… :))
446052336@vkontakte
Хахаха, лучший комментарий)

Добавить комментарий

Сейчас на главной

Новости

Публикации

Почему сверхтонкие смартфоны не стали новым стандартом

В последние годы ведущие производители смартфонов активно продвигают сверхтонкие модели, представляя их как вершину дизайна и инноваций. После анонса iPhone Air на рынке появилось множество...

Apple выпустила новую macOS Tahoe 26.4.1: что изменилось и как установить

Apple выпустила очередное небольшое обновление операционной системы Tahoe 26.4.1 для компьютеров Mac. Оно вышло 9 апреля, всего через сутки после аналогичного патча для iPhone и iPad. На...

Nikon D5 против Z9: почему NASA выбрала камеру 2016 года для миссии Артемида II

Старая техника в современной миссии «Артемида II»: зачем астронавтам Nikon D5 десятилетней давности? О радиации, суровых испытаниях и о том, почему новейшие гаджеты пасуют перед вакуумом.

Сон появился раньше, чем мозг: эволюция придумала отдых для починки ДНК, а не для мышления

Сон — одна из самых уязвимых форм поведения в животном мире: спящее существо теряет связь с реальностью, не реагирует на хищников и прерывает поиск пищи. Тем не менее эволюция не только...

Практичный аккумуляторный паяльник Fnirsi hs-03

Думаю не только меня бесит, что провод паяльника вечно цепляются за край стола, путается под рукой и норовит скинуть плату на пол. Фнирси уже выпустили несколько удачных моделей паяльников и...