Исследование: более 2/3 опрошенных в США считают ботов вроде ChatGPT разумными

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Хотя чат-боты вроде ChatGPT и его аналогов не обладают классическим сознанием — эксперты часто называют их «T9 на стероидах», многие пользователи вполне уверены в том, что большие языковые модели разумны в той или иной степени. Более того, это предположение влияет и на стиль общения людей с ботами — в будущем это может стать реальной проблемой.


Автор: Создано с помощью нейросети Kandinsky 3.1 Источник: vk.com

В последние пару лет создатели генеративных ИИ-систем добились натсолько впечатляющих успехов, что многие стали воспринимать большие языковые модели (LLM), пожалуй, даже чересчур всерьёз. Согласно исследованию канадского Университета Ватерлоо, способность ботов имитировать человеческую речь и даже эмоции привели к тому, что более 2/3 опрошенных в США (67 %) верят, что LLM разумны в той или иной степени.

В опросе участвовали 300 жителей Соединённых Штатов, их спросили — считают ли люди, что ChatGPT обладает сознанием, может ли планировать, рассуждать или испытывать эмоции. Также спрашивалось, как часто опрошенные пользовались продуктом OpenAI. Дополнительно предлагалось оценивать ответы бота по шкале от 1 до 100 по уровню «осознанности» ответов. Результаты показали, что чем чаще опрошенный обращался к ChatGPT, тем больше он был уверен, что тот обладает сознанием в той или иной форме.

По словам профессора психологии Сары Коломбатто, представляющей университет, результаты свидетельствуют о силе речи — сама по себе беседа заставляет многих прийти к выводу, что техническое средство, очень отличающееся от людей и работающее на совершенно других принципах, обладает разумом.

Результаты исследования опубликованы в журнале Neuroscience of Consciousness. Учёные предполагают, что подобная уверенность людей может повлиять на их взаимодействие с ИИ-инструментами. С одной стороны, это может сработать во благо, с другой — вызвать эмоциональную зависимость от чат-ботов, снизить уровень взаимодействия между людьми и привести к тому, что те будут слишком сильно полагаться на ИИ при принятии критически важных решений. По словам Коломбатто, хотя большинство экспертов отрицают наличие у нынешних вариантов ИИ сознания, для людей вообще наличие сознания и разума у ботов — уже реальность.

В исследовании подчёркивается, что, хотя многие люди не оценивают и не понимают само понятие сознания в тех же категориях, что и учёные, стоит в любом случае принимать в расчёт тот факт, что большинство считает ботов уже разумными при их разработке и законодательном регулировании сферы ИИ.


Дискуссии о степени разумности ИИ не утихают уже не первый год даже среди экспертов. Один из наиболее известных примеров — один из бывших сотрудников Google Блейк Лемуан, которого уволили из компании после того, как тот публично заявил, что LLM LaMDA стала разумной и рассуждает о своих правах и личности.

На вопрос «Являешься ли ты разумным и обладаешь ли сознанием?» ChatGPT ответил буквально следующее: «Я не обладаю разумом или сознанием в том смысле, в каком их понимают люди. Я — это искусственный интеллект, созданный для обработки и генерации текста на основе огромного количества данных. Моя функция заключается в анализе и понимании текста, чтобы предоставить полезную информацию и отвечать на вопросы.

Разум и сознание включают в себя субъективный опыт, самосознание и способность к самостоятельному мышлению, что является характерным для живых существ, но не для компьютерных программ".

Конечно, расслабляться не стоит. В ответе больше всего смущает фраза «в том смысле, в каком их понимают люди». На всякий случай я не поленился сказать ChatGPT «спасибо» за консультацию.

Читайте также

Новости

Публикации