Исследование показало: ИИ делает нас увереннее, чем мы есть на самом деле
Ученые из Университета Аалто вместе с коллегами из Германии и Канады провели исследование, которое показало: использование систем искусственного интеллекта заметно искажает привычный эффект Даннинга-Крюгера: психологический принцип, описывающий ошибки в самооценке собственных способностей. Обычно люди с низкой подготовкой склонны переоценивать свои результаты, а более опытные — наоборот, занижать их. Однако при участии ИИ эта кривая практически выравнивается.
В исследовании приняли участие 500 добровольцев, которым предложили решить задания на логическое мышление, аналогичные вопросам вступительных экзаменов на юридический факультет. Половине участников разрешили пользоваться популярным чат-ботом. После выполнения тестов все должны были оценить собственную эффективность. Точная самооценка поощрялась дополнительным вознаграждением. Также испытуемых проверили на уровень грамотности в сфере ИИ.
Результаты оказались нетипичными для классического эффекта Даннинга-Крюгера. Независимо от уровня подготовки участники, пользовавшиеся ИИ, чаще завышали свою самооценку. Особенно выраженным это оказалось среди тех, кто лучше знаком с инструментами ИИ: такие пользователи сильнее доверяли полученным ответам и реже подвергали их критической проверке. По словам исследователей, это связано с «когнитивной разгрузкой»: снижением глубины самостоятельного анализа, когда человек принимает первое предложенное решение, не испытывая необходимости его дополнительно проверять.
Ученые отмечают, что благодаря использованию ИИ итоговые результаты у участников действительно улучшались, однако точность самооценки снижалась. Разница между сильными и слабыми участниками становилась меньше, поскольку почти все демонстрировали завышенную уверенность в себе. Авторы исследования предупреждают, что при дальнейшем распространении ИИ подобная тенденция может сказаться на навыках критического мышления. Один из предложенных подходов: корректировать работу ИИ так, чтобы система сама стимулировала пользователя к уточнению ответа, например, задавая вопросы о степени уверенности или предлагая проверить альтернативные варианты. Такой подход, по мнению исследователей, может помочь сохранить точность самооценки и предотвратить чрезмерное доверие к выводам ИИ.
Источник: Livescience





0 комментариев
Добавить комментарий