ИИ начал «глупеть» из-за социальных сетей
Учёные из трёх американских университетов в Техассе и Пердью обнаружили тревожный эффект: искусственный интеллект начинает терять способность к логическому мышлению, если обучается на типичном контенте из социальных сетей. По сути, нейросети начинают перенимать поверхностность и хаотичность человеческого онлайн-потока, где главным становится внимание, а не смысл.
Чтобы проверить это, исследователи подготовили два набора данных из платформы X (бывший Twitter). В первом собрались вирусные публикации, эмоциональные комментарии и посты, созданные ради лайков. Второй набор состоял из взвешенных, нейтральных текстов без лишнего шума. После обучения модели Llama 3 и Qwen на первой выборке начали «спотыкаться» — путали факты, теряли логику рассуждений и хуже удерживали длинные контексты. Даже повторная тренировка на качественных данных не помогла вернуть прежний уровень. Исследователи назвали этот эффект «когнитивным шрамом».
По словам авторов, это сродни тому, как человек, постоянно потребляющий бессмысленный поток видео и мемов, со временем теряет способность глубоко анализировать. Учёные предложили новое понятие — «когнитивная гигиена искусственного интеллекта», подразумевающее строгий контроль за тем, на каком материале обучаются нейросети. В противном случае, предупреждают они, ИИ будущего может унаследовать ту же поверхностность мышления, которую породил сам интернет.
Источник: rbc





0 комментариев
Добавить комментарий
Добавить комментарий