ИИ догоняют человека в понимании текста и настроений – показывают исследования

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Новые исследования показывают, что крупные языковые модели (LLM), такие как GPT-4, Gemini, Llama-3.1-70B и Mixtral 8x7B, становятся почти такими же искусными, как люди, в распознавании сложных нюансов текста. Речь идёт о способности понимать скрытый подтекст, эмоции, политические взгляды и даже сарказм.

Сгенерированно нейросетью Freepik
Автор: Freepik

В ходе недавнего исследования, где анализировалось около 100 текстовых фрагментов с участием 33 добровольцев, выяснилось, что LLM способны практически наравне с людьми анализировать настроения (положительные или отрицательные оттенки), политические взгляды, эмоции и сарказм. Более того, GPT-4 проявил себя даже более последовательным, чем люди, в определении политических взглядов. Он также продемонстрировал умение улавливать эмоциональную окраску текста, различая, например, был ли автор раздражён или глубоко возмущён. Наибольшие трудности как для LLM, так и для людей, составило распознавание сарказма. Понимание таких тонкостей, как сила эмоций или наличие сарказма в тексте, имеет огромное значение для различных сфер: от поддержания психического здоровья и улучшения обслуживания клиентов до обеспечения безопасности. Использование LLM может значительно сократить время и стоимость анализа огромных объёмов текстовой информации. Это открывает двери для более быстрых и оперативных социологических исследований, которые обычно занимают месяцы. Возможность мгновенного анализа текстовых данных особенно важна во время кризисов, выборов или чрезвычайных ситуаций. Инструменты на базе GPT-4 могут помочь журналистам-расследователям и специалистам по проверке фактов, автоматически отмечая эмоционально окрашенные или политически предвзятые посты.

Однако, несмотря на впечатляющие успехи, прозрачность, справедливость, беспристрастность и политические взгляды всё ещё остаются вызовом для ИИ. Тем не менее, в понимании и анализе текстов большие языковые модели быстро догоняют людей. Будущие исследования должны будут сосредоточиться на систематическом и тщательном анализе стабильности исходных данных, на которых обучаются модели ИИ, чтобы гарантировать их надёжность и объективность.

Источник: theconversation

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Паводок и половодье: основные различия и причины возникновения

Весна время большой воды. Понятия «паводок» и «половодье» часто путают, хотя это разные гидрологические явления. Разберём их суть, отличия и особенности ниже. Автор: Heavylift Источник:...

Обзор блока питания PCCooler YS1200 – что происходит с напряжением и пульсациями

PCCooler YS1200 — блок питания на 1200 Вт под мощные сборки. Есть поддержка ATX 3.1 и отдельный кабель 12V-2x6 для видеокарт. По характеристикам все выглядит как нужно, но такие вещи...

Как Huawei показала, что может быть альтернативой Samsung и Apple: смартфону Huawei P9 — десять лет

В наши дни между крупными китайскими компаниями и «выжившими» A-брендами (Apple и Samsung) уже давно нет чёткой грани, однако десять лет назад ситуация воспринималась по-другому. Рынок делился на...

Большой поту: птица, которая видит с закрытыми глазами

В густых тропиках Центральной и Южной Америки обитает птица большой поту (исполинский козодой). Эту пернатую часто называют «птицей-пнём» за её невероятную способность сливаться с природной средой....

Есть ли срок годности у поваренной соли и как её хранить

Мы привыкли видеть даты производства и сроки годности буквально на всём: от пакета молока, который скиснет через неделю, до рыбных консервов, способных, казалось бы, пережить ядерную зиму....