ИИ догоняют человека в понимании текста и настроений – показывают исследования
Новые исследования показывают, что крупные языковые модели (LLM), такие как GPT-4, Gemini, Llama-3.1-70B и Mixtral 8x7B, становятся почти такими же искусными, как люди, в распознавании сложных нюансов текста. Речь идёт о способности понимать скрытый подтекст, эмоции, политические взгляды и даже сарказм.
В ходе недавнего исследования, где анализировалось около 100 текстовых фрагментов с участием 33 добровольцев, выяснилось, что LLM способны практически наравне с людьми анализировать настроения (положительные или отрицательные оттенки), политические взгляды, эмоции и сарказм. Более того, GPT-4 проявил себя даже более последовательным, чем люди, в определении политических взглядов. Он также продемонстрировал умение улавливать эмоциональную окраску текста, различая, например, был ли автор раздражён или глубоко возмущён. Наибольшие трудности как для LLM, так и для людей, составило распознавание сарказма. Понимание таких тонкостей, как сила эмоций или наличие сарказма в тексте, имеет огромное значение для различных сфер: от поддержания психического здоровья и улучшения обслуживания клиентов до обеспечения безопасности. Использование LLM может значительно сократить время и стоимость анализа огромных объёмов текстовой информации. Это открывает двери для более быстрых и оперативных социологических исследований, которые обычно занимают месяцы. Возможность мгновенного анализа текстовых данных особенно важна во время кризисов, выборов или чрезвычайных ситуаций. Инструменты на базе GPT-4 могут помочь журналистам-расследователям и специалистам по проверке фактов, автоматически отмечая эмоционально окрашенные или политически предвзятые посты.
Однако, несмотря на впечатляющие успехи, прозрачность, справедливость, беспристрастность и политические взгляды всё ещё остаются вызовом для ИИ. Тем не менее, в понимании и анализе текстов большие языковые модели быстро догоняют людей. Будущие исследования должны будут сосредоточиться на систематическом и тщательном анализе стабильности исходных данных, на которых обучаются модели ИИ, чтобы гарантировать их надёжность и объективность.
Источник: theconversation





0 комментариев
Добавить комментарий