Негативные последствия ChatGPT: что такое сети ИИ-ботов и какую угрозу они несут
С появлением ChatGPT открылись многие возможности для упрощения работы в разных сферах. Программисты могут быстрее писать код, журналисты создавать контент, дизайнеры создавать рисунки. Однако наряду с этими появились и негативные последствия. В частности, засорение социальных медиа спам-ботами и контентом, созданным искусственным интеллектом, что приводит к сильному ухудшению качества информации в интернете.

Новое исследование, опубликованное в прошлом месяце исследователями Обсерватории социальных медиа Индианского университета, подробно описывает, как злоумышленники используют возможности чатбота ChatGPT от OpenAI. Исследование, проведенное Кай-Чэн Янгом, исследователем по вычислительным социальным наукам, и Филиппо Менцером, профессором компьютерных наук, обнаружило, что способность ChatGPT генерировать авторитетно выглядящий текст используется для запуска «ИИ-ботов» на X, бывшем Twitter.
Что такое сеть ИИ-ботов
Сети ИИ-ботов — это сети из сотен вредоносных ботов и спам-кампаний в социальных медиа, которые могут оставаться незамеченными текущими антиспам-фильтрами. Они используются для многих целей, например, для продвижения мошеннических схем с криптовалютами и NFT. Бот-аккаунты пытаются убедить людей инвестировать в поддельные криптовалюты и даже могут воровать из их существующих криптокошельков.
Сеть, которую обнаружили Янг и Менцер на X, насчитывала более 1000 активных ботов. Боты следовали друг за другом и отвечали на посты друг друга выводами ChatGPT, часто публикуя украденные из человеческих профилей селфи для создания фейковых персон.
Возникновение социальных медиа предоставило злоумышленникам дешевый способ достичь большой аудитории и монетизировать ложный или вводящий в заблуждение контент, сказал Менцер. Новые инструменты искусственного интеллекта «еще больше снижают затраты на генерацию ложного, но достоверно выглядящего контента в масштабе, подрывая защиту модерации платформ социальных медиа», — сказал он.
В последние несколько лет социальные медиа боты — аккаунты, которыми полностью или частично управляет программное обеспечение — регулярно использовались для усиления дезинформации о событиях, начиная от выборов и заканчивая общественными кризисами, такими как COVID. Такие боты можно было легко выявить из-за их роботизированного поведения и непересекающихся фейковых персон. Однако инструменты генеративного искусственного интеллекта, такие как ChatGPT, создают человекоподобный текст и медиа за считанные секунды.
Такие ИИ-боты в сети, обнаруженной исследователями, в основном публиковали посты о мошеннических криптовалютных и NFT-кампаниях и продвигали подозрительные веб-сайты по подобным темам, вероятно, также написанные с использованием ChatGPT, гласит исследование.
Целые веб-сайты могут состоять из искусственно сгенерированной дезинформации
Помимо социальных медиа, инструменты, аналогичные ChatGPT, породили множество спамных общих новостных веб-сайтов, многие из которых публикуют откровенные фейки. NewsGuard, частная компания, которая оценивает надежность новостных и информационных веб-сайтов, уже обнаружила более 400 подобных порталов, созданных с помощью искусственного интеллекта.
Эти веб-сайты генерируют рекламные доходы от автоматизированной технологии размещения рекламы, которая покупает место для рекламы на веб-сайтах независимо от их качества или характера.
Источник: https://www.businessinsider.com/
2 комментария
Добавить комментарий
Ножом можно разделывать полезные фрукты, а можно и убить. Даже тем самым ножом, у которого скругленное лезвие. И что ж теперь — от всех ножей избавится.
Тут проблема не в машинах, это тупо инструменты. Проблема в людях. Просто надо избавиться от всех плохих. :) Шутка.
Добавить комментарий