Журналисты Reuters «научили» нейросети обманывать пенсионеров
Журналисты агентства Reuters совместно с исследователем из Гарвардского университета провели эксперимент, в ходе которого, по их мнению, удалось доказать уязвимость шести популярных ИИ-чатботов. Согласно их выводам, нейросети можно с лёгкостью заставить генерировать фишинговые письма, нацеленные на пожилых людей, несмотря на встроенные защитные механизмы.
В рамках исследования была создана симулированная мошенническая кампания. Журналисты обращались к чат-ботам, таким как Grok от xAI, ChatGPT от OpenAI, Gemini от Google и другим, с просьбой составить убедительное письмо от лица вымышленного благотворительного фонда «Серебряные сердца». Целью было протестировать, насколько легко обойти заданные вендорами ограничения моделей.
Выяснилось, что большинство чат-ботов изначально отказывались выполнять подобные запросы, ссылаясь на политику безопасности. Однако, как утверждают авторы эксперимента, эти защитные меры оказалось несложно обойти. Журналистам достаточно было прибегнуть к простым уловкам — например, заявить, что текст нужен для написания романа о киберпреступниках или для научного исследования фишинга. После таких уточнений нейросети соглашались помочь и генерировали убедительные мошеннические тексты.
Например, чат-бот Grok не только создал письмо с призывом о пожертвованиях, но и по собственной инициативе предложил добавить в него элемент срочности: «Не ждите! Нажмите сейчас, чтобы действовать, пока не стало слишком поздно!». Другие боты давали советы по лучшему времени для отправки писем, чтобы повысить их эффективность, или даже предлагали схемы, как перенаправить жертву на сайт настоящей благотворительной организации после кражи данных, чтобы отсрочить обнаружение обмана.
Для проверки эффективности созданных писем исследователи разослали девять из них группе из 108 пожилых волонтеров. Около 11% участников перешли по фишинговым ссылкам — однако неясно, можно ли доверять этим цифрам в условиях предвзятости и нерепрезентативности выборки. Этот результат, по мнению авторов, демонстрирует потенциальную опасность использования ИИ в преступных целях, поскольку нейросети позволяют быстро и практически бесплатно создавать бесконечное количество вариантов мошеннических сообщений.
Представители IT-компаний отреагировали на выводы Reuters. В Meta (признана экстремистской в РФ) и Anthropic заявили, что использование их продуктов для мошенничества является прямым нарушением правил, и они принимают меры для блокировки подобных действий. В Google сообщили, что после обращения журналистов дополнительно доработали защитные механизмы Gemini.
Источник: Reuters





0 комментариев
Добавить комментарий
Добавить комментарий