Anthropic обнаружила массовое извлечение данных из Claude китайскими ИИ-компаниями
Компания Anthropic 23 февраля 2026 года опубликовала в корпоративном блоге результаты внутреннего расследования, согласно которым три китайские компании — DeepSeek, MiniMax Group Inc. и Moonshot AI — систематически извлекали данные из моделей Claude для обучения собственных систем искусственного интеллекта.
По подсчётам Anthropic, в ходе операции было создано свыше 24 000 мошеннических аккаунтов и совершено более 16 миллионов транзакций. Наибольший объём взаимодействий пришёлся на MiniMax — более 13 миллионов запросов. DeepSeek провела свыше 150 000 обменов данными. Для маскировки реального местоположения и обхода региональных ограничений компании применяли прокси-сети, скрывающие IP-адреса пользователей.
Идентификация участников проводилась на основе анализа IP-адресов, метаданных аккаунтов и перекрёстной проверки с отраслевыми партнёрами, зафиксировавшими аналогичную активность на собственных платформах. Anthropic заявила, что установила причастность компаний с «высокой степенью достоверности».
Используемый метод — дистилляция — предполагает обучение компактной модели на выходных данных более мощной системы. Anthropic подчеркнула, что подобная практика в указанном масштабе нарушает условия предоставления услуг.
Публикация Anthropic последовала за аналогичными обвинениями со стороны OpenAI, которая ранее направила предупреждение американским законодателям о том, что DeepSeek применяла дистилляцию для воспроизведения возможностей американских моделей. Советник Белого дома по вопросам ИИ Дэвид Сакс также обозначил эту проблему как угрозу технологическому лидерству США.
Anthropic сообщила об усилении внутренних систем обнаружения и призвала к совместным действиям разработчиков ИИ, облачных провайдеров и регуляторов для противодействия подобным атакам.
Источник: Interestingeng Iineering





0 комментариев
Добавить комментарий