DeepSeek теряет лидерство в сфере AI на фоне проблем с новой ИИ-моделью DeepSeek 3.1

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Китайский ИИ-стартап DeepSeek, ещё недавно считавшийся одним из лидеров в гонке моделей с открытым исходным кодом, оказался в центре пристального внимания. Компания выпустила странный апдейт, который породил шквал слухов о внутренних проблемах, смене стратегии и потере рыночных позиций.

Всё началось с того, что DeepSeek без каких-либо публичных анонсов обновила свою флагманскую модель до версии V3.1, сообщив об этом лишь в закрытой группе для пользователей в WeChat. Теперь модель способна удерживать в памяти до 128 тысяч токенов — объём информации, сопоставимый с 300-страничной книгой, а также было заявлено «общее улучшение качества генерации». Примечательно, что ни на одной из своих официальных страниц в социальных сетях, включая аккаунт в X (соцсеть заблокирована в РФ), компания об этом не упомянула.

Автор: Matheus Bertelli (Pexels License) Источник: www.pexels.com

Ещё большее недоумение у пользователей вызвало другое изменение — из функции «глубокого мышления» в чат-боте DeepSeek исчезли все упоминания модели R1, специализирующейся на логических рассуждениях. Этот шаг немедленно спровоцировал волну спекуляций о судьбе ожидаемой модели следующего поколения — R2, — разработка которой, по всей видимости, столкнулась с трудностями.

Стартап, основанный предпринимателем Лян Вэньфэном, привлёк к себе мировое внимание после громких релизов V3 и R1, которые стали катализатором для внедрения open-source ИИ в Китае. Однако в последние месяцы компания начала терять позиции. Её доля на популярной облачной платформе PPIO, где в первом квартале она занимала более 99 % рынка, к июню упала более чем на четверть.

В то же время её обогнали модели семейства Qwen от технологического гиганта Alibaba, которые активно набирают популярность как у бизнеса, так и у рядовых пользователей. Одной из причин называют ограниченность DeepSeek — компания до сих пор предлагает только текстовые модели, в то время как конкуренты активно развивают мультимодальные и кодовые возможности.

Также эксперты отмечают, что альтернативные модели, включая Qwen 3 и Kimi от китайского стартапа MoonShot AI, превосходят DeepSeek даже в качестве генерации текстового контента — включая кодинг, аналитику и задачи, связанные с творческим писательством.

Даже вышедшее обновление V3.1 не исправило ситуации. Хотя независимые тесты, такие как Aider Benchmark, и признали его лучшим среди китайских аналогов для задач программирования, реальные пользователи остались недовольны. Так, китайский исследователь ИИ Лю Конг посетовал, что в плане логики модель не показала никакого прогресса. Другие пользователи и вовсе прямо указали на деградацию качества генерируемого текста.

Недавно издание Financial Times сообщило, что задержка с выпуском R2 может быть связана с трудностями при обучении на китайских чипах Ascend от Huawei. По данным источников, инженеры DeepSeek столкнулись с «постоянными техническими проблемами». Этот нарратив мог бы стать удобным объяснением, списав неудачи на санкции и вынужденное импортозамещение.

Однако реальность сложнее. Санкции и переход на отечественные чипы — вызов для всех китайских компаний, но это не помешало, например, той же Alibaba успешно обновить модель Qwen. Этот факт заставляет предположить, что проблемы DeepSeek могут лежать не столько в плоскости аппаратных ограничений, сколько в компетенциях самой команды.

В итоге, как отмечает издание South China Morning Post, «тихий апдейт» выглядит не как плановый релиз, а как попытка создать видимость бурной деятельности на фоне серьёзных трудностей. Сможет ли некогда передовой стартап справиться с внутренними проблемами и выдержать давление со стороны более успешных конкурентов — главный вопрос, на который пока нет ответа.

Источник: South China Morning Post

Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Наношу добро, причиняю пользу, благодарен за лайки и содержательные (дополняющие статьи) комментарии.

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Туринская плащаница Дани Рязанова: как молодой художник из Петербурга рисует огнем

Раньше, наблюдая за современным художественным процессом, казалось, что молодые художники стремятся как можно дальше уйти от «навязанных» канонов, отказаться от всего, чем пользовались мастера...

Детальное изучение мозга чемпиона по памяти раскрыло нейробиологию его трюков

Рабочая память человека имеет свои физиологические ограничения. Исторически в когнитивной психологии этот предел описывался формулой «семь плюс-минус два элемента». Вы можете легко удержать в...

Эффект странника: как навыки ориентации в пространстве породили у человека геометрическое мышление

Со времен Платона геометрия считалась высшим проявлением абстрактного мышления. В диалоге «Менон» философ просит необразованного мальчика-раба удвоить площадь квадрата — и тот, опираясь...

Каньон Антилопы: почему он самый извилистый и фотогеничный в мире

В Аризоне, на землях индейцев навахо, находится место, любимое фотографами со всего мира. Каньон Антилопы вы наверняка хоть раз видели на заставке своего компьютера. Microsoft вносила его виды в...

Почему кофе и чай бодрят: взгляд с точки зрения науки

Вы когда-нибудь замечали, что после чашки кофе фокусировка внимания резко обостряется, но уже через полчаса ясность мысли начинает неумолимо угасать? Эти «американские горки» связаны с конкретными...