DeepSeek теряет лидерство в сфере AI на фоне проблем с новой ИИ-моделью DeepSeek 3.1

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Новость | ИИ, сервисы и приложения

Китайский ИИ-стартап DeepSeek, ещё недавно считавшийся одним из лидеров в гонке моделей с открытым исходным кодом, оказался в центре пристального внимания. Компания выпустила странный апдейт, который породил шквал слухов о внутренних проблемах, смене стратегии и потере рыночных позиций.

Всё началось с того, что DeepSeek без каких-либо публичных анонсов обновила свою флагманскую модель до версии V3.1, сообщив об этом лишь в закрытой группе для пользователей в WeChat. Теперь модель способна удерживать в памяти до 128 тысяч токенов — объём информации, сопоставимый с 300-страничной книгой, а также было заявлено «общее улучшение качества генерации». Примечательно, что ни на одной из своих официальных страниц в социальных сетях, включая аккаунт в X (соцсеть заблокирована в РФ), компания об этом не упомянула.

Автор: Matheus Bertelli (Pexels License) Источник: www.pexels.com

Ещё большее недоумение у пользователей вызвало другое изменение — из функции «глубокого мышления» в чат-боте DeepSeek исчезли все упоминания модели R1, специализирующейся на логических рассуждениях. Этот шаг немедленно спровоцировал волну спекуляций о судьбе ожидаемой модели следующего поколения — R2, — разработка которой, по всей видимости, столкнулась с трудностями.

Стартап, основанный предпринимателем Лян Вэньфэном, привлёк к себе мировое внимание после громких релизов V3 и R1, которые стали катализатором для внедрения open-source ИИ в Китае. Однако в последние месяцы компания начала терять позиции. Её доля на популярной облачной платформе PPIO, где в первом квартале она занимала более 99 % рынка, к июню упала более чем на четверть.

В то же время её обогнали модели семейства Qwen от технологического гиганта Alibaba, которые активно набирают популярность как у бизнеса, так и у рядовых пользователей. Одной из причин называют ограниченность DeepSeek — компания до сих пор предлагает только текстовые модели, в то время как конкуренты активно развивают мультимодальные и кодовые возможности.

Также эксперты отмечают, что альтернативные модели, включая Qwen 3 и Kimi от китайского стартапа MoonShot AI, превосходят DeepSeek даже в качестве генерации текстового контента — включая кодинг, аналитику и задачи, связанные с творческим писательством.

Даже вышедшее обновление V3.1 не исправило ситуации. Хотя независимые тесты, такие как Aider Benchmark, и признали его лучшим среди китайских аналогов для задач программирования, реальные пользователи остались недовольны. Так, китайский исследователь ИИ Лю Конг посетовал, что в плане логики модель не показала никакого прогресса. Другие пользователи и вовсе прямо указали на деградацию качества генерируемого текста.

Недавно издание Financial Times сообщило, что задержка с выпуском R2 может быть связана с трудностями при обучении на китайских чипах Ascend от Huawei. По данным источников, инженеры DeepSeek столкнулись с «постоянными техническими проблемами». Этот нарратив мог бы стать удобным объяснением, списав неудачи на санкции и вынужденное импортозамещение.

Однако реальность сложнее. Санкции и переход на отечественные чипы — вызов для всех китайских компаний, но это не помешало, например, той же Alibaba успешно обновить модель Qwen. Этот факт заставляет предположить, что проблемы DeepSeek могут лежать не столько в плоскости аппаратных ограничений, сколько в компетенциях самой команды.

В итоге, как отмечает издание South China Morning Post, «тихий апдейт» выглядит не как плановый релиз, а как попытка создать видимость бурной деятельности на фоне серьёзных трудностей. Сможет ли некогда передовой стартап справиться с внутренними проблемами и выдержать давление со стороны более успешных конкурентов — главный вопрос, на который пока нет ответа.

Источник: South China Morning Post

Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Наношу добро, причиняю пользу, благодарен за лайки и содержательные (дополняющие статьи) комментарии.

0 комментариев

Добавить комментарий

Сейчас на главной

Новости

Публикации

Детальное изучение мозга чемпиона по памяти раскрыло нейробиологию его трюков

Рабочая память человека имеет свои физиологические ограничения. Исторически в когнитивной психологии этот предел описывался формулой «семь плюс-минус два элемента». Вы можете легко удержать в...

Эффект странника: как навыки ориентации в пространстве породили у человека геометрическое мышление

Со времен Платона геометрия считалась высшим проявлением абстрактного мышления. В диалоге «Менон» философ просит необразованного мальчика-раба удвоить площадь квадрата — и тот, опираясь...

Каньон Антилопы: почему он самый извилистый и фотогеничный в мире

В Аризоне, на землях индейцев навахо, находится место, любимое фотографами со всего мира. Каньон Антилопы вы наверняка хоть раз видели на заставке своего компьютера. Microsoft вносила его виды в...

Почему кофе и чай бодрят: взгляд с точки зрения науки

Вы когда-нибудь замечали, что после чашки кофе фокусировка внимания резко обостряется, но уже через полчаса ясность мысли начинает неумолимо угасать? Эти «американские горки» связаны с конкретными...

Как гора выше Эвереста остаётся невидимой: 75% высоты Мауна-Кеа скрыто океаном

Говоря о горных вершинах, достигающих наибольших высот, невозможно не вспомнить об Эвересте. Эта гора возносится в небо на 8848 метров над уровнем моря, и этот рекорд закреплён в школьных учебниках...