Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Тут акцентировали на восьмиядернике, а не старших моделях. Что старые X3D на 12-16 ядер, что обычные 9900X/9950X напрочь отключают второй CCD в играх, так как задержка передачи данных между ядрами отдельных кристаллов на порядок выше чем в пределах одного. Для софта это меньшая проблема, но и там у 9950X буст при загрузке физических ядер где-то на 100 МГц ниже предшественника, а на все 32 потока на все 300 МГц.
https://3dnews.ru/assets/external/illustrations/2024/09/25/1111536/frequency.png
avatar
APU в современных ноутбуках при простом серфинге/офисной работе/просмотре видео спокойно могут опускать теплопакет до 5 ватт и ниже, в полу-пассивном режиме нет ничего странного. Но для чего-то большего не будет хватать площади рассеивания радиатора(он банально оптимизирован на продувку, нагреваемые элементы СО вроде тепловых трубок и пластин не справляются) относительно скорости перегрева крошечного кристалла, он уйдет в сброс частоты и троттлинг.
.
Если специально заморочиться созданием тепловой камеры-радиатора на половину площади основы ноутбука(заодно будет отводить тепло от цепей питания и ОЗУ) и сделать конвекционные щели под экраном в духе Macbook Air на M-ках, то в принципе можно и без гибридки поднять теплопакет до 15-20 ватт, но при долгой нагрузке уже могут быть вопросы к нагреву батареи(это значительно ускорит износ) и днища ноутбука(до свидания использованию на коленях), ровно как у тех самых эйров при использовании мода, когда добавляли термопрокладки для отвода тепла на алюминиевое днище ноутбука. Подобные модели без турбин изредка выпускали, но там обычно дальше 10 Вт не заходило, если не считать кратковременный буст до перегрева.
avatar
Всему есть простое объяснение — в то время как нормальные бренды отказались от подобных экранов, производители выпустили их в довольно неприличных количествах и готовы демпинговать, лишь бы они не залеживались на складах. Оттого подвальные и полуподвальные бренды и запустили фиктивный ренессанс «водопадов», им банально гроша не стоит продвигать это как маркетинговую фичу, которая не уперлась здоровому человеку, тем более за оверпрайс.
avatar
«Водопады» как нежить G99(в G100 вроде как лишь добавили поддержку 200 МП камер, возможно вообще софтово и со старым кристаллом, для 50 МП датчика он тут подавно бесполезен) и прочие древние Медиатеки, пока пылятся на складах, на них продолжат клепать мусор за 200+$. Переплата по железу конская за такую начинку, Transsion все никак не уймутся наступать на одни грабли под разным углом который год.
avatar
Zen 5c доросли, теперь осталось дождаться запуска в производство CCD с 16 полноразмерными ядрами, тогда они могут добраться в следующее поколение/рефреш десктопных процессоров вкупе с нормальным IOD-ом, где появится возможность выпуска X3D-версий без провалов производительности/отключения половины ядер(так ведут себя 9900X/9950X в играх, обмен данными между CCD имеет дикую задержку для такого рода задач). При желании можно даже выпустить не слишком дорогой(на фоне сборки с Threadripper) гибрид c разнородными CCD вплоть до 32 ядер, либо с частично битыми «большими» CCD.
avatar
Не ноутбуков, а заторможенных ультрабуков. Нагрев в разумных пределах будет только при ограничении теплопакета ватт так до 15, особенно летом, для чего-то большего нужна активная СО или гибрид на чем-то вроде ультразвуковых мембран Frore AirJet.
avatar
Хорош, но процессор нужно брать попроще(все равно работает чуть ли не на треть мощности) и с одним слотом SSD при такой цене там давно напрашивается установка из коробки 2-3 ТБ, да и как умудряются не присобачить кардридер размером с ноготь…
avatar
Просто наплодили уже такой зоопарк с P(performance)/E(efficient)/V(virtual) ядрами, что у софта и костылей для парковки задач давно уже уехала крыша от этого балагана, из-за чего проседает или скачет туда-сюда производительность, плюс опять же жор и троттлинг от перегрева.
.
HT/SMT ок для профессиональных пакетов с возможностью утопить процессор в рендеринге/расчетах, но как дело доходит до стабильной парковки средненького процесса строго на «толстые» физические ядра, да так чтобы туда не лезли системные и фоновые задачи(их давно нужно форсить на мелочь) и он сам не спрыгивал на дохлую клячу, то начинается ад и погибель.
avatar
Только при трансляции текста/голосовых сообщений в отборную матерщину.
avatar
Для 2К карта за 70к тоже не особо-то и нужна, да и там с очумелыми ручками мифических оптимизаторов 12 ГБ будет все чаще не хватать, что приведет к статтерам даже при сносном фреймрейте, когда видеочип еще вывозит, но задыхается о мелкий видеобуфер. Оттого важнее иметь нормальный видеочип/шину И 16 ГБ, если RTX 5070 такая горбатая c потенциальными 80к, одна надежда что RDNA 4 в RX 8800 XT для этой ниши будут повкуснее, но при сливе обещанного буста в лучах или задранной цене получится примерно та же муть с нормальными 16 ГБ памяти(но видимо GGDR6) и чуть проблемнее для рабочих пакетов и нейронок.
.
Отдельно «понравился» момент с полным затишьем по поводу видеопамяти GDDR7 на 24 ГБит, 3 ГБ на кристалл как в современных DDR5 — одно время кричали, что она выйдет и будет использоваться, такая память решит проблему днища вроде поделок от жабы в куртке с 12 ГБ видеобуфером при 192 битах(он станет 18 ГБ), но в последних сливах о ней уже ни слова. 12 ГБ в современных реалиях это уже ниша для стабильного гейминга в обычном/широкоформатном 1080p и видеокарт до 400$, при спотовых ценах GDDR6 такого объема в районе 27$(2,289$/ГБ) смешно так экономить в более дорогих решениях(пусть новая память и подороже на старте), им тупо нечего делать в среднем сегменте видеокарт.
avatar
Двоякость графиков конечно умиляет, маркетологи не зря едят свой хлеб — с одной стороны при удержании производительности на уровне точь в точь с прошлым поколением(грубо говоря в играх с лимитированием фреймрейта до 60/120 fps и приложениях с малыми требованиями к вычислениям) энергоэффективность конечно же присутствует, довольно очевидная выгода от перехода на более тонкий техпроцесс, с другой же при достижении пиковой производительности(прожорливые приложения вроде эмуляторов) как для топовой SoC конца 2024-начала 2025 года налицо печка с лишь чуть меньшим(упор 120 fps в Ацтеке 1440р) или наоборот на ~2.4-4 Вт большим энергопотреблением в Гикбенче 6, ну такое и еще вопрос, как это дело будет выглядеть на фоне 3 нм Снапа.
.
То бишь если резать новой SoC лимит мощности при некотором «разгоне», привет сценарию Snapdragon 8 Plus Gen 1 версус обычный, то платформа суперская, но вот как топ на все бабки и ватты это уже огонь не в лучшем понимании этого слова.
avatar
А это, детектив, правильный вопрос.
avatar
Чак будет вручать не черный пояс, а черные ботинки с металлическими носками, на одном будет выштамповано слово «Закон», а на втором «Порядок».
avatar
Слишком просто, New Game+, Show Must Go On Until Quadrillion xD
Продолжающий работать счетчик баллов как бы намекает на безграничные возможности для подгорания седалища потенциального рекордсмена, даже если забыть о багфиксе крашей игры, еще остается скорость, убойная цветовая палитра уровней и банальная усталость. Тут еще забыли упомянуть прикол 235-го уровня, который сожрал четверть рекордного времени, так как вместо 10 линий там приходится зачищать 810 линий.
avatar
Еще пару лет назад в нормальных базовых(ниже которых лучше не ковыряться, если позволяет бюджет) видеокартах 10-12 ГБ были ок, пока не начали травить байку «8 ГБ/128 бит/8 линий PCIe хватит всем». Для карты же с производительностью на уровне или чуть выше RTX 4080 с каким-никаким потенциалом в 4К да под игры на новых движках 12 ГБ тот еще бред, особенно на фоне выпуска «правильной» RTX 4070 Ti Super. Если куртка второе поколение подряд задерет ценник на очередную сотню, будет и того бредовее, это уже уровень RTX 3080.
avatar
Мало чем отличается от упоротости BMW с установкой кресел с подогревом в базе(тупо дешевле производить только такие, чем городить две сборочные линии или заказывать вариации мелким оптом), чтобы потом за это еще не раз доплачивать. Как будто они сомневаются, что у пользователя нет своей системы «подогрева» на такой лохотрон.
avatar
Да конечно, если только брать самые первые ревизии. Это технологии, которым для нормальной работы нужна идеальная синхронизация по распределению между GPU рендеринга(есть расчеты, а уже из них готовые картинки) покадрово/шахматной плиткой или еще на какой вкус и цвет, в идеале и вовсе нужен общий видеобуфер, чего до прихода чиплетов реализовать не представляло возможности. Если шина не справляется с нагрузкой, то приличное количество кадров рендерятся слишком рано или поздно, частично или полностью уходя в брак и не выводиться на экран(чем их больше, тем меньше прирост fps к теоретическому n-кратному), как вариант картинка рассыпается или из-за микрофризов плавность воспринимается не особо лучше чем при использовании одиночной видеокарты, потому CF/SLI не стоили переплаты за дополнительные видеокарты.
.
Обычный проприетарный интерфейс или использования системной шины PCIe старых версий для этого не особо подходили — качество графики в играх росло заметно быстрее, чем улучшались интерфейсы, в итоге штраф за «промахи» рендеринга лишь увеличивался, не то что на заре зарождения дискретных видеокарт, когда мульти-GPU монстры чего-то там могли. В современных чиплетах столь существенного провала между софтом и железом уже нет, возможность использования выделенной шины в сотни ГБ/с и на порядки меньшими задержками на промежуточной подложке вполне себе позволяют минимизировать эффект бутылочного горлышка между отдельными GPU. AMD подобным образом подвязывает в топовых GPU контроллеры памяти с кешем(до этого еще существовали костыли, когда подобный чиплет подвязывал HBM-память к GPU, в которых был лишь контроллер GDDR), а уже через них подключен видеобуфер, просадка в сравнении с использованием одиночного кристалла конечно же будет, но это было сделано для упрощения дизайна и удешевления.
avatar
CF/SLI были мутью из-за излишне низкой ПСП шины и высоких задержек, особенно ввиду подключаемого дизайна вместо перманентной шины с минимальной длиной дорожек и наводками, распаивать два GPU на одну плату тоже не прокатывало. В чиплетных склейках с этим заметно меньше проблем, особенно если допилить до ума и использовать для работы. Топовые GPU для ИИ как бы уже в виде склеек, поди это дело скоро дойдет и до игровых моделей.
avatar
Сначала не понял, что за зверь этот процессор, но по адскому провалу теста автономности таки вспомнил о линейке APU с битой встройкой(терпимо для десктопов, трэш для ноутбуков), с постоянно включенной дискретной видеокартой чего-то другого ждать не приходится. При установке второй планки ОЗУ станет вполне себе ок, а так проведение тестов в одноканале как обычно умиляет, оно тут число для справки о состоянии сабжа из коробки.
avatar