Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
В первозданном виде его тут явно не будет и нужно смотреть в сторону неттопов, ноутбуков и возможно моноблоков. В десктопах нормой являются 2 канала памяти(тут 4) и вряд ли что-то поменяется, в AM6 вдобавок могут забросить совместимость с DDR5. Сценарий появления Strix Halo на AM5 выглядит как-то так — IOD со встройкой вышел с дефектными 1-2 каналами памяти, но все остальное более-менее живое, тогда ему заказан путь в BGA-распайку(хотя может чего и придумают) и можно сделать LGA-версию.
.
Проблема такого подхода в том, что даже в базе с четырьмя каналами LPDDR5X-8000 на встройку выделяется раза в полтора более узкая шина памяти чем у RX 7600, а на десктопной МП разница получится вообще трехкратной. При сохранении 32-40 CU скорее всего это дело будет где-то на уровне RTX 3050 8 GB(может и в промежутке с ней и 6 ГБ кастратом), но раза в 1.5 слабее своей мобильной версии, и это если использовалась топовая ОЗУ с хорошим разгоном.
avatar
Проще было сказать, что это обычная десктопная чиплетная компоновка, причем она и раньше встречалась в некоторых ноутбуках(из интересных разве что версии с 12/16 ядрами. бывали и X3D). Разве что тут IOD без дохлой Radeon 610M(в которой в 20(!) раз меньше блоков и они RDNA 2.0 вместо 3.5) и с нормальным контроллером памяти, у которого еще и вдвое больше каналов. В нормальном виде APU чисто под распайку, хотя при накоплении брака с битыми контролерами памяти могут выпустить и под AM5, только из-за нехватки ПСП он станет не столь интересным.
avatar
Их когда-то заказывали с доставкой в районе 15-20к и растаможки еще не было, впрочем такое вложение средств особо оправданным не выглядело ввиду еще более веселых драйверов. С нынешними ценами и подавно проще взять что-то красное/зеленое/синее(RGB-рейнджеры однако) локально, все равно тут будут шаманить еще лет пять до условного уровня Intel Arc.
avatar
До этапа упаковки на подложку уже есть определенное представление о состоянии кристалла, после чего его могут упаковать и погонять в быстросборном тестовом сокете специальной промышленной платы(с прижимом без распайки в духе LGA-процессоров, так же делают с чипами памяти на заводах Micron/Samsung и т.д.), определяя стабильность живых блоков/каналов памяти и частотный потенциал, окончательно (пере)определяя конечные характеристики и маркировку в случае промаха. Сложно поверить в незнание о потере ROP-ов, и в то же время это все еще могут быть нормальные GPU без неожиданных аппаратных косяков, которые не полностью активированы ввиду использования сырой версии BIOS с неправильно заданными параметрами. Что так, что эдак это халтура и налюбилово, так как это либо ляп из-за терок с производителями карт переж уходом поезда(куртка давно любит давать им техническую документацию чуть ли не за месяц до релиза, те могут не успеть допилить железо до нормального состояния), либо пытались сплавить брак в «дешевые» модели, но на кой тогда сразу не сплавили их под 5090D(в 4090D для китайцев чип был подрезан относительно глобальной модели, там бы поплевались и забили)…
avatar
«игровая производительность страдает незначительно» — выедает чуть ли не под треть от мега-буста 4090>5090 у кастрированной карты против нормальной с хорошим разгонным потенциалом, о да, немного. Для 5070 Ti вкупе с еще более ущербным обновлением относительно реального предшественника 4070 Ti Super и меньшим количеством ROP-ов=большим влиянием от потери 8 штук(с 96 до 88, ~9%) разница видимо и вовсе будет походить на разброс прогона бенчмарка на старой карте.
avatar
Ага, за 300$ в реальном ретейле при производительности в лучшем случае на уровне RTX 4060, и в том же ключе в версиях для ноутбуков схожего ценового диапазона. Новая линейка куртки это какая-то несмешная шутка про те же фпсы/$ и стагнацию видеобуфера спустя годы, когда все ждут снижения закономерного снижения стоимости кадра, а игры тут и там пробивают планку в 8/12 ГБ в 1080p и 2К, да и 4К местами доходит до 15 ГБ в стоке(если извращаться с модами и текстур-паками с ИИ-апскейлом или полной заменой, можно вылезти и за недавний лимит в 24 ГБ).
avatar
То значит, что он дешевле, а сорта г выпускать Apple умудряется выпускать стабильно, а не просто не делает.
avatar
Этот позор еще кое-как бы зашел при рабочей MSRP и 24 ГБ памяти(как на мобильной вариации с +10 к названию), а так только и остается что хвалиться большим количеством фейкокадров, побыстрее бы уже тот ИИ-пузырь лопнул. Пока AMD и Intel не родят чего адекватного с меньшим ценником, куртка продолжит выпускать ахинею с минимальным ростом производительности, минимумом запаса по видеобуферу и нестабильными ценами/поставками.
avatar
За вычетом софта остаются проблемы с точки зрения себестоимости производства(по MSRP карт и их схемотехнике несложно догадаться, что маржа Intel на дискретках прилично ниже чем у куртки с племянницей) и эффективности архитектур — кушают довольно много, кристалл для своей рыночной ниши дороговат ввиду размера, соответственно производительность на ватт и кв.мм кремния отстает на 1.5-2 поколения. Если выйдет какая-нибудь печка для конкуренции с RTX 6080(допустим 3 нм, 400 кв.мм и 350-400 Вт), то на своем условном техпроцессе 18А можно ожидать жора под 600 Вт и размер кристалла 600-650 кв.мм, то есть сабж устремится в зону дискомфорта абсолютных топов(проблемы с подводом питания и необходимости покупать зверский БП, жор/шум/размер видеокарты, стоимость сборки карты для производителя), а не старших моделей для массового потребителя(RTX xx70/xx70 Ti/xx80 и аналоги).
avatar
Несложно быть получше того, что в Китае стоит раза в 2-3 раза дешевле и считается там корытом для студента на 2-3 года до отправки в утиль, сравнивайте одинаковый ценовой сегмент на местах.
avatar
В 2 нм в плане возможности/доступности/себестоимости производства еще тогда было сложно поверить, так как выпускать процессоры на честных 3 нм не особо хуже(разницу между 5 и 4 нм в Zen 4/5 массовый потребитель особо не ощутил) и дешевле, да и задержка на год-полтора из-за перегрузки производственной линии мусором для Apple приводит к тому, что 2 нм недоступны для серийного производства(зато можно хорошо обкатать инженерники) и их использование проще заложить в дизайне Zen 7. Второй момент, увеличивать количество ядер в 1.5 раза надежнее рывка в удвоение в плане количества брака, даже если его в какой-то степени можно спустить под выпуск младших моделей и средних склеек — кристаллы с 16 ядрами AMD уже выпускала, но для серверов и с компактной ревизией Zen 5c, которые вышли не критично больше восьмиядерного CCD. К тому же 32 ядра с SMT для десктопа с двухканальной DDR5(плюс с учетом как она работает в чиплетах да с привычкой AMD экономить на IOD-e) сомнительная затея в плане масштабируемости(может не хватать ПСП) и максимальных частот при разумном теплопакете — при типичных для шестнадцатиядерников 200-250 Вт сабж будет слабо буститься и по сути получится серверная модель, тут нужны еще +100 Вт, что зайдет не всем.
avatar
Если уж так копать, то это шринк 12 нм G96 из 2021-го c 5G и парой твиков, что впрочем мало чего изменило из-за старых архитектур процессора(2017/2018) и графики(2019), попугаи так и застряли в районе 400к. Что-то более актуальное в этом сегменте выпускать не хотят, но вполне можно найти смартфоны на старших SoC в схожем ценовом диапазоне без этих виртуальных понтов «а у меня свежая затычка», разве что вопрос в количестве апдейтов ОС на таком залежалом товаре, и будут ли те вообще.
avatar
Забыли еще сказать, что продавали налево в 2-3 раза дешевле локальных цен.
avatar
10 лет назад в топовых конфигах лепили 2-4 видеокарты и жарило это добро не особо меньше(парочка 3090 Ti и вовсе могут долбить за киловатт), но на деле было полной мутью из-за статтеров и такого себе минимального фреймрейта, так что теплопакет одиночной карты не показатель. Про удешевление видеокарт нижнего сегмента можно особо не задумываться, так как если не играть сугубо в старые проекты(впрочем они обычно лучше всей той шляпы, что сейчас выходит под видом ААА/АААА) или на низком разрешении(720p или с мылом на производительности с 360р нативом), то они к тому времени станут антиквариатом в актуальных играх из-за малого количества видеопамяти и шикарного уровня оптимизации.
avatar
На фоне пунктика с РОС/РУС подобная шутка столь плоская, что пускает блики в глаза и охота сделать фейспалм для их защиты.
avatar
Если бы это выделяли заглавными и писали как USA, то можно было в это поверить, а так к обычной части слов приписали какую-то ахинею.
avatar
Если там хоть 250 Вт на двоих, уже хорошо, но и шума будет огого. Киловатта там нет, так как процессор бустится ватт до 100, а видеокарта является подрезанной по блокам десктопной 5080 с теплопакетом до ~175 Вт, только там куртка забыл зажать память и её там 24 ГБ на 3 ГБ чипах(чего пока больше нигде нет, хотя были слухи и 5060/Ti без нее будут мертворожденным продуктом).
avatar
Тут уже не блин комом, а ком под видом блина, причем не первый, а стабильно каждый или через раз. Раньше тренировку на кошках до такой степени маразма не доводили, так как было хоть какое-то подобие внутренних тестов, а сейчас это выглядит ровно так, как если бы игры и обновления ОС/ПО напрочь утратили любое подобие альфа/бета-тестирования и все испытывалось напрямую на хомячках, мол и так сойдет. До релиза доходят даже самые банальные ляпы(такие, что сразу видни и фиксятся за пару минут-час) и запросто гробят рабочую ОС, либо доводят устройство до состояния кирпича, когда даже жесткий сброс или переустановка не всегда помогают вернуть работоспособность, так как тот идиотизм мог что-нибудь физически сжечь или обновить до несовместимой версии(прошивки тачскрина и т.п.).
.
Еще хуже то, что подобные обновки/заплатки(либо их отсутствие, когда появляется угроза взлома из-за прошивки с известными дырами/бэкдорами) потенциально способны и наверняка реально в несколько волн приводят к «чистке» миллионов устройств вне гарантийного срока из разряда работоспособных/надежных, так что от такого безобразия и подавно пахнет запланированным вандализмом в попытках увеличить спрос на свою продукцию, которую иначе еще нескоро обновят.
.
С последними поколениями видеокарт вдобавок возникла очевидная проблема с излишним жором, но вместо банальной установки двух коннекторов питания до сих пор танцуют на граблях и травят байки, что одного будет хватать вплоть до 600 Вт, что верно лишь отчасти. Стабильность работы шины PCIe выше 3.0 тоже отдельная песня, которая требует реально запариться с защитой от наводок и усилением/фиксом сигнала, но и тут нередко возникают проблемы из-за реализации на отвянь.
avatar
Как бы еще карта в куртке не превратилась в Хуанга и убежала на очередную конференцию тараторить по двести раз про ИИ… может его самого уже давно оцифровали и это его метод репликации в попытке заполонить планету, как у агента Смита в Матрице.
avatar
Интернет конечно давно скатился в кладезь маразма, но таких условиях лучше не перегружать новость дезориентирующими иллюстрациями, раз читателям все равно приходится отправляться в поисковики для представления о том, как выглядят вживую эти пере-мопеды/недо кей-кары.