Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Проблему этой линейки вроде до сих пор не решили, жаль что это тут не упомянули и не провели тест с чем попроще чем топовым игровым ЦП, а то после покупки может поджидать сюрприз. Если поставить этих «магов» в приземленную к бюджетной или банально несвежую игровою сборку c шестиядерниками, хоть самыми новыми за вычетом 7600X3D(его по идее хватит), то из-за оверхеда(завышенное требование к производительности процессора на отрисовку кадра, проблема драйвера) карта может превращаться в тыкву и терять вплоть до половины фреймрейта, такое может случиться при использовании чего-то уровня Ryzen 5 5600. Это сильно зависит от игр и в особенности от локации/спецэффектов, но в целом может проявиться много где — некоторые игры это не замечают из-за «легкого» игрового мира, либо для теста банально использовали локацию с не самой высокой плотностью толпы без замесов, но там где процессор будет «отвлекаться» на обработку шейдеров/физики и/или большего количества NPC, то на отрисовку кадра останется с гулькин нос ресурсов и карта начнет простаивать. В общем если играть в процессорозависимые игры вроде RTS или выставлять нормальную плотность толпы в играх по типу GTA/Cyberpunk2077/Ведьмака/Spiderman-а, то будет грустно, а в игровом ПК с такой слабой картой мощный процессор не уперся.
В том и беда, что нужно было немного подождать с апгрейдом и сделать его более актуальным на долгое время, а также ставить 32 ГБ памяти 16 Гбит кристаллами(суммарно 16 штук), так как при всех прочих равных при наборе 16/24 ГБ 8 кристаллами встройка теряет около 5-10% производительности, да и большое количество памяти спасает от лишних статтеров. Эта же проблема есть у ноутбуков/неттопов при использовании планок по 8 ГБ(4 кристалла на планку), при использовании дискретки или в ПО просадка вероятно минимальная(видел тесты касательно производительности 780M, влияние на неигровые сценарии там не рассматривали).
По сути сабж с <60% работоспособных блоков и всякие APU с выключенным NPU или битой графикой(для ноутбуков были и такие модели с обязательным использованием дискретки и отсутствием гибридного режима, в десктопах тоже есть F-линейка) как раз являются отбраковкой, которую в норме можно лишь списать и уничтожить. По производительности при теплопакете 35-50 Вт оно будет сильно дороже и не шибко быстрее 890M с явным сливом следующему поколению, либо проиграет Strix Halo по цене набора процессор + дискретка для производителей, но конечному потребителю гигачадный APU явно будут продавать с неадекватной наценкой.
.
В общем смысл создания такой «дискретной» видеокарты для производителя понятен, а осведомленному потребителю такой кастрат не шибко нужен, если конечно не будут создавать какие-нибудь уже совсем дешевые игровые «нетбуки» с сопоставимым процессором-заглучшкой(где встройка полной днище, но и цена минимальна).
За графикой как бы нужно заходить к Strix Halo, Strix Point воспринимается больше как решение для портативных консолей и легких ноутбуков за ~800$ без дискретки. Правда в сабже для многих пользователей один CCD(8 ядер) явно излишен, лучше бы придумали вариант с чиплетным HBM-буфером на 4-8 ГБ или допаяли X3D-кеш.
Именно так. Если важна производительность на сейчас и не важна экономичность и запас на будущий апгрейд, то АМ4 будет жить еще очень долго, особенно если собирать систему полностью или частично из б/у(к примеру взять новые 5700X3D и видеокарту, остальное с барахолки или выкупить у знакомых, сделавших апгрейд на свежие платформы). Если собирать игровую сборку с фокусом на лучший fps/$, то на цену АМ5+8700G(даже с учетом его небольшого удешевления)+DDR5(больная тема для APU, нужны планки с высоким частотным потенциалом=дорогие), или 7500F+дискретка, есть вариант прилично сэкономить и ограничить возможный апгрейд покупкой неттопа на условном 7840HS(всяко дешевле сборок на mini-ITX, но апгрейд почти целиком в пролете, если не шаманить eGPU), либо взять 5600/5700X3D и всю разницу между платформами вбухать в видеокарту, при том же бюджете выйдет куда более шустрая машинка.
Технически при условии максимально доступного теплопакета наименование для RTX 4060(и условно 4050) правильное, другие мобильные карты уже сильно отличаются от видеокарт для ПК. По сути эта модель GPU уже стала тем плинтусом, ниже которого опускаться некуда — делать чип меньше уже нет смысла, он и так крохотный, да и производительность ронять еще ниже уже нельзя, это и так нижний предел для комфортного 1080p без рейтрейсинга. То же самое и в плане теплопакета — его эффективное значение достигло той планки, когда больший лимит по мощности почти ничего не дает, а андервольт практически без потерь производительности сэкономит десяток-другой ватт(что глобально незаметно), и значение для десктопной и мобильной версий «внезапно» стали равными.
.
А вот с практической/фактической стороны вся линейка RTX 40xx с условным вычетом RTX 4090(при желании можно было выпустить её как 4080 Ti/Super, а чип с меньшей отбраковкой пустить на 4090, но тут уже мешал конский теплопакет такого решения) является кастратами(то есть мобильные версии обрезаны вдвойне), в которых установлен чип как минимум на один ранг ниже прежнего(маркировку модели чипа/ревизию чипа в плане количества активных блоков), из-за чего прирост между RTX 30xx и 40xx получился не очень, при отрицательном/малом приросте по количеству блоков, а то и количеству/разрядности шины памяти это не удивляет. Линейку спас разве что больший частотный потенциал нового техпроцесса от TSMC, НО он же стал и причиной такого урезания — куртку задавила жаба продавать шустрые карты за ту же цену, что не помешало ему сделать RTX 4070 и старшие модели дороже предшественников.
Любой кремниевый кристалл и есть нагревательным элементом, просто вопрос в том, сколько оно побочно сможет на себе насчитать при определенной силе тока/ваттаже и количестве блоков.
Без экосистемы(кучи ПО и нормальной связки с другим железом) и нормальной цены никакие акции не помогут, а полезный софт под такой малый парк устройств будут писать крайне неспешно, что лишь еще больше затормозит продвижение. Если еще добавить перегруженность сабжа(дурацкий экран спереди и стекло, внешняя батарея вместо монтируемой за головой как противовес), использование слишком дорогих комплектующих и нежелание использовать M3/чуть подождать до M4, то провал продаж был немного предсказуем.
Даже так размер матриц в раскладушках приходится ограничивать на крайне унылом уровне, от чего ожидаемо хромает качество картинки, оно там примерно на уровне субфлагманов из 2020-го.
Это отрицательная эволюция, такое ощущение что отдел разработки набирали из типичного населения мира Идиократии. Вечный G99 и х2 цена сверх ожидаемой для такого бюджетника это лишь подтверждают, вот кто мешал сюда ставить Медиатеки посвежее уровня Dimensity 7200/8200?
Но кто-то все еще хочет гемора, ага. Был подобный от Whirlpool, что еле поставили… ну как это был, он и сейчас используется как шкаф с подсветкой/лежак для котов т.к. лень корячиться выкинуть это г.
Вроде как есть проблема масштабируемости с кастрированными версиями, еще в прошлых версиях не столь упрощенных обрезков замедлялась шина и возможно уменьшен предел по (эффективному)количеству в одной серверной стойке. Суммарно с меньшей производительностью отдельного ускорителя для чего-то не слишком прожорливого хватит и такого, на сборка на H100 будет совсем другим делом.
В GPU обычно выжигают отключенные/некондиционные блоки лазером, паяльник не поможет, оттого у NVIDIA и бывает с десяток маркировок одного кристалла со всякими -175/-450 в конце. В бородатые годы разлочки видеокарт это часто можно было сделать на видеокартах от ATI/AMD, где такое не особо практиковали, у куртки же паяльник можно было использовать только на себе.
Все отлично, пока у испытателя есть близнец или двойник, ага. В реальной аварии на такой скорости или при сложении в лобовухе будет сложновато отскабливать «везунчиков» c асфальта.
При лишь немного большей толщине и весе там необходимо разместить второй экран, зазор для его складывания без соприкасания, сделать надежный корпус/шарнир и использовать пару мелких батарей вместо одиночной с большей плотностью хранения энергии… чтобы под конец все равно накрылся экран или начала отклеиваться защитная пленка. Все это жрет требует места и экономии по весу, так что и 5000 мАч в раскладушках на деле примерно на уровне, как если бы в обычный 200г обмылок поставили батарею на 8000 мАч. Если наращивать батарею до актуальной в обычных моделях, то у маркетологов закончится лапша на уши для оправдания веса под 300 граммов и 2-3 мм прироста толщины.
.
В общем смысл создания такой «дискретной» видеокарты для производителя понятен, а осведомленному потребителю такой кастрат не шибко нужен, если конечно не будут создавать какие-нибудь уже совсем дешевые игровые «нетбуки» с сопоставимым процессором-заглучшкой(где встройка полной днище, но и цена минимальна).
.
А вот с практической/фактической стороны вся линейка RTX 40xx с условным вычетом RTX 4090(при желании можно было выпустить её как 4080 Ti/Super, а чип с меньшей отбраковкой пустить на 4090, но тут уже мешал конский теплопакет такого решения) является кастратами(то есть мобильные версии обрезаны вдвойне), в которых установлен чип как минимум на один ранг ниже прежнего(маркировку модели чипа/ревизию чипа в плане количества активных блоков), из-за чего прирост между RTX 30xx и 40xx получился не очень, при отрицательном/малом приросте по количеству блоков, а то и количеству/разрядности шины памяти это не удивляет. Линейку спас разве что больший частотный потенциал нового техпроцесса от TSMC, НО он же стал и причиной такого урезания — куртку задавила жаба продавать шустрые карты за ту же цену, что не помешало ему сделать RTX 4070 и старшие модели дороже предшественников.