Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Helio g99 + 5G
avatar
Такими темпами догононим маки. А какой-нибудь нормальный «целерон» на арм вообще будет жить по времени как смартфон, мечта)
avatar
Выглядит как что-то с Фотошопа, но даже это не доказывает, что TDP уменьшается. Он просто делится между частями процессора, в виде CPU, GPU, NPU
Я на вашем скриншоте не вижу ни пикселя о количестве TDP
avatar
Не верю, к счастью вам не верит никто, ведь голословно я тоже могу орать что мой Celeron N5100 мощнее M3, и ситуация будет та же
Когда покажете тесты или обзоры, тогда и посмотрим, а так это всё на уровне провокаций
avatar
Можно ссылку на данную информацию?
avatar
Я написал прямо под твоим комментарием с указанным процом
avatar
Энергопотребление 95 ватт всё также, просто без комбинированной нагрузки CPU 90w + GPU 5w, при комбинированной CPU 30w + GPU 65w, думаю объяснил понятно
avatar
Это сарказм?
avatar
С архитектурой RDNA они хоть сколько-то приблизились к Adreno, но нет, то что они никогда не смогли они решили что сделают сами и лучше, чем те кто это уже сделали и двигаются в направлении графики очень давно
avatar
Ну, не особо быстро. Моя DDR4 с 3600 CL16 имеет задержку 4,4
При том сколько уже времени этой памяти…
avatar
Скорее всего дело в том, что ядра Интел не умеют корректно использовать внеядерный кэш(кэш из других ядер)
avatar
Квадратная сковорода
avatar
Меньше 6ГБ нельзя выпускать смартфоны. А здесь даже 3…
avatar
Будет не урезанная частота, будет урезано количество блоков. Частота влияет на производительность куда сильнее, чем число блоков, так как частота увеличивает общую производительность(текстурных шейдеров, шейдеров растеризации, RT-блоков, тензорных ядер), благодаря частоте увеличивается скорость работы кэша и контроллера памяти. И ниже частоты ставить никто не будет.
Да и по габаритам это будет кристалл почти как у плойки или бокса
avatar
Какие 40 CU?
Это уже RX 6700 XT которая потребляет 225Вт
Даже при смене тех.процесса на 3нм оно в лучшем случае будет потреблять 100 ватт
Или мощность на CU блок станет меньше, что не имеет смысла обсуждать
avatar
Не продадут)
Интересный факт, но у Microsoft есть небольшой опыт в разработке собственного процессора(в сотрудничестве с Qualcomm)
Правда это было лоу-энд железо по не самой приятной цене
У Microsoft выбор — или AMD(так как имеется большая программная база, приемлемые цены и опыт сотрудничества), или свой APU чтобы вышел дешёвым. Intel не выберут как по причине цен, так и из-за проблем с драйверами что критически важно для консолей. К тому же из-за нескольких видов ядер будет сложно организовать нормальное распределение нагрузки и работу системы(ситуация с Cell)
avatar
Tegra
avatar
1. Зачем тебе 400 ФПС в танчиках? Не лучше ли тогда вообще не тратиться на такую видеокарту пока нет подходящего монитора?
*Вряд-ли он у вас есть учитывая какую видеокарту мы обсуждаем
2. Насчёт 8ГБ видишь ли, тут сильно зависит каким играм. Под играми 2023 года я имею ввиду игры с красивой графикой и трассировкой лучей, ради которых видеокарту и покупают. Тот же Alan Wake 2, Starfield, Last of us 2 и прочие имеют немалые аппетиты и нехватка памяти вызывает просадки. А для онлайн шутеров, инди, старых игр хватит и RX580, как в вашем случае, новая видеокарта вообще не нужна для этого
3. Я указал четыре недостатка, а не только про количество видеопамяти
avatar
Сотни людей оправдывают огрызок.
Объясняю в чём проблема:
1. 128 бит шина. Не всё поместится в кэш, любые текстуры, любые эффекты, тени к сожалению весят в несколько раз больше даже 200мб. Как бы вы не оптимизировали эти объекты будут загружаться из видеопамяти, а урезанная шина и как следствие меньшая ПСП будут существенно урезать производительность.
2. 8ГБ в 23 году реально мало для максималок. Автор уже назвал ряд игр где не вмещаются текстуры. Но беда в том, что системные требования не будут уменьшаться, и если сейчас 8ГБ хватает впритык, то спустя время этого будет мало. Видеокарте придётся обращаться к ОЗУ. Плавно переходим к следующему пункту
3. PCI-E линии, их всего восемь, многие избаловавшись постоянным наличием 16 линий забыли для чего они вовсе нужны. Напоминаю: через них идёт передача данных процессор-видеокарта, видеокарта-оперативная память. И тут очень негативно подкрадывается факт 8ГБ. Даже если не очень скоро, но спустя время видеопамяти не хватит и видеокарта будет записывать данные в оперативную память, а обращаться она к ней будет именно через PCI-E, которых в два раза меньшей. Кто-то скажет, что PCI-E 3x16 = PCI-E 4x8, я соглашусь, НО количество используемых данных существенно выросло и будет дальше расти. Будут добавляться технологии наподобие DirectStorage, SmartAccesMemory, где эти линии будут активно использоваться. Производительность GPGPU сильно урезана
4. Приведу короткий пример на практике:
Владельцы 1060 на 3ГБ. Каково им стало спустя время? Безусловно, онлайн шляпы летают прекрасно, но также ли хорошо работают игры с тяжёлой графикой? Везде ли хватает объёма? И теперь добавьте к этому факт урезанной шины PCI-E
Уж лучше я возьму RTX3060 на 12ГБ и буду везде текстуры ставить на ультра и играть в 60, чем 80 но на высоких, а возможно и средних, а трассировка пути и DLSS3 это даже большая ху***, чем первый FSR, ведь в случае трассировки пути будет не хватать памяти, а в случае с DildoSS увеличится плавность, но задержка останется той же, что даже хуже, чем с меньшим фреймрейтом
Жду опровержений на этот счёт
avatar
Ставлю на Цукерберга ведь он владеет Джиу-Джитсу, а о Маске я ничего подобного не слышал. В единоборствах вес куда меньше имеет значение, чем мы думаем