Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
не не не.
Банально считаем
gddr6 16Gb/s/pin
gddr6x 21Gb/s/pin
Для 512битной шины это
1024ГБ/сек и 1344ГБ/сек. 320Гигабайт разницы (31,25%)
.
Если судить по примерным оценкам, 16ГБ HBM2 памяти в radeon VII стоили около 325$ а псп тот же.
Когда в 3090 24ГБ по наименьшим прикидка будет около 120$ ну может ладно 150$.
Т.е. в двое дешевле, а псп сопоставим, выгодно. О чём косвенно говорит выбор Нвидиа, в пользу gddr6x.
И я вижу только один вариант, почему могут поставить HBM память.
Это если тех самых 1344ГБ/сек не хватит, для прокачки данных. Но поверьте, это не так скоро. Если 936ГБ хватает, что бы прокачивать данные для 3090.
То если новый GPU от НВ, будет иметь примерно на 50% больше производительности, то тогда всё равно примерно псп хватит.
.
Ибо вероятно как не крути GDDR6x будет выгодней HBM. Ибо не важно сколько стоит GPU. Если есть вариант сэкономить даже 100$ то поверь так и сделают.
.
А у АМД всё проще, используешь память быстрей, или шину шире + кеш и всё. Ибо уже сейчас они обеспечивают данными 6900хт у которой псп всего 512ГБ.
.
А HBM на потребительском рынке редкость.
1) представили АМД в своих картах, которая и разработала данную память, логично
2) Серия вега от АМД, когда по сути ответить было нечем и пришлось спускать те же веги с проф сегмента, дабы хоть как то прикрыть нишу.
2.1) Радик 7 ситуация та же что с вегами по сути, но портировали на 7нм.
.
А так с сегментом всё ясно. И вот если упруться в предел gddr6x, то да увидим HBM память.
Тоже дорого, особенно в свете последних событий.
что то вроде 10...12$ за гиг или за за банку(2ГБ) так и не понял.
Т.е. либо 120...144$ либо 240...288$.
А у HBM2 памяти, 120$ стоит стек, вероятно 8ГБ(но не уверен).
А так же учтём, что монтируется данная память не просто на подложку, а через интерпозер, т.е. через кремниевую пластину. А так же то, что банально КП в ГПУ больше, ибо шина шире.
Ну и собирать всё это явно дороже.
.
Стек из новости кстати выйдет дороже. Ибо увеличилось кол-во банков в стеке с 8 до 12.
.
Хотя для тех же карт вега память оценивали в примерно в 150$ за 8ГБ и примерно 25$ за интерпозер.
Кстати вот не совсем понял, тут из изменений только +4 пластины в стек? Или ещё что-то?
Ибо Гб/сек на пин то, не превышает HBM2.
Да и плотность 1 пластины та же.
Тут мы имеем 819ГБ/сек при шине 4096.
819*8/4096 ~1.6Гб/сек
radeon VII 2Гб/сек и 1ТБ/сек псп.
Т.е. всё при тех же 4 стеках, было бы 4ТБ/сек, а не 3.27ТБ/сек.
Так же 1 стек HBM2 состоит из 8 пластин, максимальная плотность 2ГБ (или 16Гбит) на пластину.
Так понятно, что быстрей. Но нам то как пользователям всё равно. Очень дорогая штука. И будут пихать в проф сегмент, цоды и т.д.
Те же АМД говорят, что их кеш снижает завсимость от псп памяти. Грубо говоря давая псп в 2,17 раза больше.
Т.е. 6900хт имея псп в 512ГБ, без кеша потребовал бы в 2,17 раза больше псп, для прокачки данных. Т.е. аж 1111ГБ/сек.
Хотя и кеш на самом деле дорогая штука, он многовато места занимает.
.
И для игр конкретно, это наиболее выгодное решение. Ставишь кучу памяти по дешевле, в крайнем случае увеличиваешь ширину шины, а нехватку компенсируешь кешем. Как итог ненадо пихать достаточно много дорогой памяти.
.
А с технологией 3Д кеша и чиплетами, они вероятно достигнут просто огромной масштабируемости и более вкусным ценам.
.
Просто кеш же нужен, что бы меньше зависеть от памяти, ибо можно найти данные в кеше. Это я к тому, что не панацея. Если инфа не влезет в кеш, если её много, то один фиг будешь зависеть от псп.
.
А так никто не спорит, что HBM Это чертовски быстро. Оно ещё и энергоэффективней gddr памяти.
RTX 3090
6 каналов(384бита) итого 936ГБ/сек и это при 19,5Гб/с на пин из 21. При том 2 банки на канал, по 2ГБ. Итого 6*2*2=24Гига.
Т.е. условно на 8 каналов (512бит) максимум 1344ГБ/сек. И объём 32Гига.
.
А 4 по 200 это сумасшествие. Нет такой памяти.
ибо 200*8=1600Гб/сек
1600/64=25Гб/сек на контакт. А это сраных 25000МГц эффективной частоты. Когда сейчас максимум 21000МГц. Т.е. бред чистой воды, нету тупо такой памяти.
.
8 по 100 реальней. Но блин дорого. Со стороны 8 канального контроллера как минимум. Ну и да со стороны разводки платы тоже.
Васян. Ты докажи, что нет инженерников лол. Пруфы в студию.
чел ты...
Как по твоему АМД превели оф тесты zen3 с 3D V-cache (предположительно ryzen 6000).
.
Ну ну, примерно год до релиза zen4, а инженерников(ES) нет. Как баги архитектуры править а?
Так что ES есть. Либо в скором времени будут для zen4. Ибо выпуск планируется во 2 половине 22 года.
.
А вот чего нет, так это QS (квалити семплов) для 7000.
А вот для 6000 уже вероятно и QS есть ибо уже презентовали и запуск скоро.
Собственно как и 12900к уже должен иметь QS.
А QS имеет как правило ту же производительность, что и серйиник.
.
А вот конкурентами будут 6000 райзены и 12поколение интел. Ибо выходят в близкий промежуток времени.
Не увидим мы таких видях. По крайней мере в потребительском сегменте.
Сейчас 8 гигабайтный стек стоит как 10-12 2 гигабайтных стеков gddr памяти + монтаж + подложка. Т.е. 8 гигов по цене 24 гигов. При том gddr6x показывает псп под 1ТБ/сек.
АМД же отделалась просто L3 кешем.
Память безусловно лучшая, но всё же цена, это прям камень преткновения.
.
Ждём пока условные самсунг представят, что-то похожее, но с лучшими характеристиками.
.
И что бы оно попало в потребительские карты, оно должно быть примерно таким. Хотя бы 12Гигов при псп более 1ТБ/сек и цене около 100$.
Т.е. так мы выиграем в потреблении в пересчёте на псп, может даже выйграем в псп на $, но точно проиграем в объёме на $.
.
Но тем не менее, с ростом производительности ГП, нужно наращивать и псп. А о gddr7 пока ничего не известно вроде. Да и в 12Гигов видеопамяти можно поместить всё, что необходимо для игр. По факту и в 8 можно, но может не хватить, как и 10 Гигов. Хотя сейчас даже если необходимо условно гигов 7, то оставшийся объём тупо будет захламлён, чисто что бы реже подгружать данные. А вот 12 Гигов, должно по идее в аккурат хватить.
.
Но хотелось бы видеть два стека по 12Гигов с широкой шиной, это да.
Лол, а вы будто не знали, что яблоко ещё не плохо зарабатывает с обвесов своих девайсов.
Кабель, колёсики, тряпочка и прочая лабуда за пару тысяч лол. Подставка под сраный монитор))))
А чоб тогда нвидиа драйвера не продавать м, денег то оно стоит. Почему бы возможно записи видео через гпу не продавать? Почему бы ртх войс не продавать? Почему лучики не продавать?
Вот хочешь ты включить ртх, а нет, заплати нвидиа за подписку.
/
Или лучше так. Купил видюху, купи к ней кабель за 100$ ибо родные от БП не подойдут, потом переходник с проприетарного разъёма на pci ещё 300$. Дальше, купи ещё переходник для монитора, ибо будет стоять проприетарный разъём тоже 100$. А и не забудь, нельзя продавать топ железо за 1к$, продавай сразу за 2к$ ведь карта профессиональная, позволяет рендерить видео, и вообще не оверпрайс. Так ещё и сверху 500$ накинь, что бы работало.
И вот у вас рекомендуемая не 700-800$, а все 2.5к а чо, «не дохуя и вообще не оверпрайс»
.
Зато сразу будете получать не жрушую производительную печь, а уберпроизводительную. Ибо можно раздуть себестоимость до умопомрачительных масштабов и брать от индустрии только лучшее.
.
А уж не дай бог дефицит. Сразу цены в 5к баксов будут.
.
Т.е. что удивительного в том, что железка за 3.5к $ имеет достаточно мощную платформу? За овердофига бабла любой инженер может разработать топ девайс. А яблочные фанаты, всё равно будут покупать, вообще безальтернативно. Плохая железка, хорошая ли? Неважно! главное эпл.
А вот пусть попробуют тоже самое но за 1к $ запилить, вот тогда посмотрим.
Лул кек. Окей когда остальные производители будут закладывать рекомендованную цену х5 от нынешних или даже больше, раздувая бюджеты производства и разработки до стратосферы. И это будут жрать хомяки за обе щеки и прося добавки. Будут покупать всякие сервисы. Хочешь обновить драйвер 100$ уловно хах, за биос столько же. Вооот когда они будут рубить тонны бабок не только за сам продукт, но и за его сопровождения то даа. Ты увидишь продукт, который изи будет рвать и метать данное решение.
1 дорого
2 не оптимизировано для их продукта
.
У тебя исторически фабрика выпускает ТП оптимизированный под низкое потребление. Где в том числе можно применить максимальную плотность.
.
Что мы и видим. Тут нет и 2ГГц по гп и 5ГГц по цп. Но есть низкое потребление. И это лять в рамках одной 5нм ноды разные ТП.
И что бы АМД и НВ выпустить свои продукты на 5нм им надо совместно с TSMC оптимизировать ТП под свои продукты. Решая проблемы которых тупо нет на LP ТП.
А насчёт HBM ну погуглите. Вот например
«For example, Shuhai identifies that the latency of HBM is 106.7 ns while the latency of DDR4 is 73.3 ns, „
А вообще это база, чем быстрее память, тем выше её задержка.
“As an interesting thought experiment, hypothetical Haswell with GDDR6 memory controllers placed as close to L3 as possible may get somewhere around 133 ns»
.
Это базис быстрой памяти, что у неё высокая задержка. При том, что у интела то минимальные задержки для ддр4 были менее 50нс.
.
Насчёт предсказателя, не совсем всё так. Тут речь, то о не верном предсказании ветвления и загрузке новых инструкций из памяти. Но речь не идёт о кеш промахе в L3. Т.е. в случае сброса конвейера, процессор мог загрузить данные из памяти L3 кеша, ибо это тоже подуровень памяти.
.
И что мы видим по заявлениям амд с 3D кешем? Даже при том, что нет пустых тактов от предсказателя, то огромный кеш L3 все ещё даёт крайне много 10-15%. Вот тут да, меньше зависимость от памяти и обращения к ней.
А знаете в чём прикол? Откуда эти 150Нс?
А всё дело-то в общей памяти, которая GDDR. И это просто факт. У той же HBM памяти тоже задержка то не низкая.
А Zero bubble это вообще другая история. Это значит, что у амд очень хорошо работает предсказатель ветвлений и очень хорошо загружает конвейер без пустых тактов, т.е. простоев.
Но базис таков, что один фиг рано или поздно тебе придётся обращаться к памяти. Ибо базис RISC и CISC таков, что подгружаются данные не столько заранее, сколько по мере востребования.
.
Так и дело то в том, что у тебя с 60 к/с процессор справиться. И фпс будет залочен на 60, для получения ровного графика времени кадра. Но ты не получишь 20% сверху к 60, ибо у тебя банально ГП не может столько кадров отрисовать.
.
Просто учитывайте особенность платформы. Это вам не пк, где железо есть и помощней. Консоль это железо как в пк, но в достаточно средней конфигурации, но за дешёво. И что бы раскачать гпу в 10-12Тфлопс это хватит прям за глаза. Ибо у тебя не стоит задачи гонять в FHD на 3090 при максимальной кадровой частоте (т.е. 120 к/с и более), где как раз нагрузка на cpu часть возрастает.
Про потребление я скажу вам так. Тех процесс.
Тут как не крути они разные.
Вероятно Apple использует LP ТП т.е. с низким потреблением и токами утечек. О чём в принципе говорит низкая частота. Не уверен, какая нода тут используется. Но явно тут не хуже N5(P).
Когда у амд лишь N7 с кастом библиотеками. Т.е. разница весомая.
И разница при переходе от N7 к N5 даёт порядка 30% энергоэффективности. От N5 к N5P ещё 15%.
Т.е. разница с базовыми 7нм амд существенна.
.
И я думаю АМД использует HP итерацию ТП, которая не очень энергоэффективная, по сравнению С LP. Но более частотная. Отсюда и весомая разница в потреблении.
.
Т.е. естественно куча блоков на низкой частоте будут кушать меньше, так и было задумано.
Так вопрос в фпс и разрешении. Так и 8/16 zen2 это всё же не I5. Ну и собственно да тут скорей уровень 6600хт или 5700хт (с лучами) т.е. где то в районе 2070S, даже не 2080, не говоря про 2080Ти.
.
Тут можно конечно взять поделие в виде смотрящих собак, где куча вызовов отрисовки, что не оправдано грузило cpu.
Поверьте, разница в те же 15...20% ничего особо не дала бы.
Суть то такова, что на практике процессору в играх относительно просто. Куда сложней приходится GPU. И вот смысл тратить больше транзисторов на зен3? Так ещё вероятно стоило бы дороже.
Можно было и 16 ядер пихнуть, было бы лучше. Но вопрос в целесообразности.
Вам напомнить что ягуар в пост гене был тотал говном? И ничего как то справлялись.
Сейчас ситуация в производительности вероятно на порядок лучше.
Оно понятно, что куча блоков это хорошо. Ибо потребление то растёт не линейно, а скорей экспоненциально в зависимости от напряжения.
Но вот дороговато таким образом набирать производительность. Но и не совсем явный момент это конечно маршрутизация данных внутри gpu.
Банально считаем
gddr6 16Gb/s/pin
gddr6x 21Gb/s/pin
Для 512битной шины это
1024ГБ/сек и 1344ГБ/сек. 320Гигабайт разницы (31,25%)
.
Если судить по примерным оценкам, 16ГБ HBM2 памяти в radeon VII стоили около 325$ а псп тот же.
Когда в 3090 24ГБ по наименьшим прикидка будет около 120$ ну может ладно 150$.
Т.е. в двое дешевле, а псп сопоставим, выгодно. О чём косвенно говорит выбор Нвидиа, в пользу gddr6x.
И я вижу только один вариант, почему могут поставить HBM память.
Это если тех самых 1344ГБ/сек не хватит, для прокачки данных. Но поверьте, это не так скоро. Если 936ГБ хватает, что бы прокачивать данные для 3090.
То если новый GPU от НВ, будет иметь примерно на 50% больше производительности, то тогда всё равно примерно псп хватит.
.
Ибо вероятно как не крути GDDR6x будет выгодней HBM. Ибо не важно сколько стоит GPU. Если есть вариант сэкономить даже 100$ то поверь так и сделают.
.
А у АМД всё проще, используешь память быстрей, или шину шире + кеш и всё. Ибо уже сейчас они обеспечивают данными 6900хт у которой псп всего 512ГБ.
.
А HBM на потребительском рынке редкость.
1) представили АМД в своих картах, которая и разработала данную память, логично
2) Серия вега от АМД, когда по сути ответить было нечем и пришлось спускать те же веги с проф сегмента, дабы хоть как то прикрыть нишу.
2.1) Радик 7 ситуация та же что с вегами по сути, но портировали на 7нм.
.
А так с сегментом всё ясно. И вот если упруться в предел gddr6x, то да увидим HBM память.
что то вроде 10...12$ за гиг или за за банку(2ГБ) так и не понял.
Т.е. либо 120...144$ либо 240...288$.
А у HBM2 памяти, 120$ стоит стек, вероятно 8ГБ(но не уверен).
А так же учтём, что монтируется данная память не просто на подложку, а через интерпозер, т.е. через кремниевую пластину. А так же то, что банально КП в ГПУ больше, ибо шина шире.
Ну и собирать всё это явно дороже.
.
Стек из новости кстати выйдет дороже. Ибо увеличилось кол-во банков в стеке с 8 до 12.
.
Хотя для тех же карт вега память оценивали в примерно в 150$ за 8ГБ и примерно 25$ за интерпозер.
Ибо Гб/сек на пин то, не превышает HBM2.
Да и плотность 1 пластины та же.
Тут мы имеем 819ГБ/сек при шине 4096.
819*8/4096 ~1.6Гб/сек
radeon VII 2Гб/сек и 1ТБ/сек псп.
Т.е. всё при тех же 4 стеках, было бы 4ТБ/сек, а не 3.27ТБ/сек.
Так же 1 стек HBM2 состоит из 8 пластин, максимальная плотность 2ГБ (или 16Гбит) на пластину.
Те же АМД говорят, что их кеш снижает завсимость от псп памяти. Грубо говоря давая псп в 2,17 раза больше.
Т.е. 6900хт имея псп в 512ГБ, без кеша потребовал бы в 2,17 раза больше псп, для прокачки данных. Т.е. аж 1111ГБ/сек.
Хотя и кеш на самом деле дорогая штука, он многовато места занимает.
.
И для игр конкретно, это наиболее выгодное решение. Ставишь кучу памяти по дешевле, в крайнем случае увеличиваешь ширину шины, а нехватку компенсируешь кешем. Как итог ненадо пихать достаточно много дорогой памяти.
.
А с технологией 3Д кеша и чиплетами, они вероятно достигнут просто огромной масштабируемости и более вкусным ценам.
.
Просто кеш же нужен, что бы меньше зависеть от памяти, ибо можно найти данные в кеше. Это я к тому, что не панацея. Если инфа не влезет в кеш, если её много, то один фиг будешь зависеть от псп.
.
А так никто не спорит, что HBM Это чертовски быстро. Оно ещё и энергоэффективней gddr памяти.
6 каналов(384бита) итого 936ГБ/сек и это при 19,5Гб/с на пин из 21. При том 2 банки на канал, по 2ГБ. Итого 6*2*2=24Гига.
Т.е. условно на 8 каналов (512бит) максимум 1344ГБ/сек. И объём 32Гига.
.
А 4 по 200 это сумасшествие. Нет такой памяти.
ибо 200*8=1600Гб/сек
1600/64=25Гб/сек на контакт. А это сраных 25000МГц эффективной частоты. Когда сейчас максимум 21000МГц. Т.е. бред чистой воды, нету тупо такой памяти.
.
8 по 100 реальней. Но блин дорого. Со стороны 8 канального контроллера как минимум. Ну и да со стороны разводки платы тоже.
чел ты...
Как по твоему АМД превели оф тесты zen3 с 3D V-cache (предположительно ryzen 6000).
.
Ну ну, примерно год до релиза zen4, а инженерников(ES) нет. Как баги архитектуры править а?
Так что ES есть. Либо в скором времени будут для zen4. Ибо выпуск планируется во 2 половине 22 года.
.
А вот чего нет, так это QS (квалити семплов) для 7000.
А вот для 6000 уже вероятно и QS есть ибо уже презентовали и запуск скоро.
Собственно как и 12900к уже должен иметь QS.
А QS имеет как правило ту же производительность, что и серйиник.
.
А вот конкурентами будут 6000 райзены и 12поколение интел. Ибо выходят в близкий промежуток времени.
Сейчас 8 гигабайтный стек стоит как 10-12 2 гигабайтных стеков gddr памяти + монтаж + подложка. Т.е. 8 гигов по цене 24 гигов. При том gddr6x показывает псп под 1ТБ/сек.
АМД же отделалась просто L3 кешем.
Память безусловно лучшая, но всё же цена, это прям камень преткновения.
.
Ждём пока условные самсунг представят, что-то похожее, но с лучшими характеристиками.
.
И что бы оно попало в потребительские карты, оно должно быть примерно таким. Хотя бы 12Гигов при псп более 1ТБ/сек и цене около 100$.
Т.е. так мы выиграем в потреблении в пересчёте на псп, может даже выйграем в псп на $, но точно проиграем в объёме на $.
.
Но тем не менее, с ростом производительности ГП, нужно наращивать и псп. А о gddr7 пока ничего не известно вроде. Да и в 12Гигов видеопамяти можно поместить всё, что необходимо для игр. По факту и в 8 можно, но может не хватить, как и 10 Гигов. Хотя сейчас даже если необходимо условно гигов 7, то оставшийся объём тупо будет захламлён, чисто что бы реже подгружать данные. А вот 12 Гигов, должно по идее в аккурат хватить.
.
Но хотелось бы видеть два стека по 12Гигов с широкой шиной, это да.
Кабель, колёсики, тряпочка и прочая лабуда за пару тысяч лол. Подставка под сраный монитор))))
А чоб тогда нвидиа драйвера не продавать м, денег то оно стоит. Почему бы возможно записи видео через гпу не продавать? Почему бы ртх войс не продавать? Почему лучики не продавать?
Вот хочешь ты включить ртх, а нет, заплати нвидиа за подписку.
/
Или лучше так. Купил видюху, купи к ней кабель за 100$ ибо родные от БП не подойдут, потом переходник с проприетарного разъёма на pci ещё 300$. Дальше, купи ещё переходник для монитора, ибо будет стоять проприетарный разъём тоже 100$. А и не забудь, нельзя продавать топ железо за 1к$, продавай сразу за 2к$ ведь карта профессиональная, позволяет рендерить видео, и вообще не оверпрайс. Так ещё и сверху 500$ накинь, что бы работало.
И вот у вас рекомендуемая не 700-800$, а все 2.5к а чо, «не дохуя и вообще не оверпрайс»
.
Зато сразу будете получать не жрушую производительную печь, а уберпроизводительную. Ибо можно раздуть себестоимость до умопомрачительных масштабов и брать от индустрии только лучшее.
.
А уж не дай бог дефицит. Сразу цены в 5к баксов будут.
.
Т.е. что удивительного в том, что железка за 3.5к $ имеет достаточно мощную платформу? За овердофига бабла любой инженер может разработать топ девайс. А яблочные фанаты, всё равно будут покупать, вообще безальтернативно. Плохая железка, хорошая ли? Неважно! главное эпл.
А вот пусть попробуют тоже самое но за 1к $ запилить, вот тогда посмотрим.
2 не оптимизировано для их продукта
.
У тебя исторически фабрика выпускает ТП оптимизированный под низкое потребление. Где в том числе можно применить максимальную плотность.
.
Что мы и видим. Тут нет и 2ГГц по гп и 5ГГц по цп. Но есть низкое потребление. И это лять в рамках одной 5нм ноды разные ТП.
И что бы АМД и НВ выпустить свои продукты на 5нм им надо совместно с TSMC оптимизировать ТП под свои продукты. Решая проблемы которых тупо нет на LP ТП.
«For example, Shuhai identifies that the latency of HBM is 106.7 ns while the latency of DDR4 is 73.3 ns, „
А вообще это база, чем быстрее память, тем выше её задержка.
“As an interesting thought experiment, hypothetical Haswell with GDDR6 memory controllers placed as close to L3 as possible may get somewhere around 133 ns»
.
Это базис быстрой памяти, что у неё высокая задержка. При том, что у интела то минимальные задержки для ддр4 были менее 50нс.
.
Насчёт предсказателя, не совсем всё так. Тут речь, то о не верном предсказании ветвления и загрузке новых инструкций из памяти. Но речь не идёт о кеш промахе в L3. Т.е. в случае сброса конвейера, процессор мог загрузить данные из памяти L3 кеша, ибо это тоже подуровень памяти.
.
И что мы видим по заявлениям амд с 3D кешем? Даже при том, что нет пустых тактов от предсказателя, то огромный кеш L3 все ещё даёт крайне много 10-15%. Вот тут да, меньше зависимость от памяти и обращения к ней.
А всё дело-то в общей памяти, которая GDDR. И это просто факт. У той же HBM памяти тоже задержка то не низкая.
А Zero bubble это вообще другая история. Это значит, что у амд очень хорошо работает предсказатель ветвлений и очень хорошо загружает конвейер без пустых тактов, т.е. простоев.
Но базис таков, что один фиг рано или поздно тебе придётся обращаться к памяти. Ибо базис RISC и CISC таков, что подгружаются данные не столько заранее, сколько по мере востребования.
.
Так и дело то в том, что у тебя с 60 к/с процессор справиться. И фпс будет залочен на 60, для получения ровного графика времени кадра. Но ты не получишь 20% сверху к 60, ибо у тебя банально ГП не может столько кадров отрисовать.
.
Просто учитывайте особенность платформы. Это вам не пк, где железо есть и помощней. Консоль это железо как в пк, но в достаточно средней конфигурации, но за дешёво. И что бы раскачать гпу в 10-12Тфлопс это хватит прям за глаза. Ибо у тебя не стоит задачи гонять в FHD на 3090 при максимальной кадровой частоте (т.е. 120 к/с и более), где как раз нагрузка на cpu часть возрастает.
Тут как не крути они разные.
Вероятно Apple использует LP ТП т.е. с низким потреблением и токами утечек. О чём в принципе говорит низкая частота. Не уверен, какая нода тут используется. Но явно тут не хуже N5(P).
Когда у амд лишь N7 с кастом библиотеками. Т.е. разница весомая.
И разница при переходе от N7 к N5 даёт порядка 30% энергоэффективности. От N5 к N5P ещё 15%.
Т.е. разница с базовыми 7нм амд существенна.
.
И я думаю АМД использует HP итерацию ТП, которая не очень энергоэффективная, по сравнению С LP. Но более частотная. Отсюда и весомая разница в потреблении.
.
Т.е. естественно куча блоков на низкой частоте будут кушать меньше, так и было задумано.
.
Тут можно конечно взять поделие в виде смотрящих собак, где куча вызовов отрисовки, что не оправдано грузило cpu.
Суть то такова, что на практике процессору в играх относительно просто. Куда сложней приходится GPU. И вот смысл тратить больше транзисторов на зен3? Так ещё вероятно стоило бы дороже.
Можно было и 16 ядер пихнуть, было бы лучше. Но вопрос в целесообразности.
Вам напомнить что ягуар в пост гене был тотал говном? И ничего как то справлялись.
Сейчас ситуация в производительности вероятно на порядок лучше.
Но вот дороговато таким образом набирать производительность. Но и не совсем явный момент это конечно маршрутизация данных внутри gpu.