Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
А вот вы и не правы, вы не учитывайте нюансы и цены берёте с потолка.
1) интеловские 14нм++ примерный аналог 12нм из таблички (таблица для тсмс), ибо 10нм чуть плотней, но возьмём себестоимость чипа для 10нм, ибо допускаю что себестоимость 14нм++ интел таки будет ниже, чем указанная для 16/12нм.
2) Цены на чип в табличке указаны для 610мм2
3) соответственно цена 274/2,178= 125,80$ (610/280=2,178). Окей допустим брака меньше, по этому возьму даже 100$.
Вот вам и себестоимость, добавь сюда себестоимость проектирования, маркетинга и прочего, разделённого на кол-во объёмов выпуска и получишь себестоимость процессора.
И она точно не ниже 150$.
Что как бы уже нехилая чистая прибыль при рекомендованной в 540-550$, для партии в 1000шт(слегка оптовая цена).
Ну смотри в плане игр, всё проще есть API стандартизированные и при их поддержке всё работать в принципе будет. Важны архитектурные оптимизации. А вот с этим проблема, ибо кому надо оптимизировать под интел? правильно никому. И тут вопрос решается так, интел заносит бабла, вот и оптимизация.
Но по кол-ву rop, tmu которые как раз для игр и нужны всё хорошо, ну и матричные блоки хороши.
Разве что вопросы к подсистеме памяти 256 бит с gddr6 разве хватит. Да и кеша маловато для компенсации узкой шины. И не факт что производительности RT блоков хватит. Да и дата релиза только в след году. Так ещё я бы ждал проблем с драйверами и всякие графические баги.
Хорошие затычки тоже нужны.
Типо даёшь низкопрофильные затычки, со всеми аппаратными декодерами (включая AV1), с потреблением до 45Ватт, а вообще желательно, что бы был пассивный охлад, гига 4 памяти и какую никакую производительность, для старых игр и индюшатины.
И вот эта затычка пойдёт во все компактные сборки, можно в мультимейдиные, можно в офис. Да и для бич гейминга прям таки неплохо. Или как вторую карту в сборку, если параллельно gpu работает, а поиграть хочется. При условии вменяемого ценника.
А то сейчас сейчас затычки ну такие себе.
О каких блин костылях идёт речь? у каждой архитектуры есть свои преимущества и недостатки.
х86 конкретно для потребителя и десктопов самое то. Он хорош.
IA-64, основана на той же vliw. Соответственно преимущество, параллелизм и соответственно классно подходит для HPC. Вопрос зачем оно в настольных компах?
Тот же Risc прост в проектировании и очень энергоэффективен.
х86 прост в программировании, достаточно универсален и не так плохо работает с кешами.
.
Десктопы это тот сегмент, где тебе уже не так важно сколько потребляет процессор, сколько важна его производительность. А так же тебе практически и не упёрся высокий параллелизм. Почему? Просто на просто потому, что есть гпу, с simd движками, которые как раз и берут на себя всё, что хорошо параллелится. И оно априори справляется лучше.
.
Опять же то, что сегодня х64-86 имеет крайне посредственное родство с 8086. Банально у тебя каждую новую итерацию оптимизируется набор исполнительных блоков под инструкции, благодаря чему ты и получаешь прирост IPC. До того, что внутри процессор декодер может декодировать как комплексные инструкции (cisc), так и простые (принцип как и у risc)
.
А для того времени, когда программирование было не столь просто, переписывать весь софт, было экономически не выгодно.
.
И как бы да рыночек то порешал. Было бы всё так радужно и хорошо и было б ошибкой. Тогда тот же VLIW то бы взлетел и вытеснил х86.
Вот RISC в лице того же ARM занял нишу и уже вытесняет х86 из своей среды(устройств с небольшим потреблением). И инженеры(фуджитсу) постарались и залезли в топ500, были в банковском секторе.
.
И да на самом деле сервера, суперкомпы и заказным решениям немного пофиг на софт, там крутятся такие деньги, что могут и переписать софт. Или вообще написать с 0.
Ну как бы есть две вещи
1 Сами интел, просто выставляют те же флаги, что бы софт понимал, что да как.
2 существует такая вещь как планировщик ОС, т.е. в теории сама винда будет рулить что куда.
3 За игры не парься, это достаточно низкоуровневое программирование и если задача вешается не на то ядро, это баг игроделов.
4 если представим что планировщик не умеет нормально распределять нагрузку и программирование высокоуровневое, то по первому пункту придётся ждать обновления софта, когда разрабы согласно меткам скажут как работать с малыми ядрами.
Но идея в десктопе, максимально тупая. Ибо по сути тот сегмент когда тебе не нужна максимальная энергоэффективность. Так вторая ситуация в том, что даже для энергоэффективность 8 малых ядер тебе вообще никак никуда не упёрлись. Т.е. 2-4 более менее неплохих и энергоэффективных ядер прям за глаза. И в идеале ты на эти ядра вешаешь фоновый софт, простые задачи и саму ось при том на постоянку и вот у тебя не поедается % производительности больших ядер. Но для этого не нужно прям таки 8 ядер
Так что по сути это какая то больше маркетинговая хрень вышла.
Что бы показать мол у нас вот тоже 16 ядер.
Та не фигня у самого сисоник голдовый 750Вт. И он как бы полупассивный, офк с переключателем.
Стоит он у меня уже почти года 2. С вертушкой никаких проблем, хотя за компом часто.
Дело то всё в том, что просто бп не нагружен так, что бы вертушка постоянно крутилась. Так что пол года точно брехня, только если брак.
У меня корпусная вертушка на втулке сдохла примерно в промежутке примерно 2...3 лет, при работы пк в среднем 9+ часов работы в день. И она не шумела, но появилось биение. Так что вероятно, тут всё зависит от того как вы используете комп.
Но в целом то у человека, титановый блок и он вроде как пассивный.
Да и при желании на самом деле вертушку заменить не большая проблема.
Вот вы дурной. Какие нафиг патенты. Про то речи не было. Я сказал нечестная конкуренция.
В суд АМД подали в 2005-2006 за то, что подговорили вендоров, не покупать у амд, а те получали откаты
И оштрафовали их на 1,25-1,5лярда, в 2009. 4 года карл.
Но в 2012 интел оспорила решения суда! Из за чего возник пересмотр дела, который непон
И даже если выплатили, то урон нанесённый амд, куда выше. Просто потому что, это как снежный ком.
Не было б этого случая, у амд уже тогда был бы кусок рынка больше, при том с долгосрочными контрактами в корм сегменте. Так ещё бы были деньги на разработку новых проектов.
Что вообще кардинально меняет всю цепочку событий. И та же покупка ATI не сказалась так сильно.
Вероятно следующие архитектуры были б куда удачней. И вот уже была бы конкуренция все эти годы. А не жёсткая монополия интел.
И вопрос причём тут патенты? «за нечестную конкуренцию » сказа я, каким местом читал?
.
Тем более вы сильно всрались по временным рамкам.
Выплаты в 2009 условно. Zen 2017. Его разрабатывали в худшем случае лет 5.
Так что после выплаты интел шла строительная техника, а зен был даже и не близко. Это абсурдно примерно как, началась первая мировая война и тут сразу же мы победили во второй. А всё что в промежутке, да плевать неважно.
Плохо помните, совсем плохо.
Интел выплатил пару лярдов, за нечестную конкуренцию во времена атлонов.
Но сделали это, через годы и притом, реальный ущерб был куда выше.
А начался zen после череды провалов, если можно так сказать. В виде строительной техники.
Не то что бы всякие феномы и фх были таки хорошие и всякие там apu. А почему вышел этот провал.
1) Амд решила увеличить ядра в фенах, что было слишком рано.
2) На фх уже бабок не было.
А денег не было т.к. купили АТИ. Что встало оч дорого. А ведь покупали по сути когда считай были на коне. Где интел подпортил малину.
После чего покупка АТИ тогда не принесла ожидаемой прибыли.
А так же по горло залезли в долги.
И дошло до того, что амд продали штаб квартиру и просто её арендовали. Это вероятно было уже при лизе.
И реально всё начало меняться когда Су поставили у руля. И Джим келлер был в команде.
Решили оставить по сути провальные пути, ибо микроархитектуры можно было и дальше улучшать, было куда. Но важный момент решили кардинально переработать архитектуру. Что заняло достаточно много времени. Это один из решающих фактором. Решили все же выпустить полноценные 8/16 в мейнстрим, практически по цене 4/8 интела. Плюс амд стала поставщиком чипов для консолей. Не то что бы это супер выгодно, маржа относительно небольшая, но деньги есть деньги. Так же важным фактором оказалась продажа фабрик. Которые амд финансово не тянули, что бы затормозило их развитие.
Так же 17год и майнинг бум. Тоже деньги.
А вот с выходом zen и пошёл путь в верх. Но и интел к этому не имеет отношения.
Так и сейчас вроде 3 api как минимум.
Vulkan, DX и соневский api для плойки. Ну и собственно есть ещё яблочный Metal api, но он в тему игр как то не особо. И как бы ничего норм. И так некоторая стандартизация уже прошла.
Но опять же да лишний API Нафиг то и не нужен по сути. Вот куда его, к чему и кто его будет поддерживать, развивать и на какие деньги.
Да нормально оно будет. По крайней мере в случае амд. 250Вт на кристалл размером 400мм2, или до 500Вт в случае 800мм2, это отводить не так и сложно.
Кол-во тепла на мм2 выходит не так много. Отвести можно. И раньше были 2х чиповые решения, отводили как то же тепло.
А вот в случае Нвидиа сложно. Говорят о монолите.
1 какая у него площадь.
2 Пиковое ли это потребление, у нв тдп ≠ пиковое потребление.
Вот если площадь и потребление будут сопоставимы с 3090 то всё ок, справиться можно.
А вот если 500Вт это тдп, то при пиках карта реально будет улетать.
Но вот 500Вт это всё же слегка многовато, ибо воздух греть оно будет не слабо.
Но так же стоит понимать, что уровень производительности будет высокий и не каждая игра по сути будет выжирать максимум ресурсов, при той же вертикалке уж точно.
Ты шину видел? Какие нафиг майнеры? С такой шиной?
Я так погуглил, это примерно уровень 5500хт, если судить по шине), следовательно судя по калькулятору примерно 1,5бакса в сутки. (25 мегахеш)
Возьмём стоимость от вендоров примерно 400$ +налог (возьмём 20%) итого 480$.
480/1,5 = 320 дней окупаемости! При нынешнем то курсе. За это время опять может случиться обвал как в 18 году. Как итог, скажи каким нафиг майнерам это надо?
А ннет простите, это даже менее выгодно. Ведь потребление 5500хт даже ниже.
Напомню что практически по той же цене ранее(до бума) продавались 5700хт.
А теперь представим что ритейлеры опять задерут цены. И вот это чуда уже окупается более года.
Бзднуть в комменты что всё скупят майнеры, каждый может, ибо думать то вам запретили, сказали майнеры зло и скупят, значит в это и нужно верить. А вот посчитать, рассудить, подумать это не ваше. По вашему видимо майнеры купили за прошлый квартал не 25% карт, а 125%.
Думоть то когда будете? Барыги и без майнеров ценник завысят, просто по инерции, просто потому что дефицит, просто потому, что выгодно. Если надо создадут якобы дефицит.
Ах да в этом поколении очевидно, что рыксы майнят крайне плохо, ибо маленькое псп, но играм пофиг амд вкинула кеш. Нвидиа майнит куда бодрее.
Так я вам напомню, то что АМД использовала таки N7 т.е. первое поколение 7нм Т.П. ТСМС. А оно как раз тоже DUV.
И тут мы приходим к тому либо у интела микроархитектура не очень энергоэффективная.
Либо ТП херовый, что очень даже может быть, т.к. сами интел его признавали неудачным. Хотя и у тсмс были сложности с их N7.
Оно как бы понятно, но вот смысл сравнивать по сути с чем то старым? RDNA2, которая ожидается в тех же apu, а так же Ampere. Уже сегодня есть, и если GPU от интел каким бы он ни был будет конкурировать не с HD7970, а именно с актуальными видеокартами. Но GPU Интел выходит то не завтра. И он может выйти во временных рамках выпуска следующего поколения GPU, можно будет упомянуть с нынешним поколением адаптеров, но сравнивать то надо будет с актуальными графическими ускорителями.
.
Ну и раз уж вспомнили про встройки. То как бы rdna2 сильно лучше веги, как в играх так и энергоэффективности. Амд говорила про 50% производительности на ватт, от GCN к RDNA и примерно столько же к RDNA2. Как итог при переходе, мы получим таки не плохой буст производительности, особенно если из APU не вырежут тот IF кеш, что сгладит углы не очень быстрой DDR памяти. Хотя в купе с быстрой памятью будет таки не плохо. Но пока не DDR5 слишком высокие задержки. И тут боюсь встройки а то бюджетные дискретки интел будут не удел. Но это гадание на кофейной гуще.
.
Но в целом суть ясна, сравниваем с предложением от конкурентов.
А если сравниваем уже производительность, в тестах, можно сопоставлять и с предыдущими поколениями ради понимания, стоит ли обновляется не данный гпу.
.
«даже с rdna2», а сказал так, потому, что по временным рамкам там ближе какая-нибудь rdna3, а там уже совсем другой уровень. И конкурировать то придётся с rdna3.
Что значит «даже» с rdna2?.. уделывая новейшую архитектуру AMD и Nvidia.
То и значит, ибо пока интел, что-то выпустит, это уже будет не новейшая архитектура, а пост ген. А это минимум 2 года разницы, если говорить про туже нвидиа. А шансы на то, что интел будет конкурировать с нынешними GeForce 30хх и Rx 6000 так же не высок. Особенно учитывая топы. Ещё не понятно что у интела с лучами и матричными(тензорными) движками(ядрами). А это может привести к отставания в 2 и более поколения. А это уже 4 года разницы.
Что мы и видим сейчас, конкурируют с не игровой вегой. Даже если завтра интел что-то выкатит, и даже если будут конкурировать с GeForce 20ХХ, то это даже близко не победа. Проблема в софте, который практически не заточен под интел, даже у амд всё лучше, уж не говоря про CUDA. Хотя что-то у интел есть, я просто не знаю. Так же можно ожидать проблем с драйверами и не самую долгую поддержку продукта.
А самое прискорбное, что по мимо того, что это не конкурент, вероятно интел не привнесёт ничего нового в индустрию. Если амд вкатила на халяву фрисинк, дала асинки, выкатила потребителям HBM память, можно сказать дала нам api Vulcan, нвидиа дала физикс, задала тренд на лучи и первая их реализовала и многое другое. То вот интел не факт что даст хоть что-то революционное или хоть какие то фичи заслуживающие внимания.
А тут даже промышленный шпионаж не спасёт. Иначе бы АМД уже чуть ли не перегнала НВидиа. Или на оборот Нвидиа бы выперла АМД с рынка.
Так же есть шанс, что Интел очень быстро выпрут с рынка и Интел опять свернёт направление, оптимизируя прибыль. Либо изначально просто влезет в определённую нишу.
Не всё так просто и радужно как хотелось бы.
Я бы молиться особо не стал. Тест крайне показательный. Что это вот еле тягается с уже не свежей вегой, в играх, а вега изначально была не про игры а GPGPU. И та в составе встройки, а это как минимум иной теплопакет.
Оно даже с RDNA2 не может конкурировать, а ведь можно относительно скоро ожидать встройки с RDNA2, вон валв уже анонсировали свою портативку на данном железе.
И там разница с вегой будет весомой.
Ну и как бы не то, что бы у интел хорошие драйвера и поддержка продукта.
Т.е. тут скорей так разочарование, может на рынок оно и выйдет.
Но едва ли будет конкурентом, новых гпу амд и нвидиа.
Так что не возлагайте больших надежд.
Ну тк исторически не первый день на ТСМС первые производятся мобильные устройства.
… к. у аппла soc ~15 ярдов транзисторов...
Так это не о чём не говорит, на самом деле. Сам то ТП у них плотный и энергоэффективный. Но вот получить на нём адекватную частоту, априори нельзя. Будет высокое сопротивление.
Та же АМД дай бог использует только половину плотности ТП.
А всё потому, что не во всех узлах нужна максимальная плотность! А местами оно не очень хорошо. Ибо чем меньше транзистор, тем меньше в нём меди, тем выше сопротивление при повышенном вольтаже, что как бы нагрев, а из за высокой плотности транзисторов, ты не можешь адекватно отводить тепло, ибо будет высокий показатель плотности тепла. Т.е. ВТ/мм2. Вот как некоторая статья В которой кстати говорится про скачок сопротивлений от 7нм к 5нм.
И разница в том же сопротивлении между 15-25Вт моделью и 95-105Вт будет весомой.
Ну и да чисто 8 ядер zen2 требуют 3.8миллиарда транзисторов.
У zen3 4.15мтр.
IO чиплет 2.09мтр
Итого 4,15+4,15+2,09 = 10,39мтр. Что не так далеко от эпл в плане кол-ва. Но не забывайте что у эпл SoC, где есть графика, плюс аппаратные декодеры и прочие подобные блоки.
Для сравнения Ryzen 9 4900H (zen2)
Это 9.8мтр, (площадь 156 mm²)
а там и линий псие меньше, и их версия ниже, и кеша меньше(т.е. процессорная часть+IO требует меньше транзисторов), но вот есть графика со всеми вытекающими. Которая судя по всему занимает таки весомую часть.
Ну и опять же можно спокойно наблюдать, что от райзенов начиная с Zen2 достаточно сложно отводить тепло, хоть и потребление в целом не очень высокое. всему виной низкая площадь чиплета с ядрами. 74мм² и 80,7мм²(в случае зен3).
И да у яблока таки жирные ядра. Но вот у м1 транзисторов столько же сколько почти в 4 чиплетах с ядрами. Т.е. в 32 ядрах 64 потоках.
При том в м1 с 16лядрами, площадь то 120,5мм².
Представим потребление десктопов и получим 105Вт/120,5мм² ~87.1 Вт/мм2
Для примера у Zen+ 0,68 Вт/мм² (при 145Вт потреблении)
Zen2 1,28 Вт/мм² (при 95Вт)
Zen3 1,18 Вт/мм² (при 95Вт)
Притом нам не известны токи утечки у яблока и амд что бы их как то сравнить, а это роляет:
Ибо при низких токах утечки мы сможет достичь частоты X при гораздо более низком напряжении.
А при высоких требуется значительно меньшего напряжения, чем модели с малой утечкой, но в то же время они потребляют больший ток и нагреваются гораздо быстрее.
А так же помним, что вольт-частотная характеристика не линейна, а экспоненциальная.
Так что вероятно аналогичный по плотности процессор от амд, вероятно вышел бы той ещё печкой. При идентичных ТП.
Ну и на самом то деле кол-во транзисторов тоже не абсолютный показатель показатель. Ибо по сути то это зависит от архитектуры. И при сопоставимой производительности архитектур, можно использовать меньшее кол-во транзисторов. Тут зависит от удачных решений инженеров при проектировании тех или иных блоков.
p.s. кстати напомню что разница меж N7(тот что использует AMD) и N5(тот что использует Apple) весомая. картинка
1) интеловские 14нм++ примерный аналог 12нм из таблички (таблица для тсмс), ибо 10нм чуть плотней, но возьмём себестоимость чипа для 10нм, ибо допускаю что себестоимость 14нм++ интел таки будет ниже, чем указанная для 16/12нм.
2) Цены на чип в табличке указаны для 610мм2
3) соответственно цена 274/2,178= 125,80$ (610/280=2,178). Окей допустим брака меньше, по этому возьму даже 100$.
Вот вам и себестоимость, добавь сюда себестоимость проектирования, маркетинга и прочего, разделённого на кол-во объёмов выпуска и получишь себестоимость процессора.
И она точно не ниже 150$.
Что как бы уже нехилая чистая прибыль при рекомендованной в 540-550$, для партии в 1000шт(слегка оптовая цена).
Но по кол-ву rop, tmu которые как раз для игр и нужны всё хорошо, ну и матричные блоки хороши.
Разве что вопросы к подсистеме памяти 256 бит с gddr6 разве хватит. Да и кеша маловато для компенсации узкой шины. И не факт что производительности RT блоков хватит. Да и дата релиза только в след году. Так ещё я бы ждал проблем с драйверами и всякие графические баги.
Типо даёшь низкопрофильные затычки, со всеми аппаратными декодерами (включая AV1), с потреблением до 45Ватт, а вообще желательно, что бы был пассивный охлад, гига 4 памяти и какую никакую производительность, для старых игр и индюшатины.
И вот эта затычка пойдёт во все компактные сборки, можно в мультимейдиные, можно в офис. Да и для бич гейминга прям таки неплохо. Или как вторую карту в сборку, если параллельно gpu работает, а поиграть хочется. При условии вменяемого ценника.
А то сейчас сейчас затычки ну такие себе.
х86 конкретно для потребителя и десктопов самое то. Он хорош.
IA-64, основана на той же vliw. Соответственно преимущество, параллелизм и соответственно классно подходит для HPC. Вопрос зачем оно в настольных компах?
Тот же Risc прост в проектировании и очень энергоэффективен.
х86 прост в программировании, достаточно универсален и не так плохо работает с кешами.
.
Десктопы это тот сегмент, где тебе уже не так важно сколько потребляет процессор, сколько важна его производительность. А так же тебе практически и не упёрся высокий параллелизм. Почему? Просто на просто потому, что есть гпу, с simd движками, которые как раз и берут на себя всё, что хорошо параллелится. И оно априори справляется лучше.
.
Опять же то, что сегодня х64-86 имеет крайне посредственное родство с 8086. Банально у тебя каждую новую итерацию оптимизируется набор исполнительных блоков под инструкции, благодаря чему ты и получаешь прирост IPC. До того, что внутри процессор декодер может декодировать как комплексные инструкции (cisc), так и простые (принцип как и у risc)
.
А для того времени, когда программирование было не столь просто, переписывать весь софт, было экономически не выгодно.
.
И как бы да рыночек то порешал. Было бы всё так радужно и хорошо и было б ошибкой. Тогда тот же VLIW то бы взлетел и вытеснил х86.
Вот RISC в лице того же ARM занял нишу и уже вытесняет х86 из своей среды(устройств с небольшим потреблением). И инженеры(фуджитсу) постарались и залезли в топ500, были в банковском секторе.
.
И да на самом деле сервера, суперкомпы и заказным решениям немного пофиг на софт, там крутятся такие деньги, что могут и переписать софт. Или вообще написать с 0.
1 Сами интел, просто выставляют те же флаги, что бы софт понимал, что да как.
2 существует такая вещь как планировщик ОС, т.е. в теории сама винда будет рулить что куда.
3 За игры не парься, это достаточно низкоуровневое программирование и если задача вешается не на то ядро, это баг игроделов.
4 если представим что планировщик не умеет нормально распределять нагрузку и программирование высокоуровневое, то по первому пункту придётся ждать обновления софта, когда разрабы согласно меткам скажут как работать с малыми ядрами.
Но идея в десктопе, максимально тупая. Ибо по сути тот сегмент когда тебе не нужна максимальная энергоэффективность. Так вторая ситуация в том, что даже для энергоэффективность 8 малых ядер тебе вообще никак никуда не упёрлись. Т.е. 2-4 более менее неплохих и энергоэффективных ядер прям за глаза. И в идеале ты на эти ядра вешаешь фоновый софт, простые задачи и саму ось при том на постоянку и вот у тебя не поедается % производительности больших ядер. Но для этого не нужно прям таки 8 ядер
Так что по сути это какая то больше маркетинговая хрень вышла.
Что бы показать мол у нас вот тоже 16 ядер.
Стоит он у меня уже почти года 2. С вертушкой никаких проблем, хотя за компом часто.
Дело то всё в том, что просто бп не нагружен так, что бы вертушка постоянно крутилась. Так что пол года точно брехня, только если брак.
У меня корпусная вертушка на втулке сдохла примерно в промежутке примерно 2...3 лет, при работы пк в среднем 9+ часов работы в день. И она не шумела, но появилось биение. Так что вероятно, тут всё зависит от того как вы используете комп.
Но в целом то у человека, титановый блок и он вроде как пассивный.
Да и при желании на самом деле вертушку заменить не большая проблема.
В суд АМД подали в 2005-2006 за то, что подговорили вендоров, не покупать у амд, а те получали откаты
И оштрафовали их на 1,25-1,5лярда, в 2009. 4 года карл.
Но в 2012 интел оспорила решения суда! Из за чего возник пересмотр дела, который непон
И даже если выплатили, то урон нанесённый амд, куда выше. Просто потому что, это как снежный ком.
Не было б этого случая, у амд уже тогда был бы кусок рынка больше, при том с долгосрочными контрактами в корм сегменте. Так ещё бы были деньги на разработку новых проектов.
Что вообще кардинально меняет всю цепочку событий. И та же покупка ATI не сказалась так сильно.
Вероятно следующие архитектуры были б куда удачней. И вот уже была бы конкуренция все эти годы. А не жёсткая монополия интел.
И вопрос причём тут патенты? «за нечестную конкуренцию » сказа я, каким местом читал?
.
Тем более вы сильно всрались по временным рамкам.
Выплаты в 2009 условно. Zen 2017. Его разрабатывали в худшем случае лет 5.
Так что после выплаты интел шла строительная техника, а зен был даже и не близко. Это абсурдно примерно как, началась первая мировая война и тут сразу же мы победили во второй. А всё что в промежутке, да плевать неважно.
Интел выплатил пару лярдов, за нечестную конкуренцию во времена атлонов.
Но сделали это, через годы и притом, реальный ущерб был куда выше.
А начался zen после череды провалов, если можно так сказать. В виде строительной техники.
Не то что бы всякие феномы и фх были таки хорошие и всякие там apu. А почему вышел этот провал.
1) Амд решила увеличить ядра в фенах, что было слишком рано.
2) На фх уже бабок не было.
А денег не было т.к. купили АТИ. Что встало оч дорого. А ведь покупали по сути когда считай были на коне. Где интел подпортил малину.
После чего покупка АТИ тогда не принесла ожидаемой прибыли.
А так же по горло залезли в долги.
И дошло до того, что амд продали штаб квартиру и просто её арендовали. Это вероятно было уже при лизе.
И реально всё начало меняться когда Су поставили у руля. И Джим келлер был в команде.
Решили оставить по сути провальные пути, ибо микроархитектуры можно было и дальше улучшать, было куда. Но важный момент решили кардинально переработать архитектуру. Что заняло достаточно много времени. Это один из решающих фактором. Решили все же выпустить полноценные 8/16 в мейнстрим, практически по цене 4/8 интела. Плюс амд стала поставщиком чипов для консолей. Не то что бы это супер выгодно, маржа относительно небольшая, но деньги есть деньги. Так же важным фактором оказалась продажа фабрик. Которые амд финансово не тянули, что бы затормозило их развитие.
Так же 17год и майнинг бум. Тоже деньги.
А вот с выходом zen и пошёл путь в верх. Но и интел к этому не имеет отношения.
Vulkan, DX и соневский api для плойки. Ну и собственно есть ещё яблочный Metal api, но он в тему игр как то не особо. И как бы ничего норм. И так некоторая стандартизация уже прошла.
Но опять же да лишний API Нафиг то и не нужен по сути. Вот куда его, к чему и кто его будет поддерживать, развивать и на какие деньги.
Кол-во тепла на мм2 выходит не так много. Отвести можно. И раньше были 2х чиповые решения, отводили как то же тепло.
А вот в случае Нвидиа сложно. Говорят о монолите.
1 какая у него площадь.
2 Пиковое ли это потребление, у нв тдп ≠ пиковое потребление.
Вот если площадь и потребление будут сопоставимы с 3090 то всё ок, справиться можно.
А вот если 500Вт это тдп, то при пиках карта реально будет улетать.
Но вот 500Вт это всё же слегка многовато, ибо воздух греть оно будет не слабо.
Но так же стоит понимать, что уровень производительности будет высокий и не каждая игра по сути будет выжирать максимум ресурсов, при той же вертикалке уж точно.
Я так погуглил, это примерно уровень 5500хт, если судить по шине), следовательно судя по калькулятору примерно 1,5бакса в сутки. (25 мегахеш)
Возьмём стоимость от вендоров примерно 400$ +налог (возьмём 20%) итого 480$.
480/1,5 = 320 дней окупаемости! При нынешнем то курсе. За это время опять может случиться обвал как в 18 году. Как итог, скажи каким нафиг майнерам это надо?
А ннет простите, это даже менее выгодно. Ведь потребление 5500хт даже ниже.
Напомню что практически по той же цене ранее(до бума) продавались 5700хт.
А теперь представим что ритейлеры опять задерут цены. И вот это чуда уже окупается более года.
Бзднуть в комменты что всё скупят майнеры, каждый может, ибо думать то вам запретили, сказали майнеры зло и скупят, значит в это и нужно верить. А вот посчитать, рассудить, подумать это не ваше. По вашему видимо майнеры купили за прошлый квартал не 25% карт, а 125%.
Думоть то когда будете? Барыги и без майнеров ценник завысят, просто по инерции, просто потому что дефицит, просто потому, что выгодно. Если надо создадут якобы дефицит.
Ах да в этом поколении очевидно, что рыксы майнят крайне плохо, ибо маленькое псп, но играм пофиг амд вкинула кеш. Нвидиа майнит куда бодрее.
И тут мы приходим к тому либо у интела микроархитектура не очень энергоэффективная.
Либо ТП херовый, что очень даже может быть, т.к. сами интел его признавали неудачным. Хотя и у тсмс были сложности с их N7.
.
Ну и раз уж вспомнили про встройки. То как бы rdna2 сильно лучше веги, как в играх так и энергоэффективности. Амд говорила про 50% производительности на ватт, от GCN к RDNA и примерно столько же к RDNA2. Как итог при переходе, мы получим таки не плохой буст производительности, особенно если из APU не вырежут тот IF кеш, что сгладит углы не очень быстрой DDR памяти. Хотя в купе с быстрой памятью будет таки не плохо. Но пока не DDR5 слишком высокие задержки. И тут боюсь встройки а то бюджетные дискретки интел будут не удел. Но это гадание на кофейной гуще.
.
Но в целом суть ясна, сравниваем с предложением от конкурентов.
А если сравниваем уже производительность, в тестах, можно сопоставлять и с предыдущими поколениями ради понимания, стоит ли обновляется не данный гпу.
.
«даже с rdna2», а сказал так, потому, что по временным рамкам там ближе какая-нибудь rdna3, а там уже совсем другой уровень. И конкурировать то придётся с rdna3.
Ответ 112169983442202488143@google на комментарий
То и значит, ибо пока интел, что-то выпустит, это уже будет не новейшая архитектура, а пост ген. А это минимум 2 года разницы, если говорить про туже нвидиа. А шансы на то, что интел будет конкурировать с нынешними GeForce 30хх и Rx 6000 так же не высок. Особенно учитывая топы. Ещё не понятно что у интела с лучами и матричными(тензорными) движками(ядрами). А это может привести к отставания в 2 и более поколения. А это уже 4 года разницы.
Что мы и видим сейчас, конкурируют с не игровой вегой. Даже если завтра интел что-то выкатит, и даже если будут конкурировать с GeForce 20ХХ, то это даже близко не победа. Проблема в софте, который практически не заточен под интел, даже у амд всё лучше, уж не говоря про CUDA. Хотя что-то у интел есть, я просто не знаю. Так же можно ожидать проблем с драйверами и не самую долгую поддержку продукта.
А самое прискорбное, что по мимо того, что это не конкурент, вероятно интел не привнесёт ничего нового в индустрию. Если амд вкатила на халяву фрисинк, дала асинки, выкатила потребителям HBM память, можно сказать дала нам api Vulcan, нвидиа дала физикс, задала тренд на лучи и первая их реализовала и многое другое. То вот интел не факт что даст хоть что-то революционное или хоть какие то фичи заслуживающие внимания.
А тут даже промышленный шпионаж не спасёт. Иначе бы АМД уже чуть ли не перегнала НВидиа. Или на оборот Нвидиа бы выперла АМД с рынка.
Так же есть шанс, что Интел очень быстро выпрут с рынка и Интел опять свернёт направление, оптимизируя прибыль. Либо изначально просто влезет в определённую нишу.
Не всё так просто и радужно как хотелось бы.
Оно даже с RDNA2 не может конкурировать, а ведь можно относительно скоро ожидать встройки с RDNA2, вон валв уже анонсировали свою портативку на данном железе.
И там разница с вегой будет весомой.
Ну и как бы не то, что бы у интел хорошие драйвера и поддержка продукта.
Т.е. тут скорей так разочарование, может на рынок оно и выйдет.
Но едва ли будет конкурентом, новых гпу амд и нвидиа.
Так что не возлагайте больших надежд.
… к. у аппла soc ~15 ярдов транзисторов...
Так это не о чём не говорит, на самом деле. Сам то ТП у них плотный и энергоэффективный. Но вот получить на нём адекватную частоту, априори нельзя. Будет высокое сопротивление.
Та же АМД дай бог использует только половину плотности ТП.
А всё потому, что не во всех узлах нужна максимальная плотность! А местами оно не очень хорошо. Ибо чем меньше транзистор, тем меньше в нём меди, тем выше сопротивление при повышенном вольтаже, что как бы нагрев, а из за высокой плотности транзисторов, ты не можешь адекватно отводить тепло, ибо будет высокий показатель плотности тепла. Т.е. ВТ/мм2.
Вот как некоторая статья В которой кстати говорится про скачок сопротивлений от 7нм к 5нм.
И разница в том же сопротивлении между 15-25Вт моделью и 95-105Вт будет весомой.
Ну и да чисто 8 ядер zen2 требуют 3.8миллиарда транзисторов.
У zen3 4.15мтр.
IO чиплет 2.09мтр
Итого 4,15+4,15+2,09 = 10,39мтр. Что не так далеко от эпл в плане кол-ва. Но не забывайте что у эпл SoC, где есть графика, плюс аппаратные декодеры и прочие подобные блоки.
Для сравнения Ryzen 9 4900H (zen2)
Это 9.8мтр, (площадь 156 mm²)
а там и линий псие меньше, и их версия ниже, и кеша меньше(т.е. процессорная часть+IO требует меньше транзисторов), но вот есть графика со всеми вытекающими. Которая судя по всему занимает таки весомую часть.
Ну и опять же можно спокойно наблюдать, что от райзенов начиная с Zen2 достаточно сложно отводить тепло, хоть и потребление в целом не очень высокое. всему виной низкая площадь чиплета с ядрами. 74мм² и 80,7мм²(в случае зен3).
И да у яблока таки жирные ядра. Но вот у м1 транзисторов столько же сколько почти в 4 чиплетах с ядрами. Т.е. в 32 ядрах 64 потоках.
При том в м1 с 16лядрами, площадь то 120,5мм².
Представим потребление десктопов и получим 105Вт/120,5мм² ~87.1 Вт/мм2
Для примера у Zen+ 0,68 Вт/мм² (при 145Вт потреблении)
Zen2 1,28 Вт/мм² (при 95Вт)
Zen3 1,18 Вт/мм² (при 95Вт)
Притом нам не известны токи утечки у яблока и амд что бы их как то сравнить, а это роляет:
Ибо при низких токах утечки мы сможет достичь частоты X при гораздо более низком напряжении.
А при высоких требуется значительно меньшего напряжения, чем модели с малой утечкой, но в то же время они потребляют больший ток и нагреваются гораздо быстрее.
А так же помним, что вольт-частотная характеристика не линейна, а экспоненциальная.
Так что вероятно аналогичный по плотности процессор от амд, вероятно вышел бы той ещё печкой. При идентичных ТП.
Ну и на самом то деле кол-во транзисторов тоже не абсолютный показатель показатель. Ибо по сути то это зависит от архитектуры. И при сопоставимой производительности архитектур, можно использовать меньшее кол-во транзисторов. Тут зависит от удачных решений инженеров при проектировании тех или иных блоков.
p.s. кстати напомню что разница меж N7(тот что использует AMD) и N5(тот что использует Apple) весомая. картинка