Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Тогда насущный вопрос, с чего вы взяли, что они не могут удовлетворить спрос?
Они могут не хотеть его удовлетворять здесь и сейчас, а картина будет одна дефицит.
Как мотивация сверхприбыль.
Или вы считаете крупнейшие компании, которые управляют спросом путём маркетинга и используют механизмы планирования, дабы предсказать спрос, не могут его удовлетворить? Просто потому что! Сказали не не могу и всё! Такие что ли по вашему причины?
Как видим? Что помешает тем же AMD и Nvidia, поставлять товары в крайне ограниченном объёме или предумышленно производить меньшее кол-во продукции? Дабы искусственным образом создать дефицит товара на рынке? Учитывая что в данной отрасли конкуренции как таковой минимум и скорей монополия или олигополия. Т.е. Условно могло быть произведено под 4 миллиона адаптеров, даже если и меньше, это всё равно плохо коррелирует с тем что в магазинах таких адаптеров всего пару сотен, даже не тысяч. Так что причем тогда здесь кризис недопроизводства?
Вы бы лучше смотрели в корень проблемы. Как может быть дефицит высокотехнологичного товара в принципе? Ибо это как раз та сфера производства с высокой степенью автоматизации и минимальной степенью ручного труда.
Но и так же с достаточно низкой отдачей от капитала. И как мы видим, с дальнейшем прогрессом в области, кол-во продукции только растёт или его производительность.
Например при росте той же плотности тразистора, с одной кремниевой пластины будет выходить больше продукции при сохранении, кол-ва продукции. А так же и качество в том числе ибо растёт не только плотность, но и уменьшаются те же токи утечек. Или в принципе позволяет производить более сложный продукт, увеличивая транзисторный бюджет, ради ещё большей производительности.
И не так давно я примерно в комментарии считал объем производства.
По словам 3dnews, который привёл человек:
, AMD достигла потолка своей квоты на выпуск 7-нм продукции, из предназначенных для неё 150 тысяч кремниевых пластин в четвёртом квартале лишь 20 % будут содержать центральные процессоры Ryzen 5000 и графические процессоры Radeon RX 6000.
3dnews
На что собственно я примерно произвёл расчёт
Так то кремниевая пластина не маленькая, 300мм к примеру, что уже собственно примерно 70686мм2, ну ещё примерно вычтем 10%площади, под разрез и края. А учитывая то, что тех процесс зрелый кол-во брака должно быть менее 5%, при том учтите, что крайне мал шанс того, что будет брак где весь чип битый, который приведёт к полной неработоспособности.
Navi21 имеет размер 520мм2, что как бы всего 122 гпу с пластины. И путём биннинга или отбраковки из данного чипа получают 6800(хт) 6900.
Допустим из 30к пластин 20к пластин пойдут для производства чипа Navi, то всего чипов будет до 2.440к. За 4 квартал. А учитывая то, что производство началось до анонса, то должны быть какие никакие запасы.
Так что какой тут дефицит? Когда ритейлеру приходит всего навсего пара сотен адаптеров? при спросе несколько тысяч? Очевидно по большей мере искуственный и никоим образом не связан с производством. Ибо этот вопрос решается механизмами планирования.
Так то кремниевая пластина не маленькая, 300мм к примеру, что уже собственно примерно 70686мм2, когда к примеру размер CCD zen3 почти 84мм2, ну ещё примерно вычтем 10%площади, под разрез и края. То условно это примерно 757 процессоров с пластины. Что как бы и не мало. Другое дело это конечно биннинг + брак и то, что 1 такой CCD идёт и в потребительские решения вплоть до двух штук. В серверные и в хайэнд примерно до 8 штук на подложке. А учитывая то, что тех процесс зрелый кол-во брака должно быть менее 5%, при том учтите, что крайне мал шанс того,
что будет брак где весь чип битый, который приведёт к полной неработоспособности.
А вот для видеокарт всё печальней ибо navi21 имеет размер 520мм2, что как бы всего 122 гпу с пластины. И путём биннинга или отбраковки из данного чипа получают 6800(хт) 6900.
Допустим из 30к пластин 10к приходится на zen3, то это 7.570к процессоров, и соответственно 20к пластин для гпу 2.440к. За 4 квартал. А учитывая то, что производство началось до анонса, то должны быть какие никакие запасы.
Так что мне лично плохо вериться, в настолько жёсткий дефицит.
Но например в Японии производят DUV степперы, способные работать с техпроцессами вплоть до 10нм(по моему). А так же тот же фоторезист, и в частности 90% фоторезиста для EUVL производится японцами. Так же могут производить ту же оптику. Так что о чём вы, когда говорите что у японцев техпроцесса нет? И что вообще могут сами произвести китайцы, что бы научиться, нужно оборудование, ибо более тонкие тех процессы без оборудования не освоить.
Свои? Маловероятно, своё старательно прогадили. Но вот производить возможно бы и могли.
Ибо с 70х годов стандартизация ушла в сторону IBM, а не своих наработок.
Был к примеру Серге́й Алексе́евич Ле́бедев, который разработал архитектуру, которая базируется на тех же принципах, что и архитектура фон Неймана.
Он же выступал резко против начавшегося в 1970-е годы копирования американской системы IBM 360, воплощённой в серии ЕС ЭВМ.
.
Был например Лашкарёв, Вадим Евгеньевич который в 1941 году экспериментально открыл p-n переход в закиси меди. В том же году опубликовал результаты своих открытий в статьях «Исследование запирающих слоев методом термозонда» и «Влияние примесей на вентильный фотоэффект в закиси меди».
Но вот биполярный транзистор по итогу был только лет через 20 и у американцев, если память не изменяет, которые Texas Instruments. Так что просирать начали ещё и в СССР.
Например
БЭСМ 2 (1953) 20 000 Операций в секунду
IBM704 (1954) 12 000 Операций в секунду
А вот ваши примеры весьма удобны для вашего мнения, не манипулируете ли?
Как раз всё, что до ЕС ЭВМ, было в большинстве своём именно разработкой советов.
Но стоял вопрос унификации, ибо архитектур было много и они не были совместимы друг с другом, отсюда страдала программная часть.
А как раз Единая Система ЭВМ и была представителем, той самой стандартизации, только за основу взяли не свои разработки ЭВМ, а IBM и с 70 можно считать закатом советской микроэлектроники.
Даже при учёте оптимизаций, такого не будет. Берите любую новую игру с шильдиком амд, с актульным для игры драйвером и это и есть тот максимум.А в среднем по всем играм так и будет, как в новости. Разве что 3080 по памяти упрётся, но учитывая то, что память быстрая и карточка pci-e 4.0, по моему, всё равно может быть пофигу.
С gcn была только такая история, когда они стали быстрее за счёт нахождения в консолях и асинкам, в которые карты нвидиа долго не умели. А с вегой она по сути и не была быстрее в играх, просто со временем подешевела и люди нашли способ выжать ещё немного производительности. И т.д. Сейчас нет какой то ключевой технологии в руках амд, что бы ситуация повторилась.
А на SAM не рассчитывайте, нвидиа пообещал сделать тоже самое, т.к. основано на стандарте pci-e, и даже цифры производительности будут примерно те же.
А учитывая, что у амд блоки для расчёта лучей по хуже и рассчитаны на 1440p. Это как бы сильно ограничит производительность. А так же отсутствие как таковых NPU ядер для нейронок. Ибо амд в пакете fidelityfx представила Super Resolution(аналог длсс), которая будет основана на DirectML, то есть опираться она, как и решение Nvidia, будет на машинное обучение. Что указывает, на меньший профит от технологии.
Ну вообще вариантов много, как правило это просто эталонный вариант.
Т.е. фактически просто средняя элементная база и стабильная работа и не высокая цена.
К тому же данные варианты появляются естественно раньше, чем карты от партнёров, которым нужны чипы разного бининга, время на своё тестирование и разработку своих вариантов.
Ещё идея в том, что всю прибыль в данном случае получает сама компания, когда в случае с партнёрами прибыль чуть меньше, ибо наценка меньше.
Ну и последнее что приходит на ум, за частую имено на референсные варианты разрабатываются те же кастомные СО, в том числе и водяные. Под не референсы, такие СО выходят сильно поще и то, если выходят для конкретной модели. Что в купе с меньшей ценой, нежели варианты от вендоров, делает данный вариант достаточно неплохим.
но с лучами просто безумно отстаёт, на целую вселенную, это ещё не принимаем во внимание, что у нвидии с дх12 и длсс огромный потенциал и в 21-22 году когда все некст ген игры уже будут нормально оптимизированы под эти технологии, там разрыв колоссальный будет. А с лучами будет все больше и больше игр. Так что кто хочет за достаточно большие деньги получать полный функционал, то это только нвидиа. Амд пока в лучи не может.
Лул 2head.
На целую вселенную, на уровне тьюринга или немногим лучше. Что значит как бы отставание пол поколения, максимум одно.
Ой а про пакет fidelityfx, в который входи super resolution, Тот же апскейлинг, что и dlss.
все некст ген игры уже будут нормально оптимизированы под эти технологии, там разрыв колоссальный будет.
АХхахахах если только нвидиа заплатит. Когда пайп лайн амд получает априори оптимизацию, за счёт кросплатформы и консолей.
Ещё очевидный и легко решаемый минус карт нвидиа сейчас, очевидная нехватка памяти, вспоминаем 780(Ти) печи с их 3гб, которые со временем стали небольшим ограничением.
,
Одно благо, что карты нвидиа здесь и сейчас в целом чуть лучше, и хорошо так лучше в лучах и имеют тензорные ядра. Ну а недостаток памяти, которой может слегка не хватить под 4к некст ген с ультра настройками, решат выпуском Ti или Super карточек.
Ляя да чо вам объяснять. Ведь вы 5head.
Есть отличная идея, вырезаем все блоки как рудимент, оставляем один аппаратный декодер, называем это gpu указываем потребление менее 1Вт. И потом проводим тестирование в котором условная 3Dfx Voodoo сливает нашему «GPU». И говорим какая разница что да как, ведь «главное конечный результат.»
Вот это по вашему.
Здравствуй австралопитек, как оно там, как давно в леса интернет провели?
Потому что иным образом не могу описать полное отсутствие мыслительной функции.
В тексте новости, нагрузка ложилась, на asic или если точнее, аппаратный декодер, и тут плевать, МОБИЛЬНЫЙ GPU или ДЕСКТОПНЫЙ.
ЕСЛИ до вас всё ещё не дошло, сама суть такого блока, что он создаётся под определённые алгоритмы, для ускорения их выполнения, и для минимального энергопотребления.
В тесте который привёл я. Вас вообще не смущает, то что это поза позапрошлое поколение. На позапрошлом тех процессе? И это если считать 14>12>7нм(кастомные библиотеки рдна2 не берём в расчёт). При том М1 вообще на передовом 5нм, который пока ещё не доступен для десктопных решений и амд в частности.
Ничего, что потребление на прямую зависит от архитектуры и тех процесса?
А теперь смотри на производительность на ватт.
Может будем сравнивать с ещё более древними и более жрущими картами и будем удивляться, что мобильный чип превосходит их?
Не ну знаешь, у самсунга есть хотя бы концептуальные фишки, по типу управления безелем и бесконтактной оплаты MST(имитирование магнитной ленты карты), если не ошибаюсь. У яблока в принципе хорошие часы, немного в другом форм факторе, не изучал вопрос яблока, ибо не интересно.
Они могут не хотеть его удовлетворять здесь и сейчас, а картина будет одна дефицит.
Как мотивация сверхприбыль.
Или вы считаете крупнейшие компании, которые управляют спросом путём маркетинга и используют механизмы планирования, дабы предсказать спрос, не могут его удовлетворить? Просто потому что! Сказали не не могу и всё! Такие что ли по вашему причины?
Но и так же с достаточно низкой отдачей от капитала. И как мы видим, с дальнейшем прогрессом в области, кол-во продукции только растёт или его производительность.
Например при росте той же плотности тразистора, с одной кремниевой пластины будет выходить больше продукции при сохранении, кол-ва продукции. А так же и качество в том числе ибо растёт не только плотность, но и уменьшаются те же токи утечек. Или в принципе позволяет производить более сложный продукт, увеличивая транзисторный бюджет, ради ещё большей производительности.
И не так давно я примерно в комментарии считал объем производства.
По словам 3dnews, который привёл человек:На что собственно я примерно произвёл расчёт
Так что какой тут дефицит? Когда ритейлеру приходит всего навсего пара сотен адаптеров? при спросе несколько тысяч? Очевидно по большей мере искуственный и никоим образом не связан с производством. Ибо этот вопрос решается механизмами планирования.
что будет брак где весь чип битый, который приведёт к полной неработоспособности.
А вот для видеокарт всё печальней ибо navi21 имеет размер 520мм2, что как бы всего 122 гпу с пластины. И путём биннинга или отбраковки из данного чипа получают 6800(хт) 6900.
Допустим из 30к пластин 10к приходится на zen3, то это 7.570к процессоров, и соответственно 20к пластин для гпу 2.440к. За 4 квартал. А учитывая то, что производство началось до анонса, то должны быть какие никакие запасы.
Так что мне лично плохо вериться, в настолько жёсткий дефицит.
Ибо с 70х годов стандартизация ушла в сторону IBM, а не своих наработок.
Был к примеру Серге́й Алексе́евич Ле́бедев, который разработал архитектуру, которая базируется на тех же принципах, что и архитектура фон Неймана.
Он же выступал резко против начавшегося в 1970-е годы копирования американской системы IBM 360, воплощённой в серии ЕС ЭВМ.
.
Был например Лашкарёв, Вадим Евгеньевич который в 1941 году экспериментально открыл p-n переход в закиси меди. В том же году опубликовал результаты своих открытий в статьях «Исследование запирающих слоев методом термозонда» и «Влияние примесей на вентильный фотоэффект в закиси меди».
Но вот биполярный транзистор по итогу был только лет через 20 и у американцев, если память не изменяет, которые Texas Instruments. Так что просирать начали ещё и в СССР.
БЭСМ 2 (1953) 20 000 Операций в секунду
IBM704 (1954) 12 000 Операций в секунду
А вот ваши примеры весьма удобны для вашего мнения, не манипулируете ли?
Как раз всё, что до ЕС ЭВМ, было в большинстве своём именно разработкой советов.
Но стоял вопрос унификации, ибо архитектур было много и они не были совместимы друг с другом, отсюда страдала программная часть.
А как раз Единая Система ЭВМ и была представителем, той самой стандартизации, только за основу взяли не свои разработки ЭВМ, а IBM и с 70 можно считать закатом советской микроэлектроники.
С gcn была только такая история, когда они стали быстрее за счёт нахождения в консолях и асинкам, в которые карты нвидиа долго не умели. А с вегой она по сути и не была быстрее в играх, просто со временем подешевела и люди нашли способ выжать ещё немного производительности. И т.д. Сейчас нет какой то ключевой технологии в руках амд, что бы ситуация повторилась.
А на SAM не рассчитывайте, нвидиа пообещал сделать тоже самое, т.к. основано на стандарте pci-e, и даже цифры производительности будут примерно те же.
А учитывая, что у амд блоки для расчёта лучей по хуже и рассчитаны на 1440p. Это как бы сильно ограничит производительность. А так же отсутствие как таковых NPU ядер для нейронок. Ибо амд в пакете fidelityfx представила Super Resolution(аналог длсс), которая будет основана на DirectML, то есть опираться она, как и решение Nvidia, будет на машинное обучение. Что указывает, на меньший профит от технологии.
Т.е. фактически просто средняя элементная база и стабильная работа и не высокая цена.
К тому же данные варианты появляются естественно раньше, чем карты от партнёров, которым нужны чипы разного бининга, время на своё тестирование и разработку своих вариантов.
Ещё идея в том, что всю прибыль в данном случае получает сама компания, когда в случае с партнёрами прибыль чуть меньше, ибо наценка меньше.
Ну и последнее что приходит на ум, за частую имено на референсные варианты разрабатываются те же кастомные СО, в том числе и водяные. Под не референсы, такие СО выходят сильно поще и то, если выходят для конкретной модели. Что в купе с меньшей ценой, нежели варианты от вендоров, делает данный вариант достаточно неплохим.
Ответ 105654374148036738620@google на комментарий
Лул 2head.
На целую вселенную, на уровне тьюринга или немногим лучше. Что значит как бы отставание пол поколения, максимум одно.
Ой а про пакет fidelityfx, в который входи super resolution, Тот же апскейлинг, что и dlss.
Ответ 105654374148036738620@google на комментарий
АХхахахах если только нвидиа заплатит. Когда пайп лайн амд получает априори оптимизацию, за счёт кросплатформы и консолей.
Ещё очевидный и легко решаемый минус карт нвидиа сейчас, очевидная нехватка памяти, вспоминаем 780(Ти) печи с их 3гб, которые со временем стали небольшим ограничением.
,
Одно благо, что карты нвидиа здесь и сейчас в целом чуть лучше, и хорошо так лучше в лучах и имеют тензорные ядра. Ну а недостаток памяти, которой может слегка не хватить под 4к некст ген с ультра настройками, решат выпуском Ti или Super карточек.
Есть отличная идея, вырезаем все блоки как рудимент, оставляем один аппаратный декодер, называем это gpu указываем потребление менее 1Вт. И потом проводим тестирование в котором условная 3Dfx Voodoo сливает нашему «GPU». И говорим какая разница что да как, ведь «главное конечный результат.»
Вот это по вашему.
Потому что иным образом не могу описать полное отсутствие мыслительной функции.
В тексте новости, нагрузка ложилась, на asic или если точнее, аппаратный декодер, и тут плевать, МОБИЛЬНЫЙ GPU или ДЕСКТОПНЫЙ.
ЕСЛИ до вас всё ещё не дошло, сама суть такого блока, что он создаётся под определённые алгоритмы, для ускорения их выполнения, и для минимального энергопотребления.
В тесте который привёл я. Вас вообще не смущает, то что это поза позапрошлое поколение. На позапрошлом тех процессе? И это если считать 14>12>7нм(кастомные библиотеки рдна2 не берём в расчёт). При том М1 вообще на передовом 5нм, который пока ещё не доступен для десктопных решений и амд в частности.
Ничего, что потребление на прямую зависит от архитектуры и тех процесса?
А теперь смотри на производительность на ватт.
Может будем сравнивать с ещё более древними и более жрущими картами и будем удивляться, что мобильный чип превосходит их?
Окей и чем же они лучше тех же galaxy watch(3)? Тем более с первой итерацией?