Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
А я и не присывал. Простая арифметика. Цена 8 ГБ HBM2 памяти — примерно 120$(возможно ещё меньше). Это включено в себестоимость каждой видеокарты. Себестоимость работ по нераспайке данного чипа на партии в тысячи штук явно будет в разы меньше. Тоже самое касается и Nvidia — стоимость 8 ГБ GDDR6 ~ 80$(возможно ещё меньше). Даже с учётом работ по изменению производства это максимум 100$ к себестоимости карты. О чём тут можно ещё говорить. Это чистые цифры. На партиях в десятки тысяч штук любое незначительное изменение в видеокарте — это мизер по сравнению со стоимостью ключевых компонентов. И в итоге реальность заключается в том, что один производитель решил добавить 120$ к себестоимости своей видеокарты стоимостью в 700$, а другой — зажал 100$ у видеокарт стоимостью в 800$.
avatar
Диванному воину, который целый день сидит в комментариях, странно кому-то рассказывать про организацию производства, особенно, если он в ней крайне мало смыслит.
avatar
Ахаха. Нефанат такой нефанатичный. Хоть ссы в глаза — всё божья роса. При чёт тут какая-то компания? Абсолютное большинство крупных компании — такие. И АМД тоже. И Интел. И Майкрософт. Это особенности развития и производства у крупных компаний.И ваша абсолютно упоротая речь, про то, что затраты на какого-то там инженера и на разводку платы помешали Nvidia добавить памяти — это речь лягушки, сидящей на дне колодца, и не видящий мир за его пределами. Нужно было бы для получения максимальной прибыли или удержания рынка — добавили бы. Точно также как и AMD могла выпустить данную видеокарту гораздо раньше. Нужно было бы — выпустили. Отличная ли это видеокарта? Крайне сомневаюсь, тут AMD просто пытается напомнить рынку, что они ещё существуют, чтобы падение популярности бренда было чуть меньше до момента подхода Navi. Поэтому и видеокарту эту раньше не выпускали — они понимали, что у них слишком большой промежуток до выхода новых GPU и его надо чем-то занять. И 16 ГБ — они тут не сильно нужны, но на фоне 6/8 ГБ у конкурента это уже аргумент(как бы кто не спорил, это аргумент в глазах рядового покупателя). 100% уверен, что если бы Nvidia знала о подобной подлянке со стороны AMD — то количество памяти они бы у своих моделей увеличили бы. Это — маркетинговые решения, которые влияют на такие большие деньги, что какой-то там инженер даже мечтать заработать за всю жизнь себе не позволит.
avatar
Я выше написал максимально понятно. Если даже и там не поймёте о чём я твержу — тогда мне остаётся только развести руками.
avatar
Вы путаете производство микросхем с обычным производством какого-нибудь станка или машины. Это очень разные по типу производства. Посмотрите видео на ютубе как производятся платы(без монтирования на них поверхностых элементов) и как затем поверхностные элементы на эти платы монтируются. Всё сейчас делается очень быстро, большинство изменений — автоматизированны и не требуют участия человека. К примеру операция нераспайки чипов всего лишь потребует небольшой расчёт(готов поспорить даже не потребует, ибо подобные вещи просчитываются заранее и уже заложены в схему и документацию) изменения нагрузки на цепи питания, внесения изменения в документацию изделия, небольшой перенастройки программы соответствующего станка, осуществляющего распайку поверхностных элементов, внесения изменений в программу тестирования видеокарты и в драйвера, в обёртку, а также соответствующие телодвижения других отделов связанные с запуском нового продукта(это всё тоже давно расписано). Всё это относительные копейки. Разумеется можно ещё вспомнить преддействия в виде анализа рынка и экономического обоснования. Однако это нормальная работа соответствующего отдела. И за всем этим мусором скрывается другой ФАКТ, который вы отказываетесь видеть — цену устройства здесь определяет не производитель видеокарты, а производитель GPU, который диктует стоимость и параметры производимой видеокарты. Если NVidia рассчитала, что данный чип GPU принесёт ей максимальную прибыль при таких-то параметрах(с учётом долгосрочного развития), то и условия для производителей видеокарт будут соответствующие. Себестоимость, здравый смысл нормального человека и хотелки покупателей здесь не играют особой роли, тут речь о чистой прибыли компании. Если компания посчитает, что ей выгоднее заблокировать часть мощностей GPU чипа и выпустить видеокарту с куцей памятью, чтобы затем, спустя полгода, добавить памяти, выпустив «обновление» видеокарты, а затем, спустя год выпустить ещё одну видеокарту, но при этом с разблокированным чипом, и при этом собрать максимальную прибыль — они это сделают. Компании не стремятся выпустить максимально хорошее устройство, они стремятся получить максимальную прибыль. И на фоне этого затраты рабочего времени инженера в многомиллиардных компаниях вообще никакой роли не играют. У них эти инженеры могут на постах годами быть и ничего не делать. Затраты на разработку(или переделку) видеокарты(не чипа GPU, а именно его обрамления в виде видеокарты) тоже на фоне этого — мизер, и всё давным давно поставлено на поток. Надо было бы — сделали. В условиях многомиллиардных поставок единичные затраты подобного рода не играют никакой роли. Я, собственно, это и пытаюсь донести. Неужели не понятно?
avatar
Очень близко к SOC, да. SOC — это всё же по определению практически полноценная система на чипе, подвёл питание и она будет работать. И в итоге возникает вопрос, а как отношения во всём этом чуде, что наворотили под крышкой процессора называть? Я это называю архитектурой процессора. То есть набора модулей внутри процессора и того, как организовано их взаимодействие. Есть другие предложения?
avatar
С чем тут можно не согласиться? Есть набор команд(архитектура и её расширения). Есть её реализация в железе(микроархитектура). С чем тут можно не соглашаться?)
avatar
Ну и да, расскажи про плановую себестоимость, про фактическую себестоимость, про то как считаются оные и как организовывается работа на производстве. Как учитываются затраты и какие они бывают. Ок, расскажи. Но только не забудь рассказывать про это исключительно в контексте вопроса и всей той херни, что ты выше наговорил. Производитель, плять.
avatar
А то, что у вас «смешались в кучу кони, люди» вас не улыбает? Вы так и не рассказали, какие же затраты и какое же рабочее время инженера потребуется для того, чтобы тупо не распаивать соответствующий чип на подложке(а это делается на линии автоматически без прямого участия человека) и небольшого изменения микрокода GPU(для того, чтобы он при работе игнорировал не распаянные элементы)? Или про то, как единовременная работа инженера по проектированию разводки платы для расположения на ней дополнительных чипов памяти вкупе с незначительным увеличением сложности производства оной(а отнюдь не чипы памяти) критически повлияют на себестоимость производства видеокарт серией в несколько сотен тысяч штук. Ты понимаешь, насколько ты херню несёшь? Данные работы спокойно проводятся сторонними производителями(т.н. нереференскные платы), но Nvidia, многомиллиардная компания, которая в сотни, а то и тысячи раз превосходит по обороту и стоимости компании, выпускающие нереференсные платы, разумеется не может себе это позволить. Ведь проблема тут не в том, что новые чипы Nvidia непомерно дороги в производстве из-за никому не нужных тензорных ядер и просто из-за жадности Хуанга. Проблема тут исключительно и только в дорогом рабочем времени инженера и сложности/дороговизне производства карт с удвоенным количеством памяти(как будто и не было в истории видеокарт с десятками распаянных на обеих сторонах чипах памяти). Л — логЫка!
avatar
3dNow — это команды РАСШИРЕНИЯ АРХИТЕКТУРЫ X86(а точнее — это расширение набора команд MMX, которое в свою очередь является расширением набора команд X86). Не надо путать микрокод, который и определяет как команды архитектуры X86-64 исполняются на процессоре с командами расширения архитектуры.
avatar
x86-64 — это архитектура КОММАНД CPU. Микроархитектура — это конкретная реализация данной архитектуры в железе. В современных компьютерах микроархитектура(к примеру ZEN) в процессоре обычно ограничивается модулем CPU, максимум — набором из нескольких CPU (CXX). А сам процессор состоит из нескольких модулей CPU (или CXX), GPU, модуля IO, L3(если не входит в CPU) и т.д. Я же тут говорю про то, как внутренние модули объединены и про то, как построено взаимодействие между ними.
avatar
То бишь сказать по сути нечего. И про производство электроники, которое судя по вашим знаниям вы видели исключительно на слайдах Nvidia мельком, мне не надо рассказывать. Его основы вы точно не знаете, иначе бы не писали чепуху про рабочее время инженера и экономику вопроса.P.S. Очень смешно слышать про фанатизм от человека, однообразные посты которого красуются на первом месте к каждой новости про AMD.
avatar
Это вполне обычная реакция на ваше однобокое и изначально предвзятое сообщение. Весьма странно слышать про «вторую сторону медали». Для того, чтобы так говорить, необходима «первая сторона медали». Вот только где она? А о том, что такое фанатизм, можно вполне увидеть по вашим сообщениям в данной теме. Про память — спасибо, поржал. Такую степень некомпетентности не встречал уже давно. Перед тем, чтобы писать по теме, вам бы неплохо было бы разобраться хотя бы в азах обозреваемых вами архитектур и основах схемотехники. Время инженера на незначительное изменение внешней разводки тут стоит копейки относительно остальных затрат. AMD вполне могла бы тупо не распаивать соответствующие модули памяти на подложке. Никаких операций, которые бы серьёзно затрагивали «рабочее время инженера» в данном случае делать вообще бы не пришлось, зато экономия была бы приличной, ведь HBM2 память стоит гораздо больше, чем GDDR6(X). Да, пропускная способность бы от этого упала. Но как вы правильно заметили, её и так много. Зато легко смогли бы продавать карту примерно по цене 2070. Тут я согласен — это было бы более разумно. Про использование системного ОЗУ — дичайший бред. Использование системной ОЗУ, которая и без того гораздо более медленная, чем GDDR, рождает очень большие задержки, которые критичны для производительности видеокарты. Фурия с 4 ГБ жила крайне хреного в тех местах, где требовалось больше 4 ГБ. И это прекрасно показывали тесты. Но особенно это проявилось в перспективе, когда через пару лет эта видеокарта превратилась в тыкву, не способную тянуть выше 1080p.
avatar
Все, кто хотели, уже давно насмотрелись на фотку Rome, где 64 ядра.
avatar
<<После своего выступления Лиза Су в приватной беседе намекнула на эту возможность: «Если вы посмотрите на эволюцию Ryzen, то у нас всегда было преимущество в числе ядер», — сказала она журналистам издания PCWorld. А потом с ухмылкой добавила: «Некоторые могли заметить в упаковке дополнительное пространство, и я думаю, что можно ожидать, что у нас будет более восьми ядер».>>
avatar
Какие ещё задержки? Тут архитектура другая.
avatar
Ага. Но при этом скромно умолчим, что перед этим акции AMD подскочили на 25%.
avatar
Не бойся, у Intel будет тоже самое.
avatar
Ничего странного нет, в том что он напоминает AMD’s EPYC ‘Rome’. Сейчас подобное строение будет практически у всех процессоров, в том числе и у Intel. Причина прозаична — гораздо дешевле IO и L3 делать по менее прогрессивным технологическим процессам(которые гораздо более дешёвые). Плюс модульная архитектура позволяет без особых проблем и затрат на лету переделывать процессоры под потребности рынка.Касательно его производительности, то выводы делать рано. Всё будет понятно, когда пойдут тесты Rome. Там уже будет видно, чем Zen2 отличается от Zen+ помимо модульности.Непонятно, к чему такое отношение к видеокарте. Nvidia же выпустила на потребительский рынок чипы с сугубо профессиональными тензерными ядрами — и ничего, многие фанаты даже причмокивают. Тут AMD куда лучше поступила — хотя бы 16 ГБ памяти оставила, а не поставила огрызок в 6/8 ГБ, как это сделала NVidia. Справедливость цены в 700 бачей опять же покажут только тесты.
avatar
Ох уж это ОЧКОвтирательство.Когда там уже технологию подэкранной камеры сделают?