Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Ну не знает автор разницы между ГГц и ГБит/с, что ж тут поделаешь...
UPD а нет, извиняюсь, все верно в статье было. Эффективная частота GDDR6X в RTX 3090 действительно составляет 19,5 ГГц, что обеспечивает ПСП в 936 Гб/с
avatar
В чем обходит, в тесте Geekbench в OpenCL? А может лучше все ьаки тесты в играх смотреть а не цифрами в бенчмарках мериться? Кстати, раз уж ты так уверен что новая интеловская встройка легко обходит встройку в Райзенах, у тебя случайно нигде не завалялись тесты этой чудо встройки именно в играх, ну чтобы подтвердить свои слова?
avatar
Чертовы философы, уже и до электроники добрались… Может сразу перейдем к вопросу со стаканом с водой: он наполовину пуст или наполовину полон))))
avatar
Отсутствие конкуренции бесспорно толкает такие компании на повышение цены. Но вопрос остается в силе — где реальные доказательства того, что 30 серия будет оверпрайсом? Для того чтобы сказать что новые видяхи Nvidia будут оверпрайснутыми нужно знать их цены И!!! их производительность. Ваши предчувствия тут не проканают за доказательства, только железные факты. Я лично тоже ожидают что 30 серия будет стоить дороже чем должна, но я не делаю таких утверждений с уверенностью в своей позиции, потому что нет еще никаких фактов доказывающих это
avatar
Хотелось бы написать с матами, но я воздержусь.Нанометры уменьшаются? Чипы становятся меньше? Вы хоть сами то видели цифры? Разбирались в техпроцессах? Смотрим топовые чипы начиная с 700 линейки (2013 год).
780Ti, архитектура Kepler, 28 нм, площадь чипа 561 мм2, цена 700$.
980Ti, Maxwell, 28 нм, 601 мм2, 650$
1080Ti, Pascal (тот же самый Maxwell без каких либо серьезных изменений), 16 нм, 471 мм2, 700$
2080Ti, Turing, 12 нм (немного измененные 16 нм, по сути 16+), 754 мм2, 1000-1200$
Вопрос — где тут связь с тем что вы написали? Переход с Pascal на Turing это случай аналогичный переходу с Kepler на Maxwell — большие изменения в архитектуре при по сути том же техпроцессе. Только вот различия в том, что архитектуру изменили в том направлении, на которое далеко не все умеют смотреть, так как именно сейчас не видно выхлопа от RT и тензорников, однако это технологии на будущее. Плюс существенно увеличилась площадь кристалла, с 471 до 754. В каком месте вдруг у вас уменьшались нанометры но не цена и производительность? С 7 по 10 серию росла производительность на доллар, в 20 серии тоже, только это именно сейчас не заметно поскольку ставка была сделана на трассировку лучей — технологию, которая будет активно использоваться уже через несколько лет. И можно наглядно увидеть как сильно поднялась производительность на доллар в играх с рейтрейсингом. RTX 2060 с ценой 350$ выдает при использовании RTX больше фпс, чем GTX 1080Ti за 700$… Вот странно, все эти вопли про то что цена и производительность не меняются хотя прогресс «типа идет» начались после выхода Turing. До этого люди всегда видели что новая видяха при цене равной карте прошлого поколения дает больше фпс. Вот только 20 серия видимо была предназначена только для больших умов, которые понимают что игры начинают переходить на рейтрейсинг, и 20 серия направлена на увеличение мощности именно в нем. Да, в играх текущего поколения 20 серия вообще практически не привела к изменению показателя фпс/доллар. Но кого волнует что в рейтрейсинге мощности повысились в разы, и это мы даже не учитываем перспективный DLSS. Посмотри например в Metro Exodus как 1080Ti (я напомню, она стоила 700$) справляется с рейтрейсингом. А теперь глянь как с ним справляется 2060 (350$) с активным DLSS… Я думаю комментарии излишни. А ведь таких игр с каждым годом будет все больше и больше, потому что рейтрейсинг наконец таки можно будет включать на любом пользовательском железе так как для него будет достаточно ресурсов. Все видяхи нового поколения будут иметь аппаратное ускорение RT, равно как и новые консоли. Через пару лет чуть ли не в каждой крупной игре будет трассировка, причем вполне возможно неотключаемая, вот там то и будет ясно говно ваш RT или нет, есть рост производительности на доллар или нет
«Почему графон всё то же мутное фуфло? Где реалистичные деревья, кожа, текстуры» это вопросы не ко мне и не к Nvidia, а к разрабам, которые в силу нехватки вычислительных ресурсов у пользователей не могут реализовать все это в кратчайшие сроки
avatar
Вы вообще что хотели сказать? Сначала говорили про поколения, потом переключились вдруг на сегменты… Я не спорю что 20 серия была дорогой, а вы хотя бы разобрались почему? Я конечно не отрицаю что Nvidia из-за отсутствия конкуренции в топовом сегменте начали задирать цены, но вы хотя бы посмотрите на 20 серию с точки зрения производства. 12 нм в Тьюрингах это почти то же самое что 16 нм в Паскалях, лишь небольшие доработки по энергоэффективности. Для RT и тензорников пришлось ильно увеличивать транзисторный бюджет, и в результате чипы разрослись до невероятных размеров. У TU102 площадь 754 мм2, для сравнения у топа на Паскале было всего 471 мм2. Это серьезно увеличивает себестоимость чипов. Это все конечно не отменяет того, что 20 серия была очень дорогой (оверпрайснутой тут не подходит, именно дорогой), но с чего вдруг уверенность что и 30 серия будет такой же дорогой? Именно уверенность, а не предположение. Есть какие то доказательства что 30 серия будет оверпрайсом? Например цены (официальные конечно же) и тесты производительности, в том числе с RT, есть? Если нет, то откуда же уверенность в том что будет оверпрайс? Просто потому что вам так захотелось в это поверить или вы это почувствовали? Ну, это не доказательства
avatar
Я с этим и не спорю, претензия то была к тому что написал господин выше, про то что мол нафиг 3090 не сдалась с такой ценой. Если конкретно он не сможет купить видяху по такой цене еще не значит что она не имеет смысла и не найдется покупателей
avatar
Мде, вы ведь даже не смотрели на характеристики. Ничего что судя по всему это замена текущему Титану стоимостью 2500$? Ну конечно, раз обычный работяга не может купить ее, а какой нибудь дизайнер хочет и МОЖЕТ для своей работы купить ее, то он не должен этого делать, и вообще нахрена Nvidia выпускает чипы дороже 200$? Когда ж вы уже вымрете, люди которые не понимают что у каждого продукта свое назначение. Конкретно 3090 и Титаны это полупрофессиональные карты. У вас нет например цели тренировать свою нейросеть и/или нет денег на такую карту — с чего вдруг карта то виновата в этом? С такой же логикой давайте все Титаны, Квадры, Теслы и прочие проф видяхи перестанем выпускать, потому что не все могут их купить…
avatar
Судя по всему 3090 это дешевая замена текущему Titan RTX. 24 Гб, чип мощнее, трассировка значительно мощнее, и за все это 1400$ в OEM вместо 2500 за Титан на Тьюринге. Если все окажется действительно так, то эта видеокарта очень даже хороша за свои деньги. Хотя надо дождаться релиза, осталось то всего пара дней, тогда и будет ясно что из себя представляют новые карты
avatar
Да хватит уже делить шкуру не то что неубитого, а еще не найденного медведя… Официальной цены пока нет. Есть слухи, и данный «слив» (не факт что настоящий, но все же похож на правду). По слухам на 3060 будет иметь ценник в 400$, что у нас трансформируется в 36к. Но это слухи. А считать по этим китайским ценам это вообще бред, так как это нереференсы, причем не факт еще что не топового уровня, так еще и уже с китайскими налогами. Как будто в Россию новые видяхи будут приезжать из розничных магазинов Китая… Так что надо ждать официальный ценник, и уже тогда все станет ясно с ценой
avatar
Согласно самым последним слухам 3070 будут продавать за 600$, при том что 2070 была за 500. Но это слухи, надо ждать релиза. Возможно кстати и не так долго ждать осталось, так как есть вероятность что 3070 представят вместе с топами 1 сентября
avatar
Ну да, аппаратное ускорение RT и DLSS это мусор. Так и запишем… вот только вы даже видимо не знаете деталей этих технологий и их перспектив
avatar
Эх, как же я обожаю когда люди уверены в чем то когда еще никаких данных нет… Цена не объявлена, тестов производительности нет. Но вы уже уверены что новые видяхи будут дороже и не дадут соразмерный прирост производительности. И да, с чего бы вдруг ругать новые видяхи за большой буст производительности рейтрейсинга если RT это будущее игровой графики?
avatar
Intel сумели догнать AMD только в 10 поколении, если не учитывать одноядерную производительность. 10 поколение не спорю, вышло хорошим, за исключением правда TDP. Но именно на рынке HEDT уже лидируют красные. И ладно еще когда речь заходит о плохо параллелящимся софте, там процы идут примерно вровень, так как одноядерная производительность у Zen2 и Cascade Lake примерно одинаковая. Вот только Интел на HEDT дает максимум 18 ядер, в то время как AMD вплоть до 64. С таким даже 28 ядерные Зионы не могут потягаться. Серверы, как я уже и сказал, во многом заточены под Intel, и пока софт не будет оптимизирован под AMD, серверы не будут спешно переходить на Эпики, но они уже потихоньку это делают. Рынок потребительских процов довольно сложен. В тех же играх Райзены отстают по большому счету лишь по двум причинам — оптимизация под Интел, в частности при помощи их компилятора, и задержки между ядрами в разных CCX и уж тем более в разных CCD. Можно еще конечно записать сюда более высокие задержки памяти, но это спорный момент, так как это компенсируется большим кэшем. Intel только в 10 поколении дали столько же ядер/потоков сколько и AMD за равную цену. Но впереди очередной этап. В Zen3 увеличат IPC, примерно так же сильно как при переходе с Zen+ на Zen2. Плюс нарастят частоты. Ну и самым главным будет увеличение CCX до 8 ядер, что избавит Райзены от одной из самых их главных проблем. Про Rocket Lake же известно немного, только что поднимут IPC, предположительно на 15-20%, и что техпроцесс останется 14 нм. Я буду только за конкуренцию, так как это в конечном счете окажется на руку всем покупателям. Но если Rocket Lake не покажет хороших результатов, то AMD имеет все шансы вырваться вперед и на этом рынке. Я нигде не говорил что Intel проиграли. Они все еще конкурируют с AMD, но проблема в том что красные развиваются гораздо быстрее, и тем самым активно завоевывают рынок. Идеальный вариант конечно это чтобы была жесткая конкуренция во всех сферах ЦП. Но Intel долго сидели без дела, в то время как AMD их где то догоняла, а где то уже перегоняла. В любом случае, конкретно сейчас я бы оценил продукцию Intel и AMD как примерно равную — где то лучше одни, где то другие. Вопрос только что будет дальше, и ответ на него должен быть в ближайшие полгода
avatar
Intel сейчас конкурирует с AMD только в нотбучных процах и в десктопах для простых смертных. В HEDT они уже проиграли красным. В серверах в принципе то же самое, AMD предлагает больше мощности за те же деньги. Но серверный рынок очень инертен, там очень много сейчас софта не заточенного под Zen. А так, если посудить здраво, Intel потеряла HEDT, теряет серверы, их теснят в обычных десктопах, да и в мобильной сфере все тоже не так однозначно. Согласен, AMD нужно было активно развиваться чтобы догнать Intel, но сейчас мы стоим на пороге когда они окончательно обгонят их. Если говорить про десктопы, то основное направление где сейчас лидируют процы от синих это игры. На это влияет сразу несколько факторов, и в Zen3 будет исправлен один из них — медленное межъядерное соединение за счет расширения CCX с 4 ядер до 8. Плюс еще увеличится IPC и нарастят частоты. И Райзены будут и дальше улучшаться, а если Intel не возьмется за ум, то потеряют и этот рынок. Опять же, я за развитие Intel, ибо если они сдадут позиции, то мы рискуем оказаться перед монополией AMD, аналогичной той что была у Intel до выхода Райзенов. Отсутствие конкуренции снизит темпы развития и повысит цены, чего никому не хотелось бы. Но реальность такова что динамика развития ЦП у AMD гораздо выше чем у Intel, и если в серверах и HEDT AMD уже обошла Intel, то в сфере простых пользовательских решений обойдет уже очень скоро, может быть даже в Zen3, если Intel так и продолжат ничего не делать
avatar
Ну, поехали по порядку. Действительно техпроцессы нельзя сравнивать напрямую, но нужно четко понимать причинно-следственные связи. 12 нм TSMC на которых производятся Тьюринги от Nvidia это на самом деле чуть допиленные 16 нм, которые использовались в Паскалях. Улучшили энергоэффективность, подняли частоты, но плотность транзисторов осталась та же. Одновременно с этим введение RT и тензорных ядер потребовало серьезное увеличение транзисторного бюджета, отсюда серьезно выросла площадь чипов и их себестоимость. У AMD же другая проблема — техпроцесс на момент выхода первых Нави не был обкатан для больших чипов, поэтому для того чтобы цены остались на адекватном уровне решили не делать огромные кристаллы. Поэтому топом у AMD пока что является 5700XT а не какая нибудь 5900XT. И да, сейчас 5700XT вполне конкурирует с 2070S, если конечно не брать в расчет рейтрейсинг и DLSS. А вот в новых картах нас ожидает очень жесткая борьба, ибо Nvidia перейдет на по настоящему новый техпроцесс, а не 16++, а AMD будет выпускать большие чипы. Да и вообще, техпроцессы влияют не на производительность, а на соотношение цены к мощности и энергопотреблению. Для простого пользователя по большому счету не важно на каком техпроцессе изготовлен чип.
Интел то конечно выпустит Rocket Lake, даже вроде как в этом году, да вот только это будет архитектура для мобильных процов, а десктопы дай бог в 21 году перейдут на новую архитектуру с увеличенным IPC, если не позже. Про 10 нм спорить не буду. Какой бы сложной ни была технология в освоении, Интел проигрывают гонку, причем не в цифрах нанометров. Их 10 нм это примерно как 7 нм TSMC. Вот только TSMC уже в 21-22 году собирается переходить на свои 5 нм, а Интел дай бог к этому времени запустят десктопы на 10 нм… Ну а по поводу архитектуры Интел, да она развивается, но настолько медленно, что это даже развитием то назвать сложно. Посмотрите как AMD за всего 2 поколения развила Райзены, насколько велика разница между первым и третьи поколением. Архитектура серьезно развивается из года в год. У Интела развитие уже 5 лет происходит по формуле +ядра/потоки +частота +TDP. Процы с разницей в 5 лет на равных частотах и с одинаковым количеством ядер/потоков идут вровень. О каком развитии архитектуры тут можно говорить? В то же время Райзены тчоно так же наращивают частоты и ядра/потоки, но при этом увеличивается и одноядерная производительность, наращиваются кэши, исправляются косяки с низкой скоростью IF. AMD однозначно показывает большую динамику в развитии своей продукции нежели Intel
avatar
Суть в том что помимо нестабильного времени кадра и всех вытекающих проблем многие жалуются на задержки в управлении во многих играх, именно на Гиперпнях и i3 2/4.В то время как про 8 ядерные FX таких претензий практически нет, да и я лично сидел на 8350 и спокойно без каких либо проблем играл во все игры, в том числе Shadow of the tomb raider и Hitman 2016. Я сейчас не говорю про разумность покупки той или иной платформы, разумеется под апгрейд лучше взять Гиперпень ибо есть куда апгрейдиться. Но вот если сравнивать чисто вопрос производительности и комфорта в играх, то FX однозначно обходит Пенька. И ладно еще Гиперпень, раньше ведь были индивиды которые сравнивали FX 8000 с обычными Пнями на 2/2… там то вообще все печально было. Сейчас 8 ядерные FX в современных играх идут примерно на уровне i5 тех лет, в некоторых играх по стабильности времени кадра вообще наступают на пятки i7
avatar
Ну, во-первых, не AMD выкатили 7 нм а TSMC, у AMD нет своего производства. Во-вторых, 3000 серия Райзенов не полностью на 7 нм. Чиплеты с ядрами да, изготавливаются по 7 нм TSMC, а вот IOD на 12 нм, если я не ошибаюсь GlobalFounries. Вот такая занимательная квантовая физика)) Да и будем объективны, 10 поколение Интела вполне себе конкурентноспособно в потребительском сегменте (до i7 включительно) и предлагает те же или даже чуть большие мощности за +- ту же сумму. Но вот только это ненадолго, поскольку уже через несколько месяцев выйдут 4000 Райзены, и где там окажется Интел хрен его знает. Только-только догнали в этом сегменте рынка AMD по соотношению производительность/цена, и почти сразу же опять отстанут. А все потому что у Интела сразу две огромные проблемы — заводы не могут освоить 10 нм и инженеры свою работу не работают из-за чего уже 5 лет выпускаются одни и те же процессоры
avatar
Шизик, у тебя мозги то есть или потерял где? Какая польза сейчас от PCI-E 4.0? Если видеопамяти хватает и она не переполнена, то PCI-E 4.0 x16 почти не отличается от 3.0 x8. Это первое. Второе, да появится DDR5, а что DDR4 резко станет говном? Сейчас на DDR3 можно нормально играть, а ведь DDR4 уже 5 лет на рынке. И вообще ты хоть понял про что я говорю? Я не говорил что текущие более мощные процы смогут нормально тягаться с новыми, я лишь говорю про то что на более мощных процах можно будет гораздо дольше без проблем играть в игры. Например в 2013 году для всех игр хватало i3. И что он сейчас тянет? Зато тогда можно было купить проц с запасом, например i7, и о чудо, он до сих пор тянет игры. Да, не идеально, но тянет, в отличие от i3. Приложения на фоне нихера не жрут? Я не спорю что они не жрут дохрена, но они в любом случае требуют ресурсы, как оперативы, так и ЦП. Про упор в видяху можешь не начинать. Опять же история, i3 раньше загружал даже топы на максимум, а сейчас это ему не помогает, потому что он везде статтерит и имеет задержки в управлении. Весь вопрос в следующем: если хочешь собрать комп подешевле чтобы хватило на несколько лет — бери R3 3300X или i3 10100. Если готов переплатить за то чтобы у тебя проц в течение большего времени тянул игры — бери более мощные процы. Я хоть где то сказал что 8 поточные процы хлам и что их не надо покупать? Я сказал конкретную вещь — больше мощности — больше запаса на будущее. И твой вопрос в конце не имеет смысла, так как если такие процы не нужны тебе это не значит что они не нужны другим
avatar
Это где его производительности не хватает? Да, 60 фпс на нем не увидишь, но если нет денег на апгрейд то на Фикусе васе еще можно спокойно играть в любые игры. 2 поточные Пеньки даже 3 Ведьмака не потянули, что уж говорить про мультиплеер BF1 и BF4, Хитмана, Ларку и многие другие игры. И дело то даже не в фпс, а в постоянных статтерах и задержке в управлении. Вопрос именно в запасе на будущее. Какими бы слабыми ядрами не обладал FX их там 8, и когда игры начали нормально распараллеливать возросшую нагрузку он вырвался вперед. Не спорю, i7 он в любом случае не может догнать, но факт в том что игры развиваются, и если раньше 8 ядерные FX действительно плелись где то в конце таблиц, наравне с 2 поточными Пнями, то в современных играх они конкурируют с i5-i7