Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
История не знает сослагательного наклонения. А значение имеет только общее потребление видеокарты.

Так ведь у нас тема о приросте производительности будущего RTX 5090 и энергопотребления именно у графического чипа.
Ведь второй раз фокус с меньшинством количеством чипов видеопамяти не сработает? Именно это я имел в виду в своём первом посте.
Факт остаётся фактом, графический чип RTX 4090 потребляет на 50% больше энергии, чем у предыдущей RTX 3090
avatar
А каким именно образом, поможет разница в потреблении конкретно кристалла ГПУ? Есть примеры подобной эксплуатации — одного, отдельно взятого ГПУ кристалла, без памяти и остальной обвязки?
Я просто хочу понять — в чем смысл этой разницы? Где и какую это может дать выгоду?
Зачем вообще об этом говорить?

Разница в том, что у RTX 3090 было больше чипов памяти, поэтому и энергопотребление памяти было вдвое выше. Обзор здесь.
То есть если произвести сейчас RTX.3090 с меньшим количеством чипов памяти — энергопотребление будет на 100 ватт меньше.
avatar
Затем, что процессоры сравниваются в одинаковых условиях. В частности «в стоке» — как предусмотрено производителем. Никто не сравнивал 7950X в стоке, с разогнанным 13900к.

Так ведь в стоке у Интел как и у АМД около 240 ватт, а с отключенными лимитами может быть 300 ватт и более.
avatar

И в частности… Мне очень интересно — при каких таких обстоятельствах, 3090 потребляет 239вт? В 1080р?

Я говорил о разнице энергопотребления самим чипом GPU, а не всей видеокарты.
avatar
У вас была поздняя Нокиа, с бессвинцовым припоем. А он очень хрупок. По сути это уже была не Нокиа. И это дерьмо пришло и в промышленность))

Nokia 6700 — 2009 год
avatar
Почему «опять»? RTX 4000 по потреблению, не отличается от 3000 линейки.

Отличается. GPU 3090 потреблял 239 ватт, а 4090 потребляет уже 353 ватт. То есть энергопотребление самого GPU выросло на 50%
Общее энергопотребление 4090 смогли стабилизировать на уровне 3090 лишь благодаря меньшему количеству чипов памяти.
avatar
Ice Universe все время зациклен на какой-то фигне. То на частоту обновления экрана молился — вплоть до советов держать подальше от 60 Гц. Да плевать мне, 60, 90, 120 — я не вижу разницы, вообще. Теперь вот рамки — да какая разница, 2 там или 1.5.

Разница есть при условии безглючности прошивки. А так то — да, иной раз при 120 Гц плавность хуже, чем у айфона с экраном 60 Гц
avatar
А зачем это делать, если прибавка производительности не стоит возросшего энергопотребления

Это справедливо и для любых других процессоров. Но почему то хейтерам выгоднее притягивать за уши энергопотребление Интел при частотах 6.0 ГГц.
При равных частотах Интел потребляют аналогично АМД.
avatar
Ну да. Логичнее лет 13 этого ожидать.

Сейчас процесс может замедлиться из-за предела новых техпроцессов. АМД ещё несколько лет назад об этом говорила, что после 5 нм уже не будет такого профита в энергоэффективности…
avatar
Причём здесь падения? Никто не даёт гарантии на такие вещи. Я говорил про П.О телефона, Samsung куда чаще дох сам по себе, когда Nokia могла несколько лет работать и не глючить.
А про падения то тут спорное, у меня Nokia много раз падала и никаких проблем с этим не было.

Единственные глюки на самсунгах у меня были со связью и кривой цветопередачей экрана.
avatar
Мне нужно в 10 раз мощнее чем 4090. Вот тогда и соберу новый комп. Может кто подсказать, сколько мне ждать?

Спустя 10 лет после выхода Radeon 290X последний флагман Radeon RX 7900 XTX оказался лишь в 6 раз быстрее.
Так что через 15 лет будет карта в 10 раз быстрее RTX 4090
avatar
Тут на первом плане стоит вопрос энергопотребления? Если будет опять +50%, — мне лично такое не надо
avatar
Тогда Samsung дохли через 3-4 года, а Hokia жила 5-7 лет.
Сейчас же Samsung более актуальный чем другие. По сути у него конкурентов почти не осталось.

У меня дохли как раз таки Нокиа. Я тоже в своё время верил в неубиваемость нокий, но это миф. Один раз нагнулся завязать шнурки и из кармана рубашки выпал телефон, после чего через несколько минут начались циклические перезагрузки. Вердикт мастера — от удара образовалась трещина в месте пайки. Я сказал, что падение было с высоты менее метра и поинтересовался о надежности нокий. Мастер сказал, что трещины в контактах чипов у нокий явление частое даже при аккуратном использовании без падений.
Вот кто у меня не боялся падений — так это Galaxy S3, который неоднократно летал даже с больших высот на асфальт и кафель, и на нем только коцки на экране оставались.
avatar
Самсунг продавала флагманы с крупными экранами и мощными 4-ядерными процессорамм за 600$ при частых акциях, а Нокиа толкала всякий хлам с мелкими экранами на дохлых одноядерных процах дороже.
Даже сегодя китайцы продавая за 700$ свои флагманы выглядят менее интересно самсунга
avatar
Отключи лимиты и поставь все ядра на 5.7 ГГц — и увидишь 300W
Не забыть ещё дров сухих сверху положить, а то вспыхнет впустую. Да, и с интелом дрова загорятся быстрее. И ярче. )))

Тогда и у Интел так сравнивай? Зачем лицемерно кричать о потреблении у синих на всех ядрах при 6.0 ГГц, а у красных смотреть питание в зашитых лимитах при частоте 4.5 ГГц ?!
avatar
300 ватт чего? Откуда цифра взята?

Отключи лимиты и поставь все ядра на 5.7 ГГц — и увидишь 300W
avatar
Ну так все логично — он же при игровой нагрузке, потребляет примерно 45~50вт.
Так что вполне вписывается в 65вт лимит дешёвой материнки.

Чего не скажешь о 7950X с его 300 ватт
avatar
Я бы такой взял за 200 сразу.
avatar
Дыма без огня не бывает
avatar
Пусть лучше над надежностью своих камней поработают! После выхода последней линейки Ryzen уже немало процев скончались. Такого быть не должно.
Все хотят прирост, но не такой ценой.