Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
История не знает сослагательного наклонения. А значение имеет только общее потребление видеокарты.
Так ведь у нас тема о приросте производительности будущего RTX 5090 и энергопотребления именно у графического чипа.
Ведь второй раз фокус с меньшинством количеством чипов видеопамяти не сработает? Именно это я имел в виду в своём первом посте.
Факт остаётся фактом, графический чип RTX 4090 потребляет на 50% больше энергии, чем у предыдущей RTX 3090
А каким именно образом, поможет разница в потреблении конкретно кристалла ГПУ? Есть примеры подобной эксплуатации — одного, отдельно взятого ГПУ кристалла, без памяти и остальной обвязки?
Я просто хочу понять — в чем смысл этой разницы? Где и какую это может дать выгоду?
Зачем вообще об этом говорить?
Разница в том, что у RTX 3090 было больше чипов памяти, поэтому и энергопотребление памяти было вдвое выше. Обзор здесь.
То есть если произвести сейчас RTX.3090 с меньшим количеством чипов памяти — энергопотребление будет на 100 ватт меньше.
Затем, что процессоры сравниваются в одинаковых условиях. В частности «в стоке» — как предусмотрено производителем. Никто не сравнивал 7950X в стоке, с разогнанным 13900к.
Так ведь в стоке у Интел как и у АМД около 240 ватт, а с отключенными лимитами может быть 300 ватт и более.
Почему «опять»? RTX 4000 по потреблению, не отличается от 3000 линейки.
Отличается. GPU 3090 потреблял 239 ватт, а 4090 потребляет уже 353 ватт. То есть энергопотребление самого GPU выросло на 50%
Общее энергопотребление 4090 смогли стабилизировать на уровне 3090 лишь благодаря меньшему количеству чипов памяти.
Ice Universe все время зациклен на какой-то фигне. То на частоту обновления экрана молился — вплоть до советов держать подальше от 60 Гц. Да плевать мне, 60, 90, 120 — я не вижу разницы, вообще. Теперь вот рамки — да какая разница, 2 там или 1.5.
Разница есть при условии безглючности прошивки. А так то — да, иной раз при 120 Гц плавность хуже, чем у айфона с экраном 60 Гц
А зачем это делать, если прибавка производительности не стоит возросшего энергопотребления
Это справедливо и для любых других процессоров. Но почему то хейтерам выгоднее притягивать за уши энергопотребление Интел при частотах 6.0 ГГц.
При равных частотах Интел потребляют аналогично АМД.
Сейчас процесс может замедлиться из-за предела новых техпроцессов. АМД ещё несколько лет назад об этом говорила, что после 5 нм уже не будет такого профита в энергоэффективности…
Причём здесь падения? Никто не даёт гарантии на такие вещи. Я говорил про П.О телефона, Samsung куда чаще дох сам по себе, когда Nokia могла несколько лет работать и не глючить.
А про падения то тут спорное, у меня Nokia много раз падала и никаких проблем с этим не было.
Единственные глюки на самсунгах у меня были со связью и кривой цветопередачей экрана.
Мне нужно в 10 раз мощнее чем 4090. Вот тогда и соберу новый комп. Может кто подсказать, сколько мне ждать?
Спустя 10 лет после выхода Radeon 290X последний флагман Radeon RX 7900 XTX оказался лишь в 6 раз быстрее.
Так что через 15 лет будет карта в 10 раз быстрее RTX 4090
Тогда Samsung дохли через 3-4 года, а Hokia жила 5-7 лет.
Сейчас же Samsung более актуальный чем другие. По сути у него конкурентов почти не осталось.
У меня дохли как раз таки Нокиа. Я тоже в своё время верил в неубиваемость нокий, но это миф. Один раз нагнулся завязать шнурки и из кармана рубашки выпал телефон, после чего через несколько минут начались циклические перезагрузки. Вердикт мастера — от удара образовалась трещина в месте пайки. Я сказал, что падение было с высоты менее метра и поинтересовался о надежности нокий. Мастер сказал, что трещины в контактах чипов у нокий явление частое даже при аккуратном использовании без падений.
Вот кто у меня не боялся падений — так это Galaxy S3, который неоднократно летал даже с больших высот на асфальт и кафель, и на нем только коцки на экране оставались.
Самсунг продавала флагманы с крупными экранами и мощными 4-ядерными процессорамм за 600$ при частых акциях, а Нокиа толкала всякий хлам с мелкими экранами на дохлых одноядерных процах дороже.
Даже сегодя китайцы продавая за 700$ свои флагманы выглядят менее интересно самсунга
Отключи лимиты и поставь все ядра на 5.7 ГГц — и увидишь 300W
Не забыть ещё дров сухих сверху положить, а то вспыхнет впустую. Да, и с интелом дрова загорятся быстрее. И ярче. )))
Тогда и у Интел так сравнивай? Зачем лицемерно кричать о потреблении у синих на всех ядрах при 6.0 ГГц, а у красных смотреть питание в зашитых лимитах при частоте 4.5 ГГц ?!
Пусть лучше над надежностью своих камней поработают! После выхода последней линейки Ryzen уже немало процев скончались. Такого быть не должно.
Все хотят прирост, но не такой ценой.
Так ведь у нас тема о приросте производительности будущего RTX 5090 и энергопотребления именно у графического чипа.
Ведь второй раз фокус с меньшинством количеством чипов видеопамяти не сработает? Именно это я имел в виду в своём первом посте.
Факт остаётся фактом, графический чип RTX 4090 потребляет на 50% больше энергии, чем у предыдущей RTX 3090
Разница в том, что у RTX 3090 было больше чипов памяти, поэтому и энергопотребление памяти было вдвое выше. Обзор здесь.
То есть если произвести сейчас RTX.3090 с меньшим количеством чипов памяти — энергопотребление будет на 100 ватт меньше.
Так ведь в стоке у Интел как и у АМД около 240 ватт, а с отключенными лимитами может быть 300 ватт и более.
Я говорил о разнице энергопотребления самим чипом GPU, а не всей видеокарты.
Nokia 6700 — 2009 год
Отличается. GPU 3090 потреблял 239 ватт, а 4090 потребляет уже 353 ватт. То есть энергопотребление самого GPU выросло на 50%
Общее энергопотребление 4090 смогли стабилизировать на уровне 3090 лишь благодаря меньшему количеству чипов памяти.
Разница есть при условии безглючности прошивки. А так то — да, иной раз при 120 Гц плавность хуже, чем у айфона с экраном 60 Гц
Это справедливо и для любых других процессоров. Но почему то хейтерам выгоднее притягивать за уши энергопотребление Интел при частотах 6.0 ГГц.
При равных частотах Интел потребляют аналогично АМД.
Сейчас процесс может замедлиться из-за предела новых техпроцессов. АМД ещё несколько лет назад об этом говорила, что после 5 нм уже не будет такого профита в энергоэффективности…
Единственные глюки на самсунгах у меня были со связью и кривой цветопередачей экрана.
Спустя 10 лет после выхода Radeon 290X последний флагман Radeon RX 7900 XTX оказался лишь в 6 раз быстрее.
Так что через 15 лет будет карта в 10 раз быстрее RTX 4090
У меня дохли как раз таки Нокиа. Я тоже в своё время верил в неубиваемость нокий, но это миф. Один раз нагнулся завязать шнурки и из кармана рубашки выпал телефон, после чего через несколько минут начались циклические перезагрузки. Вердикт мастера — от удара образовалась трещина в месте пайки. Я сказал, что падение было с высоты менее метра и поинтересовался о надежности нокий. Мастер сказал, что трещины в контактах чипов у нокий явление частое даже при аккуратном использовании без падений.
Вот кто у меня не боялся падений — так это Galaxy S3, который неоднократно летал даже с больших высот на асфальт и кафель, и на нем только коцки на экране оставались.
Даже сегодя китайцы продавая за 700$ свои флагманы выглядят менее интересно самсунга
Тогда и у Интел так сравнивай? Зачем лицемерно кричать о потреблении у синих на всех ядрах при 6.0 ГГц, а у красных смотреть питание в зашитых лимитах при частоте 4.5 ГГц ?!
Отключи лимиты и поставь все ядра на 5.7 ГГц — и увидишь 300W
Чего не скажешь о 7950X с его 300 ватт
Все хотят прирост, но не такой ценой.