Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Не знаю я как пользователь до сих пор считаю Симбиан самой удачной СМАРТФОННОЙ ОС. Ближе всего к нему Ведро он же Андройд. Единственное нужно было более подумать о том, чтобы Симбиан перевести на сенсорный тип интерфейса и проблем не было. А у мего не было будущего. Ибо ОС была для совсем уж знающих людей. Скажу, наверное, вещь, за которую меня заклюют, но по мне ОС не должна иметь ничего общего с открытым кодом.
avatar
Только не HBM а HBM2 сегодня как GDDR6 по сравнению с GDDR5X. Хотя разницы между последними лишь доступная максимальная реальная частота. Как передовали они 4 бита за такт так и передают. Для примера GDDR5 передает лишь 2 бита за такт. Это легко проверить сравнив реальную и эффективную частоту. Не забыв разумеется что это DDR. ;)
avatar
Нет ничего хуже когда кто-то за тебя решает что тебе нужно и как.
avatar
Это касается всех устройств данного типа. Тут вопрос скорей в необходимости этого конкретным пользователем. Ведь всегда можно сделать быстрее и холоднее через даунвольт. Но повторюсь даунвольт, как и апвольт сильно зависит от конкретного видеочипа.
avatar

Ответ zhevago на комментарий
Кастомные тайминги, память 1100+, даунвольт процессора — и в сумме получается совсем другая карта.


да так многие карты можно сделать совсем другими картами. Я например в свое время GTX280 тормознул до 180 Ватт по энергопотреблению с сохранением частоты. Видимо хороший чип попался что так дался посадить себя на диету.
avatar
более быстрая HBM вместо GDDR5X,

Ну да быстрее только для игр где порции данных спонтанны толку от нее. И вега 64 тому яркий пример.
и вишенка на торте — поддержка интерфейса PCIe 4.0 вместо PCIe 3.0.

Снова технологии от которых толку при таком быстродействии. Только пургу пускать в глаза потенциальных клиентов. Да и давать маркетологам инструменты в виде цифровой лапши.
avatar
Эхх Нокиа. Накой было концентрироватся на WP. И уж тем более забрасывать Симбиан. Хотя за обновку спасибо. Хотя сам до сих пор пользуюсь Nokia N95-8Gb…
avatar
Вспоминается бородатый анекдот. Глюки процессоров АМД+глюки чипов VIA порой творили чудеса. Видимо теперь АМД не нужны сторонние чипсеты для чудес.
avatar
К 2021 году Huawei должна быть полностью независима от американских технологий, добавил основатель компании.

Улыбнуло. Особенно соломка в виде словосочитания «должна быть». Видимо основательно компании сам не верит в это твердо.
avatar
Вы полностью правы. Именно поэтому они и стоят дороже аналогичных по частоте собратьев того же семейства. Ибо сфера их применения там, где нужна максимальная производительность при минимальном потреблении, причём стабильная. А максимальная производительность либо не нужна, либо нужна изредка. Те же самые миниПК или ноутбуки.
avatar
А пока с новыми драйверами 436.02 можно попробывать новые функции.
https://www.techpowerup.com/258440/nvidia-prepares-geforce-436-02-gamescom-special-graphics-drivers
Например Low Latency Mode аналог Anti-Lag от АМД. Потестю сейчас на GTX1080…
avatar
А тем времен в новых драйверах 436.02 появились новые функции
https://www.techpowerup.com/258440/nvidia-prepares-geforce-436-02-gamescom-special-graphics-drivers
Например Low Latency Mode — как понимаю функция для снижения лагов аналог АМД Anti-Lag. Ну и другие функции. На своем 1080 я пока в настройках нашел только эту фунцию.
avatar
да кстати про OpenCL у меня была долгое время карта HD6850. Ну так вот когда АМД решила прекратить поддержку это семейства. В одном из последних драйверов она взяла и вырубила напрочь вообще поддержку OpenCL у моей модели.
avatar
болтун пока вы когда говорили что NV поддерживает лишь 1.2 Я вам указал что есть видеокарты которые поддерживают 2.0 у него. Вы поняв что лоханулись придумали про профайлер отмазку и дальше разродились бредовой триадой.
А по-поводу вашего вопроса ну что нави в том виде в котором она была в нави 10 не конкурент тьюрингу. Ибо архитектура явно не такая универсальная как тьюринг. Поэтому и годится лишь как замена поларису но не веги. И это хорошо видно по 5700XT и ее энергопотреблению в 227 Ватт. А рефы вообще улетают за 265 при росте производительности всего на 2-3 процента. И 2070 Super при энергопотреблении в 220 Ватт так и разницы в производительности до 15 процентов и говорит о неудачности нави в реализации нави 10. Спорить дальше не буду вы хотели ответа вы его получили. Удачи.
avatar
Странно что не увидел в новости про майнинговый бум как причину падение в годовом выражении. Хотя читая новости про АМД и падение её финансовых показателей в говодом выражении на многих ресурсах именно такая была отмазка сего.
avatar
https://www.techpowerup.com/gpu-specs/galax-gtx-1070-katana.b4417
при двое большем энергопотреблении и требовании 8 пинового разъема. Плюс как понимай на китане центробежка стоит с испарительной камерой. Шум выше будет. Хотя по производительности она интересней героя соглашусь. Но все таки глупо сравнивать середнячка с ультрабюджетом.
avatar
А вот тест одной(PowerColor Radeon RX 5700 XT Red Devil) из новинок от того же ресурса
https://www.techpowerup.com/review/powercolor-radeon-rx-5700-xt-red-devil/
Ну что можно сказать производительней рефа на 3 процента. Энергопотребление возрасло с 227 до 265 Ватт.
https://www.techpowerup.com/vgabios/213112/powercolor-rx5700xt-8192-190808
узнать из информации описания биоса энергопотребление в различных режимах к сожалению нельзя. Только максимальные температуры в 115 Градусов. Видимо красные выжимают максимум из чипа опираясь теперь больше на температуру чем на энергопотребление.
avatar
Небольшая поправка к моему комментарию выше. Не 250 а 225 если не задирать лимиты. И 280 если их задирать т.е. +24 процента.
https://www.techpowerup.com/vgabios/203751/nvidia-rtx2080-8192-180828
avatar
Небольшая поправка к моему комментарию выше. Не 250 а 225 если не задирать лимиты. И 280 если их задирать т.е. +24 процента.
https://www.techpowerup.com/vgabios/203751/nvidia-rtx2080-8192-180828
avatar
Улыбнуло. Вот кстати ссылка на картинку на которую вы ссылались в плане энергопотребления RTX 2080 FE
https://fcenter.ru/online/hardarticles/videos/40397-Videokarta_NVIDIA_GeForce_RTX_2060_SUPER_FE_8_Gbajt_kogda_Super_ne_prosto_marketing#07
Стыдливо правда забыли упомянуть или не заметили что это данные когда картам дали волю проще говоря установили доступные лимиты потребления на максимум в ручную. Тоесть вышли за 100 процентов потребления которому и соответствует указанное TDP. Поэтому и не удивительно что такое потребление. И оно в принципе вписывается в указанные производителем. Тоесть карта если не задирать вручную лимиты потребляет до 250 Ватт. Если задирать т.н. +12 процентов то 280. В принципе по тестам мы это и видим.
https://www.techpowerup.com/vgabios/212453/nvidia-rtx2080super-8192-190606