Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Спасибо! Буду знать, хотя навряд ли стану использовать. Так как лично мне подсветка не мешает, даже наоборот, а приложение удобнее своё.
avatar
Возможно. Так как запустил, посмотрел, удалил и забыл. Потому что использую всегда Afterburner — мне она привычнее.
avatar
Есть что-то лучше на данный момент? Даже самая первая RTX 3080/10 была нацелена на 4К и в основном справлялась с задачей. Данная карта ещё мощнее в 1,5 раза! И пока не выйдет 4е поколение так и останется.
avatar
Вы в бенчи играете? Данный сайт уже много лет существует и не специализируется на разгоне, хотя иногда в тестах он присутствует. Как тут если внимательнее прочитать:
«Я попробовал ручной разгон и получил максимальные частоты 2150/21800 МГц, что обеспечило прирост в играх в разрешении 4К в среднем почти на 8,5% относительно референсных значений. Энергопотребление карты выросло до 491 Вт (в пиковых всплесках). Мы видим, что сама по себе карта RTX 3090 Ti выжимает из ядра GA102 по максимуму.»
— какое содержание и откровение вы хотели получить? Уже протестированы вдоль и поперёк десятки и сотни видеокарт — что вы ожидали увидеть в очередном экземпляре?
avatar
У меня Palit GameRock 3080 в принципе аналогичная по компоновке.
1. Писка нет даже в пассивном режиме. У меня БП гибридный (Fan Stop), проверял в том числе с отключением корпусных кулеров и кулера на CPU. Ночью слышен писк с монитора (ТВ) особенно при движении мышью курсора. Но не от ПК.
2. В моём случае вертушки вращаются редко, и если и крутятся то редко выше 1000 об/м (при кодировании видео) хотя переключатель BIOS стоит на P. В общем практически не слышно работает. В топовых играх конечно раскручиваются уже до слышного или даже громкого состояния. Возможно на 3090 обороты имеют другой диапазон. Тогда стоит поставить BIOS стоит на S. Это режим даже при высокой нагрузке не даст вертушкам крутится слишком громко. Будут чуть выше температуры и чуть ниже частоты, но на глаз не заметно, зато на слух вполне.
3. Тут на фото можете видеть, что кулер и его подсветка имеют по краям карты разъёмы которые можно аккуратно отключить при необходимости. Сама подсветка программно отключается в комплектной утилите ThunderMaster, но нужно её ставить в автозагрузку и делать отдельный профиль. После этого её можно выгружать и подсветка не включится, пока не перегрузитесь. Конечно удобнее просто отключить провод подсветки на карте если она совершенно не нужна. А вот вентиляторы так отключать не стоит! Лучше поиграться ручными режимами графика их работы.
avatar
Хиросима, Нагасаки не имели военной промышленности и там не находились скопления японских армий, дивизий, воздушного или морского флота. Что не помешало американцам сбросить атомные бомбы. Единственная цель была — демонстрация силы (причём не столько японцам, сколько СССР).
avatar
Ну ядро староватое. Зато на 1050 или 1060 всё работает и ничего не отъедает.
avatar
Nvidia RTX Voice работает с GTX
avatar
Уже поддерживают как правило! С начала июля выходят обновления БИОС на сайтах производителей для 13 версии.
avatar
Зачем? Кому очень надо вставьте CAM-модуль или CI-адаптер в свой ТВ. Нахрена простейшую медиа-приставку превращать в дорогой вещательный комбайн?
avatar
Там где есть CUDA например. 1050/2ГБ вполне достаточны — по качеству и скорости сравнимы с 3080 в режиме кодирования HEVC/H.265
avatar
Насколько помню в LP максимум выходили простые 1650 D6 даже не Super или Ti (1650 кажется не имеет такую ревизию, но могу ошибаться). Очень жаль, что RTX 3050 LP не дают — это был бы топчик! Ну может 4050/12ГБ Super/Ti LP выйдет? Будем надеяться!
avatar
Не совсем! 1030 хватает 30Вт питания для версии DDR5 и 25Вт для DDR4. А эта 1630 жрёт вплоть до 71Вт при этом уступает 1050/2ГБ 60Вт по производительности и тут нет CUDA!
avatar
По обзору данный БП не очень: www anandtech com/show/17447/the-gigabyte-ud1000gm-pg5-1000w-psu-review/4 — будете ли ваш обзор данного БП у вас? Будете ли нагружать его — желательно 3090Ти/600Вт + 12900KS/400Вт? Желательно в противовес добавить ASUS ROG Thor II 1000W
avatar
На фото у вас 850Вт БП, а по описанию:
блок питания Gigabyte UD1000GM PG5 (1000 Вт);
— уточните какой использовали? Если UD1000GM PG5, то на кабеле 12VHPWR какая маркировка мощности была? см. примеры тут: www tomshardware com/news/intel-atx-v3-psu-standard
— пробовали ли вы выйти за дефолтные мощности ТДП на 3090? Была ли доступна мощность 600Вт на 3090? Или ограничились 450Вт? Какую мощность выдавал ваш процессор Intel Core i9-12900K (разгон до 5,1 ГГц по всем ядрам)? Интересует хватило ли реально 1кВт БП для разогнанного 3090Ти/600Вт + 12900K/300+Вт?
avatar
Опечатка в таблице у вас RTX 3080 24 ГБ в заголовке и в поле объёма памяти по 24ГБ вместо 12ГБ
avatar
https://www.amd.com/ru/technologies/radeon-software-fidelityfx-supported-games
— только 3 игры пока поддерживают FSR 2.0. А вот сколько игр с DLSS 2.0:
https://trashbox.ru/link/games-with-dlss-2.0-support
avatar
В Казахстане по текущему курсу:
8GB RX 6600 / 6GB RTX 2060 стоят 432 / 345 USD
8GB RX 6650 XT / 12GB RTX 3060 стоят 521 / 506 USD
12GB RX 6700 XT / 8GB RTX 3070 стоят 694 / 681 USD
16GB RX 6800 / 8GB RTX 3070 Ti стоят 983 / 836 USD
— так что выигрыш у нас пока в сторону НВ
avatar
FSR 2.0 есть только в 2 играх, а DLSS около 200! По качеству также FSR 2.0 наконец-то сравним со старым DLSS 1.0/1.2, когда DLSS уже 2.4 версии и адаптации игр как правило под новые версии DLSS не нужны. По ценам 3050 сейчас дешевле 6600 (не XT!) и уже на уровне 1660 при этом имеет поддержку RTX. Производительность 6600 даже XT версии в RTX как правило ощутимо хуже чем у 2060/3050.
avatar
Так и есть! У большинства уже несколько лет нет налички — все привыкли к Каспи QR и переводам. Так что Россия тут отстаёт