Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Вы не понимаете — в бородатые времена даже двухчиповые топы от ати/нвидии стоили 450-500 долларов, не больше — 600-700 был потолком для совсем уж эксклюзивных вариантов вроде хоф или марс
avatar
Одно но — нвидии в своих суперах/тишках придётся увеличивать память в два раза — а это тоже стоит денег.
Если 3080 при 10 гигах ещё норм (хоть старт и зафейлили), то вот 3070 при 8 гигах за 500 долларов адекватным людям не будет нужна
avatar
Пусть г-синк — это сначала продавать за 100$ бесполезные платы с fpga+dram для дублирования кадров и дерганья v-blank в eDP, когда в видеокарте уже есть все необходимое. Благо в ноутах fpga никогда не ставили и там изначально всё работало нормально, как в AMD FreeSync.
Сейчас g-sync платы полностью закопали и технологически всё работает один в один как фрисинк (правда с фрисинк по hdmi нвидия не работает до сих пор), а G-sync это только программа сертификации.
Нвидия просто создала искусственно костыль, который помог развести людей на большие деньги, а возможно ещё и слить неликвидные чипы (вспоминается история с usb пирамидкой 3D vision на устаревших ide-sata переходниках от cirrus logic)
avatar
Теcтить с DLSS — так себе идея — можно и амд с fidelity fx протестировать или вообще в низком разрешении.
Тесты лучше проводить в одинаковых условиях, а артефачащий длсс оставить пользователям как решение на крайний случай
avatar
rtx3070 8 гигов против 16 гигов 6800 — это провал для нвидии
avatar
80 баксов за в два раза больший объём памяти? Да, 16 гигов это существенно
rtx3070 8Gb за 500$ — Dead on Arrival, нвидии надо срочно снижать цену и выпускать 16 гиговый вариант, да и в 3060 не меньше 10-12 гигов ставить
avatar
Прямой доступ есть и на амд, а RTX IO — не более чем название для MS Direct Storage, который внезапно есть и на RX6000, и на xbox
1) Игры на зелёных кушали меньше памяти незначительно, да и то благодаря более сильному сжатию текстур и тайловому рендеру — забудьте про разницу
Посмотрите на тесты RTX2080, 2080ti и 3080 — потребление видеопамяти запросто переваливает за 8 гигов и это произошло не вчера, а после релиза PS5 и Xbox SX всё будет ещё печальнее.
2) Ещё как даёт, смотрите 1% и 0.1% fps (или Вы любите статтеры при повороте камеры или входе в помещение ?). А ещё обратите внимание на яркий пример Resident Evil 7 — стоит зайти в дом и видеокарты без 4 гигов VRAM вдруг просядут с 60фпс до 20фпс (гляньте на GTX1063 и GTX1066 — чипы там конечно разные, только вот в голой производительности разница не такая разительная)
DLSS 1.0 бесполезна, мыло и артефакты
DLSS 2.0 уже куда лучше, только вот артефакты никуда не делись — и если в малобюджетной карте это можно было бы вытерпеть, то в этом сегменте уже вопросы. Я бы предпочёл форсированный шахматный рендер, а в случае 4К мониторы 1080p с кратным скейлом может быть лучше, чем DLSS
avatar
RTX3070 за $500 при 8 гигах — Dead on Arrival
Учитывая некстген надо ставить по 10-12 даже в сегменте побюджетнее
avatar
По поводу профессиональных решений — какие именно вычисления нужны? Просто есть подозрения, что производительность FP64 в rdna2 может быть снижены относительно GCN в виду архитектурных особенностей. Так что если нужны FP64, то скорее всего Radeon VII (по сути это instinct mi50 без ecc) останется наибыстрейшим вариантом за свою цену (да и за цену титанов тоже)
avatar
Золотые слова — правда смайлик лишний
avatar
Это та Лара, где с rtx патчем вырезали обычные тени так, что даже с включённым RTX их не хватает?
Может быть и действительно «самая красивая игра ever» была до косяков, добавленных с RTX патчем
avatar
Так и RTX — это больше от майкрософт, а не нвидии
RTX — это по сути прослойка над DXR, как и RTX IO — это MS DirectStorage.
Вопрос только какие будут палки в колёсах, проспонсированные Хуангом
avatar
RTX — это по сути надстройка/прослойка над DXR, как и RTX IO — это MS DirectStorage
По факту не загнётся, а останется просто наклеечкой на коробочке.
Как и g-sync превратился в просто программу тестирования и сертификации, а не идиотскую плату с бесполезным fpga — тот ГэСинк плохо пах с самого начала, давно закопали. Использовать FPGA+DRAM для дублирования кадров и дёрганья v-blank пина в edp? Когда все буферы и вообще всё уже есть в видеокарте? Серьёзно ?
Выглядело это просто как желание дополнительно заработать и утилизировать ненужные контроллеры (привет пирамидка 3D Vision на переходнике sata-ide от cypruss вместо нормального контроллера)
avatar
А посмотрите реальные примеры использования RTX — в большинстве игр он прикручен в последний момент для галочки и все эффекты можно было бы сделать традиционным рендерингом полностью + с той же скоростью, если бы транзисторный бюджет с rt/тензорных блоков пошёл на шейдерные процессоры
В некоторых случаях ситуация вообще печальная — в ларке с rtx патчем добавили тени рейтрейсингом, но при этом вырезали обычные тени — и вырезали они куда больше, чем добавили с rtx
avatar
Плохая поддержка в Linux — это к нвидии (хотя и в макоси нвидия не радует)
Есть как проприетарный вариант, так и свободный — и всё работают без проблем и обрезки функционала относительно windows (снова пинок в сторону нвидии)
Про аппаратное декодирование AV1 в rx6000 и xbox SS/SX заявляла microsoft ещё до анонса амд.
Только вот про профили/уровни ни нвидиия, ни интел нормально не написали — мало ли какие сюрпризы могут вылезти
avatar
Теоретически неплохой, но боюсь цену выставят на него как на комплект из двух 120гц vrr и 48"-55" LG Oled и ещё samsung lcd qled с той же тысячей fald зон как в этом асусе
avatar
Это HDR1400
1400нит — это пиковая яркость для яркой зоны в 10% от площади экрана (спасибо что не 2%) и ненадолго. Выдавать 1400 нит на всю площадь в постоянном режиме он не способен.
ШИМ быть не должно — сертификация G-Sync Ultimate подразумевает возможность работы без мерцания, хотя могли и закрыть глаза на некоторые несоответствия и подвинуть стандарты (Хуанг соврёт, недорого возьмет)
avatar
Главное в G-sync Ultimate — это FALD подсветка, а также низкий инпутлаг и широкий цветовой охват.
А G-Sync процессор (там до сих пор fpga с дискретной dram?) — бесполезная и бестолковая железяка, не более чем очередной маркетинговый развод — дублирование и все буферы уже есть на видеокарте, да и дёргать v-blank сигнал по dp не проблема (что даказал фрисинк и g-sync ноутбуки).
Для тех, кто заинтересован в G-sync интерес представляет любой G-Sync и Freesync LFC монитор. Тем, у кого требования выше и нужна одновременная работа ULMB и VRR увы, g-sync ultimate ничего предложить не может, нужно искать монитор с ELMB.
Ну или забить и купить OLED на 120гц с vrr/g-sync
avatar
Могут ли работать одновременно по BT и USB? Как микшер — звук с компьютера с возможностью быстро переключиться на разговор по телефону ?
Без драйверов видятся как стереогарнитура или 7.1? USB Audio Class 1 или 2 ?
В тишине не слышно писка?
avatar
Хорошо, что запихнули oled, а не ah-ips без чёрного цвета и плывущими оттенками и контрастностью при отклонении от прямого угла. К тому же поможет экономить и без того маленькую батарею.
А ШИМ на прошлых айфонах был только на яркости ниже 50% — на какой будет здесь пока неизвестно. Хотя могли бы и не пожадничать и вместо 240гц шима впихнуть 480