Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Это называется «боттелнек» и является наглядной причиной, почему карты мощнее, чем 2060, нужно тестировать хотя бы в QHD, а не смотреть монстров уровня 2080 в FHD, выглядывая 99%, которые в 99% случаев тоже вызываются проблемным камнем. Особенно в BF, которые традиционно долбятся дроуколлами в однопоток, даже когда ты им дал все 20 потоков
Короче — карты для 4К тестируйте в 4К. Мы же видеокарты смотрим, а не процессоры?
Ах, да, и ещё. Могу ошибаться, но и моя рыкса, и моя 1060 выдавали фпс в районе 120, что заставляет задуматься
avatar
*лагнуло и продублировало комментарий*
avatar
Если что, то в тьюринге и ассинхронников нвюасыпали в разы больше, и вулкан прокачали, в итоге 2070 в вульфе напинала абсолютно всем старым картам, включая веги
То, что я в который раз повторяю в комментариях, можно узнать, банально почитав описание архитектуры, которое было и на ixbt. Но вы этого делать не стали, но и проорать «РЯЯЯЯЯ ТАМ ОПЕНСЛ ВРЕТИ ВРЕТИ ВЫВСЕВРЕТИ ВЕГУ ЗАНИЖАЮТ!!» ты не забыл
Почему вы всегда лезете туда, в чём не разбираетесь?
avatar
Прям как у нвидии на протяжении долгих лет. В итоге нвидия сделала новую суперарху, а красные дуют чипы на новых техпроцессах. Местами поменялись одним словом
avatar
*Появилось аккурат в веге. Преподносилось амд как способ взять х2 прмрост из ничего, перенеся не требующие точности уровня FP32 рассчёты на FP16. По идее, всё просто, с коэффициентом 2 к 1 мы из 1 терафлопса FP32 получали 2, но FP16. Вот только семейство карт с 0,16% охвата в стиме не заставили разработчиков это использовать
А что по паскалям ака 10хх? Там 1 к 32, в результате чего 1 терафлопс FP32 превращается в ~32 ГИГАфлопса FP16
У тьюрингов, за вычетом тензорных числодробилок, есть нормальный 2 к 1
Кстати, я не помню, умеет ли вега считать инты и фп одновременно. Паскали — точно не умеют
**Замечу, что их туда поставили больше, чем в вегу, чем и вызван дополнительный прирост в вульфе
***Вулкан и DX12_1, все как вы любите
****Больше распространены RTX/GTX 16xx — больше прирост вегам из-за оптимизаций разработчиками своих игр. Это вам не 0,16%, это — целое поуоление от монополиста, с картами всех ценовых сегментов. Алсо консольные new gen оптимизации тоже будут бустить тьюринги с вегам
А что по паскалям (ко-ко-ко, возьму 1080 Ти с бу) и RX 4xx/5xx? Они обречены на вымирание, причём первыми отыквятся паскали, под вой школоты про занижение дровами. Это не дрова, а архитектура))
avatar
Кроме тех, кто работает с этими лучами, ибо там они бустятся в несколько раз (а если приложение успели перелопатить под RTX, то буст и того больше)
А вообще, я не понимаю. Зеленые в тьюринги (RTX) запихали всё то, за что фанбои красных любили их видеокарты. Работа с FP16*, вычисление INT32 и FP32 за один такт, ассинхронники**, улучшения API***, все аргументы амдшников на тему любви веги оказались у зелёных. И даже больше — появились улучшенные тензорные блоки, дающие сотни тера(фл)опс FP16/INT8/INT4, сделали VRS — набор фич для увеличения производительности в гоночках и прочих VR, появился mesh shading — комплекс мощных улучшений графического конвейера, поколдовали с памятью, сделав чипам 2 канала по 16 бит. Ну, и наконец, трассировка. Единственное, за что фанбои амд из раза в раз испражняются в комментариях.
Неужели все ваши сладкие слова про архитектуру оказались лицемерной ложью и вам важна не технологичность****, а лишь возможность выставить зелёных в негативном свете?
avatar
О, хорошие тесты процессора. Какой тестировали?
avatar
Рискну предположить, что речь про фури нано
avatar
Нет, почему же — смысл есть везде
Но в тьюринге, с тензорными блоками для анценза хентая и сотней терафлопс FP16, смысла будет больше, чем в этой карте от амд. Не за эти деньги
avatar
Потому что тесты фейк. АМД фанбои схавали, само собой, даже не взглянув на названия игр
avatar
— «РЯЯЯЯЯЯ, Вывсеврети! Амуде святая! Лиза — бог! Тупые нвидиябои купились на маркетинг!!1»
avatar
Ваще плевать, ни один амдшник в ру-сегменте не сможет себе позволить купить ни 2080, ни этот радеон, так же как в своё время они не могли купить вегу — аж 0,16% за почти 2 года, даже 2080 Ti больше взяла. А секрет в том, что люди, живущие за прежелами снг, решили, что вега хлам за свои деньги. Карта в посте, кстати, тоже, была бы дешевле хотя бы на 100 баксов…
avatar
>Так же и в видюхах она падает стоимость единицы быстродействия
Тут такой прикол, что быстродействие можно по-разному измерить.Возьмём FP16. У 1080 Ti цена в 600 долларов и производительность в 165 ГИГАфлопс FP16. А 2080 Ti за 1100 долларов получила изменение планировщиков и тензорные ядра, дающие 23500+107000=130500 гигафлопс = 130 ТЕРАфлопс FP16 в стоке. Прирост вычислительной мощности в FP16 составил «жалкие» 790 раз, что, с учётом цены, даёт рост производительности в FP16 примерно в 400 раз. Опережая вопрос — хитрое CUDA умеет перекидывать вычисления на тензорники без бубна со стороны разработчика
FP16 — это то, на что можно заменить часть FP32 — не везде требуется такая точность, но до опередлённого момента FP32 варились медленно, а FP16 — ОЧЕНЬ медленно, хотя процессоры (CPU, у которых, как правило, идеальные блоки FPU с идеальными коэффициентами) делали их в 2 раза быстрее, чем FP32. АМД фишку просекла и их веги стали варить эти вычисления тоже в 2 раза быстрее, чем FP32, в то время как у GTX производительность была в 32 раза медленнее. Но с приходом тьюринга на рынок, когда монополист поддержал эту фичу, разработчикам развязали руки с обеих сторон. И чем больше FP16 запихают в игры, тем больнее будет обладателям 10хх серии
На этом наш курс архитектурно-программной математики подходит к концу. И помните — тьюринги (ака RTX) гораздо нафаршированнее технологиями, чем кажется
avatar

Ответ pmservice на комментарий
Ответ egik81 на комментарийДа вы батенька шутник. Я в 2000 году ASUS AGP-V6800 Deluxe покупал за 235 тех баксов причем с налогами. А вы хотите аналог сегодняшнего дня за 150 с налогами уже.
конечно.
электроника должна дешеветь.
почему cdrom или hdd стоит $50, а дряшло с вентиляторами и бруском алюминия $1500?


Почему труд Ваших родителей должен стоить больше, чем 1 МРОТ (11.1К)?
Вот, дворник листья за эту сумму убирает, так почему Ваши родители должны получать больше?
_______________________________
почему жилплощадь у чёрта на куличиках без тепла, газа и электричества стоит 100К, а каменно-бетонная квартира 1,5 миллиона?
avatar
> Очередной заказной материал с выводами в духе «just buy it»
Очередной комментарий человека, неспособного осилить больше 3 пунктов нововведений и меряющегося эфемерной памятью без учёта архитектурных изменений
> Трассировка лучей была принесена в мир 3D уже давно
Эм, нет. То, что было до RTX — это шейдерпак на майнкампф, делающий 3 фпс на 1080, квака, повторяющая опыт майнкрафта, и 2,5 демки, где в кадре 1,5 объекта с минимальной каустикой, дабы фпс был хоть немного выше 20
(всё остальное — это рендер с FPS < 1, т.е. не в рилтайме = не считается, ибо тут речь именно про рендер в РЕАЛЬНОМ ВРЕМЕНИ)
Собствено говоря, на этом трассировка в реальном времени всё, да и это «всё» было в 720р
> тут лишь сделали ускоритель этого дела получше
Написали API, сделали тензорные ядра и затолкали мощность 3-4 1080 Ti в виде RT ядер. Немного больше, чем просто «получше», не находишь?
> (выгрузка текстур, ухудшение физики для объектов находящихся вне поля зрения, отключение анимации для данных объектов и прочие оптимизации, без которых комфортной производительности не добиться)
Увы, но всё, что ты перечислил — это либо анархизмы растеризации, либо то, что на трассировку влияет ровно никак
> Самообучение на тензорных ядрах в будущих играх тоже вряд ли будет
Тебе 100 терафлопс FP16 (= 200~500 int'ов) дали и ещё целую 2080 Ti оставили, а ты про тупоголовый ИИ думаешь
Расцензуривать порно и расшакаливать изображения на GPU — прикольная тема, но разработчикам интересней использовать тензорные блоки как лютую числодробилку с мощностью суперкомпьютера
> Для HDR нужен соответствующий дорогой монитор
Лол, про это кто-то вспомнил?...
> А вот у предыдущего флагмана памяти почти в полтора раза больше
… зато не вспомнил про изменения сжатия данных в памяти (+50%), удвоение скорости VRAM и раздвоение канальности каждого чипа памяти (вместо 1х32 сделали 2х16)
Ещё было забыто:
> изменение делителей FP16 (раньше из 32 FP32 был 1 FP16, теперь из 32 FP32 будет 64 FP16. AMD, кстати, в вегах тоже так сделали)
> переработка SM, позволившая выполнять INT32 и FP32 одновременно в один такт (+ ~30% производительности в нынешних играх из воздуха, в играх будущего, заточенных под это, разрыв будет многократно больше)
> улучшение поддержки API (в вулкане тащит, в DX12_1 тащит. Насколько? 2060 = 1080 Ti)
> добавили ассинхронные блоки (наконец-то!)
> MeshShading, мощнейшее изменение конвейера, позволяющего скинуть кабалу CPU с видеокарты при работе со сложнейшей геометрией, множеством объектов и LOD
> VRS, для гонок и прочих VR самое то
avatar
> Кстати, что ты там наразрабатывал?
Если что, то у новых видеокарт RTX есть работа с FP16, есть ОДНОВРЕМЕННАЯ работа с FP32 и INT32, и тензорные ядра, которые обладают сотнями терефлопс для int-вычислений
Если ты ничего не понял, то зайди и загугли, по приколу, учебник программирования на любой серьёзный язык, будь то жаба или «семейство С» — там будет глава про типы данных и окажется, что всё это — основы основ, вокруг которых строится программа
GTX не могли это ускорять. Для работы с int32 им нужно было пропустить такт работы с fp32, в то время как RTX делает это одновременно. Мелкие int4 и int8 нужно было считать на CPU, ибо видеокарта тупо не может работать с ними. Старая GTX не может, а RTX в такого рода задачах разносит процессоры в щепки. Разработчикам приходилось использовать длинные fp32 там, где можно было использовать fp16, ведь GTX выполняли fp16 в 32 раза медленнее, чем fp32, в то время как VEGA и RTX (вслед за АМД, да) делают FP16 в 2 раза быстрее, чем FP32
Итак, вот ответ на твой вопрос
avatar
Но вместо х2 прироста мы получили кукиш. Зато память, которая бесполезна с таким слабым чипом
avatar
Единственное, куда может деть 16 Гб игрок — это 2К текстурки в майнкрафте. Звучит как шутка? Отнюдь, если взять POM+PBR (= шоб как в жизни), то это 3 штуки 2К текстурок на КАЖДЫЙ блок и предмет. Представили себе, насколько там чудовищное потребление видеопамяти? Никаких 8-11-16 Гб не хватит, извращенцы разработчики таких паков еще по 128-256 Гб ОЗУ покупают, ведь то, что не влезло в VRAM — то вываливается в ОЗУ. Есть лишь один ньюанс. Как бы убог не был в архитектурном плане паскаль, он мог потянуть архитектурно такие текстурки в OpenGL, а GCN так не смог. Итак, майнкрафт проезжает. Куда еще деть 16 Гб памяти? 8К гейминг! А, стоп, 2080 Ti > эта карта, и при этом 2080 Ti не хватает для 8К по причине чипа. Итак, гейминг в сверхвысоком рсзрешении тоже мимо. Куда же ЕЩЁ деть? Правильно! Нейросети! Расшакалить изображения, создать порно с лицом Трампа, создать наркоманский рисунок (гуглить: deepdream) и под завязку проиграть против непобедимого бота в любую настольную игру — чем не развлечение, которое прекрасно пожирает память? Но, увы, тут тоже мимо — практически все нейросети заточены под CUDA — проще говоря, только для зеленых. Итак, что мы имеем? Бесполезные 16 гб в бесполезной карте, которая слишком дорогая для конкуренции с 2080 и, к тому же, не имеет ускорения нейросетей, не имеет быстрых fp16/int8/int4 вычислений и, само собой, не имеет трассировки, которая очень желанна в рабочем сегменте — это основа основ для большинства рендеров
avatar
2К — это 2048х1080, официальный стандарт DCI. А то, что он имел в виду — это 2560х1080, с которой справится и 2060 2070
avatar
Пфф, колоры каждый раз такого монстра лимитированного выкатыаают, вон, на 10хх серии такой был, тоже огромная *цензура* на 3-4 слота с СЖО на бэкплейте и гибридом в основе. И да, тоже с дисплейчиком