Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Так процессор поменяй/разгони — будет прирост и в FHD ;) Там упор уже в процессор скорее, чем в ВК.
Правда 3080 и 4K тянет не всегда на 60 fps (с лучами особенно), но и брать её для FHD — это перебор, ИМХО :)
Так это… До этой, кхм, «новости» про живое фото, был ещё с десяток новостей про «графический набросок» аккумулятора, «картину маслом» аккумулятора, рендер аккумулятора, фотографию рендера аккумулятора и т.п. А теперь вот сфотографировали аккумулятор, настоящий!!!11 А мы, неблагодарные, не ценим.
Фетишизм какой-то))
И представил я:
Город наводнился вдруг разумными людьми,
Вышли все под DOS,
А проклятый WINDOWS — удаляли, черт возьми.
Позабыв про WORD,
MS EXCEL, COREL DRAW и прочий геморрой,
Люди ставят DOS,
Словно в Рай заходят в DOS,
Нормальный, чистый DOS...
Так нормальные разъёмы нужны, а не раздолбанные/из фольги/с переходниками :) Жор — да, но похоже, что на этом этапе развития по другому никак. А вылеты починят (прошлое поколение на старте вообще «окирпичивалось»).
Очень интересно, что предложит AMD — немного подождём)
С другой стороны, если это действительно не единичные случаи, то это камень в огород тестировщикам — такое должно выявляться при тестировании.
Ну а стиль изложения и заголовки — это да, что-то с чем-то :)
Та же история, как и с «супер» 2XXX. Вначале RTX 2060 с 6 Гб (потому что «6 Гб достаточно»), а потом 2060 S 8 Гб (ой, теперь уже «8 Гб достаточно»).
Первые покупатели наберут 3080 с «достаточными» 10 Гб, а потом будут кусать локти, когда через 2-3 месяца (совершенно случайно совпадёт с выходом новой серии карт от AMD) появится «супер» версия, в которой «достаточно» будет уже 20 Гб.
С другой стороны для 1063 тоже было «3 Гб достаточно». А в результате достаточно мощный для своего класса GPU нередко проигрывает даже 970-й с её «недо» 4 Гб. Думаю, что «орут» как раз те, кто не хочет оказаться в подобной ситуации — память на ВК не добавишь...
Опять же, GPU RTX 3080 обходит GPU 2080 Ti 11 Гб и весьма заметно. Получается, что 2080 Ti 11 Гб были нужны, а 3080 хватит и 10? Тут логичнее было хотя бы не уменьшать.
Насчёт «заплатить». Ну вот лично я при покупке 3080 выбрал бы 20 Гб, если бы такой вариант был. А кто-то бы выбрал 10 Гб — каждому своё.
Теперь же можно сказать, что новый видеоускоритель Nvidia GeForce RTX 3080 не просто отлично подходит для 4К — он уже позволяет комфортно играть в этом разрешении при максимальных настройках графики со включенной трассировкой лучей. А при использовании «умных ядер» для реализации DLSS падение производительности от включения RTX может быть полностью (и даже с излишком) компенсировано по сравнению с тем, что мы имеем без RTX+DLSS.
Ну как же так? На графиках в 4K с лучами только Ларка до 60 fps дотянула, а Control и Metro даже с «читерством» (читай — с DLSS) ниже 60. Да что говорить, даже без лучей тот же Control не показывает 60 fps.
Можно конечно спорить на тему, что считать «комфортным» уровнем (в серии статей по конкретным играм за «комфортный уровень» вы вроде бы принимаете 40 fps?).
Ещё можно вспомнить про оптимизацию игр, про рецепт «снижаешь парочку параметров с ultra на high и fps будет 60», про «сырые» драйвера в конце-концов.
А можно порассуждать на тему «да вы, батенька, зажрались» и вспомнить, как в бородатые 90-е «гоняли DOOM» на 486sx 33 МГц без сопроцессора и на встроенной ВК в 320x200 (личный опыт)...
Но всё это — не то. Не тянет она эти пресловутые 60 fps на максималках с лучами. Без лучей — почти везде отлично, и это большой шаг вперёд, но с лучами — увы и ах. Понятно, что прямо указать на это вряд ли возможно (реклама, спонсоры и т.п.), но и говорить про «отлично подходит для 4К» и не упомянуть про некоторые нюансы и оговорки — как-то нечестно.
Это читал, там нет прямого указания, что RTX IO работает с любым накопителем. То, что это не новая технология — понятно, но не описано, в каком виде «GPUDirect Storage» перекочевал в Ampere.
И про остальное догадываюсь — скорее всего, если использовать API Nvidia, то можно будет работать с любым накопителем, а API Microsoft — только с NVME, но догадки != истина :)
Спасибо за статью!
Не совсем понятно про Nvidia RTX IO и Microsoft DirectStorage API. Есть слайд про скорость с RTX IO по сравнению с «классической» загрузкой данных для HDD, SSD, NVME SSD. Тут первый непонятный момент: ладно «обычный» SATA SSD, он всё-таки довольно быстрый, но откуда преимущество у RTX IO на HDD? Уж на них-то «тормоза» никак не из-за перегрузки интерфейса и CPU из-за «огромного» потока данных — они просто не могут такой поток обеспечить. Да вот и в статье:
Накладные расходы на запросы не были проблемой для старых игр, работающих на медленных HDD
Что-то я тут недопонимаю, похоже :)
Далее читаем:
DirectStorage API будет поддерживаться на определенных системах с NVMe-накопителями
Т.е. работать всё это будет только на NVME, а SATA SSD/HDD «в пролёте»? Но, возвращаясь к упомянутому слайду, снова непонятно — откуда на нём данные по SATA SSD и SATA HDD, если это всё не поддерживается?
Я думаю, что карточки уровня 2080 Ti и 3080 вряд ли имеет великий смысл использовать в 1080 :) Ну как, они и в 640x480 наверняка могут, но зачем? Их удел — 4K, вот в нём и тестировать.
Для FHD или 2K — да, хотя и без лучей. Для 4K где-то придётся с настройками поиграться и снова без лучей. Для нового компа — только если ограничен в бюджете, но не хочешь покупать лоу из новой серии, не боишься отсутствия гарантии и того, что жизненный цикл 10XX уже подошёл к концу…
Да вот как раз по ценам всё интереснее, чем предыдущее поколение. А по производительности… Вы, видимо, ожидали прирост «не меньше, чем в два раза»? Ну вроде пора научиться читать между строк в подобных обещаниях :-) В 2 раза — это «иногда в 2 раза, но не часто и не во всём».
Очерной фанат теории всемирного заговора ))
Возьмите любую игру которая была на старте продаж 2080 и запустите ее на 1080ти с драйверами того времени и сейчас с новыми… результат будет один в один.
Так речь же не про «торможение» старых ВК, а про отсутствие оптимизаций для них после выхода новой серии. Ну т.е. вы правы — что на старом, что на новом драйвере производительность той же 1080 будет прежней.
Да в общем-то это понятно — надо ведь как-то продавать новое. А если оно недостаточно улучшилось по сравнению со старым, чтобы покупатель захотел отдать за него кровные 500-1000-1500$, то можно просто не оптимизировать старое. Заодно неслабая экономия ресурсов — разработчикам драйверов не нужно учитывать предыдущие поколения GPU. Ну т.е. работать они конечно будут, а в случае багов их поправят, но оптимизировать уже не станут. Повторю — подход понятный, логичный, только бизнес, ничего личного :)
Правда 3080 и 4K тянет не всегда на 60 fps (с лучами особенно), но и брать её для FHD — это перебор, ИМХО :)
Фетишизм какой-то))
Город наводнился вдруг разумными людьми,
Вышли все под DOS,
А проклятый WINDOWS — удаляли, черт возьми.
Позабыв про WORD,
MS EXCEL, COREL DRAW и прочий геморрой,
Люди ставят DOS,
Словно в Рай заходят в DOS,
Нормальный, чистый DOS...
Только DOS, только хардкор! :-)
Очень интересно, что предложит AMD — немного подождём)
Ну а стиль изложения и заголовки — это да, что-то с чем-то :)
Первые покупатели наберут 3080 с «достаточными» 10 Гб, а потом будут кусать локти, когда через 2-3 месяца (совершенно случайно совпадёт с выходом новой серии карт от AMD) появится «супер» версия, в которой «достаточно» будет уже 20 Гб.
Опять же, GPU RTX 3080 обходит GPU 2080 Ti 11 Гб и весьма заметно. Получается, что 2080 Ti 11 Гб были нужны, а 3080 хватит и 10? Тут логичнее было хотя бы не уменьшать.
Насчёт «заплатить». Ну вот лично я при покупке 3080 выбрал бы 20 Гб, если бы такой вариант был. А кто-то бы выбрал 10 Гб — каждому своё.
Ну как же так? На графиках в 4K с лучами только Ларка до 60 fps дотянула, а Control и Metro даже с «читерством» (читай — с DLSS) ниже 60. Да что говорить, даже без лучей тот же Control не показывает 60 fps.
Можно конечно спорить на тему, что считать «комфортным» уровнем (в серии статей по конкретным играм за «комфортный уровень» вы вроде бы принимаете 40 fps?).
Ещё можно вспомнить про оптимизацию игр, про рецепт «снижаешь парочку параметров с ultra на high и fps будет 60», про «сырые» драйвера в конце-концов.
А можно порассуждать на тему «да вы, батенька, зажрались» и вспомнить, как в бородатые 90-е «гоняли DOOM» на 486sx 33 МГц без сопроцессора и на встроенной ВК в 320x200 (личный опыт)...
Но всё это — не то. Не тянет она эти пресловутые 60 fps на максималках с лучами. Без лучей — почти везде отлично, и это большой шаг вперёд, но с лучами — увы и ах. Понятно, что прямо указать на это вряд ли возможно (реклама, спонсоры и т.п.), но и говорить про «отлично подходит для 4К» и не упомянуть про некоторые нюансы и оговорки — как-то нечестно.
И про остальное догадываюсь — скорее всего, если использовать API Nvidia, то можно будет работать с любым накопителем, а API Microsoft — только с NVME, но догадки != истина :)
Не совсем понятно про Nvidia RTX IO и Microsoft DirectStorage API. Есть слайд про скорость с RTX IO по сравнению с «классической» загрузкой данных для HDD, SSD, NVME SSD. Тут первый непонятный момент: ладно «обычный» SATA SSD, он всё-таки довольно быстрый, но откуда преимущество у RTX IO на HDD? Уж на них-то «тормоза» никак не из-за перегрузки интерфейса и CPU из-за «огромного» потока данных — они просто не могут такой поток обеспечить. Да вот и в статье: Что-то я тут недопонимаю, похоже :)
Далее читаем: Т.е. работать всё это будет только на NVME, а SATA SSD/HDD «в пролёте»? Но, возвращаясь к упомянутому слайду, снова непонятно — откуда на нём данные по SATA SSD и SATA HDD, если это всё не поддерживается?
Ответ Hama на комментарий
Я три дня гналась за вами, чтобы сказать, как вы мне безразличны. © Обыкновенное чудо
Ответ 113827970818068216053@google на комментарий
Так речь же не про «торможение» старых ВК, а про отсутствие оптимизаций для них после выхода новой серии. Ну т.е. вы правы — что на старом, что на новом драйвере производительность той же 1080 будет прежней.
Да в общем-то это понятно — надо ведь как-то продавать новое. А если оно недостаточно улучшилось по сравнению со старым, чтобы покупатель захотел отдать за него кровные 500-1000-1500$, то можно просто не оптимизировать старое. Заодно неслабая экономия ресурсов — разработчикам драйверов не нужно учитывать предыдущие поколения GPU. Ну т.е. работать они конечно будут, а в случае багов их поправят, но оптимизировать уже не станут. Повторю — подход понятный, логичный, только бизнес, ничего личного :)