Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Не будет, в большинстве стран, если ты не воруешь электричество, майнинг приносит меньше, чем стоимость электричества. А в тех, где все еще приносит больше — это тоже ненадолго.
Я не понимаю на базе чего Вы делаете вывод «Внутренняя шина видео карты на порядок+ быстрее чем системный интерфейс именно потому, что не предполагается существенный обмен во время рендеринга и между похожими кадрами». Это ж несвязанные вещи.
Для того чтобы сохранить состояние предыдущего кадра, если это необходимо, не нужен никакой обмен по PCIe в случаи одного GPU. К тому же я говорил в том числе о том, что для разных фаз рендеринга одного кадра может быть нужен разный набор информации о соседних участках, которые могут принадлежать другому GPU. И дальше у нас будет синхронизация по медленной шине с высокими задержками (задержки самой PCIe как минимум на порядок выше чем у локальной памяти). Если объектов которые нужно синхронизировать много, то будет падение скорости в итоге, если объектов мало — да, будет прирост. Впрочем тоже не линейный и далекий от 2-х кратного (можно посмотреть бенчмарки старых карт в SLI SFR, который чем-то похож на подобные идеи). Для всего остального нужна уже поддержка со стороны игры, а если так, то разработчики, уже знающие о том как функционирует их движок, могут написать куда более эффективно работающий планировщик.
Через несколько лет все равно придется снижать настройки графики, независимо от памяти.
Сейчас не с чего производителям игр использовать больше, потому что в консолях ее меньше.
Знаком конечно. Только такой концерт не применим к данным, которые часто меняются. А если бы они не менялись часто и значительно, не нужна была бы такая память, достаточно было бы быстрого небольшого кэша и малых объемов медленной памяти, но на практике так не работает.
При текущем энергопотреблении очень маловероятно. К тому же 2080 ти была урезана больше по сравнению с титаном.
4608/288/96 384 bit — titan rtx
4352/272/88 352 bit — 2080 ti
Где то 5.5% всего отключено.
Тут же только tmu и cuda cores и всего 2.5%.
С частотами тоже вопрос, сейчас 3080 в бусте даёт около 1950-2000 вместо 1780 (та же история что с тьюрингом и Паскалем). И непохоже что частоты будет легко поднять выше 2000.
От вендоров, насколько я помню, было только регистрация именований ещё до официальных анонсов, когда вендоров даже характеристики чипов ещё не знали. И сейчас есть слухи о 20 ГБ версии карты, но пока слухи ничего не говорят о том, что чип будет иметь больше блоков.
Ну и даже если оно будет, то вопрос ещё в том когда. Точнее по текущим слухам чип будет в той же конфигурации.
Синхронизировать целиком память — и мы уже сразу упираемся в то, что наша gddr6 стала работать на скорости 32 гбайта в секунду, потому что синхронизация по pcie между двумя картами :) (предполагая лучшую расстановку позиций — что у нас все же pcie 4.0)
Притом поставил четыре карты и получил 16 ГБ/с вместо 32, потому что синхронизировать надо всех со всеми.
Так 2080 ti vs 2080 считай также было, 2x цена за 20-30% скорости. Да и 1080 vs 1080 ti, 980 vs 980 ti и т.п.
Да и не только. Для бескомпромиссного 2к гейминга на пару лет — тоже хороший вариант (вон 3080 в крузисе новом не даёт 60 ФПС стабильных в 2к, а 3090 скорее всего будет)
Те, кому хочется +20% производительности и кто может позволить себе заплатить вдвое больше, очевидно.
Так вообще это обычное дело, что +чуть-чуть производительности в какой то момент стоят очень дорого.
Для того чтобы сохранить состояние предыдущего кадра, если это необходимо, не нужен никакой обмен по PCIe в случаи одного GPU. К тому же я говорил в том числе о том, что для разных фаз рендеринга одного кадра может быть нужен разный набор информации о соседних участках, которые могут принадлежать другому GPU. И дальше у нас будет синхронизация по медленной шине с высокими задержками (задержки самой PCIe как минимум на порядок выше чем у локальной памяти). Если объектов которые нужно синхронизировать много, то будет падение скорости в итоге, если объектов мало — да, будет прирост. Впрочем тоже не линейный и далекий от 2-х кратного (можно посмотреть бенчмарки старых карт в SLI SFR, который чем-то похож на подобные идеи). Для всего остального нужна уже поддержка со стороны игры, а если так, то разработчики, уже знающие о том как функционирует их движок, могут написать куда более эффективно работающий планировщик.
Сейчас не с чего производителям игр использовать больше, потому что в консолях ее меньше.
4608/288/96 384 bit — titan rtx
4352/272/88 352 bit — 2080 ti
Где то 5.5% всего отключено.
Тут же только tmu и cuda cores и всего 2.5%.
С частотами тоже вопрос, сейчас 3080 в бусте даёт около 1950-2000 вместо 1780 (та же история что с тьюрингом и Паскалем). И непохоже что частоты будет легко поднять выше 2000.
Ну и даже если оно будет, то вопрос ещё в том когда. Точнее по текущим слухам чип будет в той же конфигурации.
Притом поставил четыре карты и получил 16 ГБ/с вместо 32, потому что синхронизировать надо всех со всеми.
Да и не только. Для бескомпромиссного 2к гейминга на пару лет — тоже хороший вариант (вон 3080 в крузисе новом не даёт 60 ФПС стабильных в 2к, а 3090 скорее всего будет)
Так вообще это обычное дело, что +чуть-чуть производительности в какой то момент стоят очень дорого.