Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Не говори гоп, пока не перепрыгнешь. Тут как бы в тот же период запускается похожий суперкомпьютер, ожидается похожая производительность, но на железе АМД.
avatar
Не имеет значения. Новое поколение быстрее.
https://www.ixbt.com/news/2023/01/05/cpu-gpu-amd-instinct-mi300-128-hbm3-146.html
И в данном случае мы можем сравнивать эти 2 железки. Они прямые конкуренты.

Т.к. решение интел запускается в системе Aurora, к концу года.

Решение АМД запускается в El Capitan, в конце года.
Предполагаемая вычислительная мощность El Capitan составит 2 экзафлопса в FP64 при энергопотреблении менее 40 мегаватт

Т.е. два решения, которые ещё не вышли. Но выйдут примерно в одно время и системы на этом железе будут иметь примерно похожую производительность. Вопрос в количестве железа El Capitan, но и в потреблении обеих систем.

avatar
А что меряем то? 17Вт просмотр видео? По мне похоже на потребление SoC. А то в среднем для CPU это даже многовато т.к. по большей части должна работать встройка, контроллер дисплея и декодер.
avatar
«Ну если заставить антенну работать на СВЧ»
Про мощность ни слова.
avatar
Ну и приобщу к материалам
https://devblogs.microsoft.com/directx/directstorage-1-1-coming-soon/
Гляньте ка что тут пишут. Посмотрите на скриншот, изменилось ли кол-во занятой VRAM?
avatar
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/
In either case, previous gen games had an asset streaming budget on the order of 50MB/s which even at smaller 64k block sizes (ie. one texture tile) amounts to only hundreds of IO requests per second. With multi-gigabyte a second capable NVMe drives, to take advantage of the full bandwidth, this quickly explodes to tens of thousands of IO requests a second. Taking the Series X’s 2.4GB/s capable drive and the same 64k block sizes as an example, that amounts to >35,000 IO requests per second to saturate it.
Existing APIs require the application to manage and handle each of these requests one at a time first by submitting the request, waiting for it to complete, and then handling its completion. The overhead of each request is not very large and wasn’t a choke point for older games running on slower hard drives, but multiplied tens of thousands of times per second, IO overhead can quickly become too expensive preventing games from being able to take advantage of the increased NVMe drive bandwidths.
On top of that, many of these assets are compressed. In order to be used by the CPU or GPU, they must first be decompressed. A game can pull as much data off the disk as it wants, but you still need an efficient way to decompress and get it to the GPU for rendering. By using DirectStorage, your games are able to leverage the best current and upcoming decompression technologies.
Ну ну только что-то майки распинаются не про врам, а про запросы ввода, вывода, компрессию данных и т.п. Мол у нас теперь есть НВМЕ.

«Это просто технология загрузки данных в vram, без нее в vram желательно запихнуть всю наличную игру (все что доступно игроку), с ней — можно пытаться делить на куски.» Кек а вы точно точно читали про что технология то?

Game workloads have also evolved. Modern games load in much more data than older ones and are smarter about how they load this data. These data loading optimizations are necessary for this larger amount of data to fit into shared memory/GPU accessible memory. Instead of loading large chunks at a time with very few IO requests, games now break assets like textures down into smaller pieces, only loading in the pieces that are needed for the current scene being rendered. This approach is much more memory efficient and can deliver better looking scenes, though it does generate many more IO requests.
Спецом ждя вас выделю Instead of loading large chunks at a time with very few IO requests, games now break assets like textures down into smaller pieces, only loading in the pieces that are needed for the current scene being rendered.
Т.е. ИГРЫ УЖЕ это делают. То что вы пишете уже давно неактульно. Никто не пихает всю игру в VRAM. Вам уже давно даже всю сцену то не рендерят, отсекая не видимые куски.
Что подтверждается другой строчкой по тексту
«Modern games load in much more data than older ones and are smarter about how they load this data.»

И всё что нам говорят майкрософт. У нас появились быстрые NVME накопители. У нас уже есть куча запросов ввода вывод. А ещё есть компрессия данных. Вот собственно под это дело и разрабатывается API. Перенося в том числе нагрузку с CPU на GPU. Который теперь по мимо декомпрессии упомянутой, похоже ещё будет обрабатывать запросы ввода вывода.
Да они собрались разгрузь ЦП.

Прочитайте и подумайте ка ещё раз, о чём чёрт побери технология то.

avatar
А причём тут СВЧ то лол? wi-fi 2,4-5ГГц. Есть смартфоны с mmwave. Раздать тот же вайфай можете же? Т.е. устройство работает как приёмник и передатчик. Смарт не кипит, но и попкорна нет.
Дело то не только в длиннее волны, а в мощности же.
avatar
«игра показывает что там типа 13+ Гб.»
ГБ и как бы да игры уже достаточно давно умеют забивать весь буфер памяти.
По этому есть разница, между тем сколько игре действительно нужно памяти и сколько она может ханять.
avatar
Бредни. В узкую шину ничего там не упирается, для того отвалили кеш, что бы снизить трафик на шине. Так тупо эффективней.

RX 580 и GTX 1060 совершенно иной случай. Виной тому банально не самая удобная для игр архитектура. Ибо она исполняет 4 инструкции в 4 такта в wave 64 и никак иначе.
И это уже очень плохо ложиться на игры. Банально сложно загрузить такой конвейер без потерь.
Ибо игры это Fp32 вычисления в большинстве случаев. Т.е. по хорошему один wave 32 в 1 такт.

Вот собственно за всё время существования GCN и тот факт что оно стояло в консолях.
1) Разрабы набрались опыта работы с ним. Влияет на пункт 1.5
1.5)Выжали всё что могли с архитектуры
2) Пришли новы низкоуровневые API, которые влияют на пункт 1.5 т.к. позволяют более эффективно распределять ресурсы.
3) Игры стали тяжелее и стали брать на себя больше работы CPU.
3.5)Вероятно виной тому будут тоже консоли с их немощным процессором ягуар.

Отдельным к 3 пункту упомяну, асинки в GCN. Т.е. блоки для асинхронных вычислений. Условно что-то типо второго потока, которые позволяют лучше загружать конвейер. Nvidia данные блоки реализовала полноценно уже где то в RTX'ах.
И вот из за пункта 3 нашлась лишняя работа, для GPU, которая таки до загрузила GCN работой, чему и способствуют асинки.
GCN вообще разрабатывалась как нечто универсальное с прицелом на GPGPU вычисления.

avatar
Вы не к теме пишете данные технологии. Они вообще не про то.

Кратко на пальцах. Игра это некоторые данные. Часть данных как текстуры находятся в сжатом виде. Что бы начать с ними работать нужно провести декомпрессию, при том на лету. Сейчас этим занимается CPU. Данные технологии предлагают для этого использовать GPU.

Ничего общего с объёмом VRAM.

avatar
8 линий pcie 4.0
Вполне себе хватает. Хоть и с не большими потерями на 3 версии шины. Вот 4 линии уже критично.
Или pcie 2.0 тоже критично.
avatar
Терафлопсы как раз сравнимы. Но отражают они как не странно терафлопсы и ничего более. Игры же вам это не только операции с плавающей запятой одинарной точности не так ли?
avatar
А причём тут собственно оптимизация. На момент релиза 2020г то консольки были с актуальным железом. Правда уже не очень мощным. Ибо в то же время выходит линейка NAVI II. Правда только 6800 и лучше.
И вот через год мы имеем rx 6600XT как аналог GPU консолек.
И всё бы вот хорошо, но возьмём да сравним параметры
6600xt VS PS5 VS XeSS
Pixel Rate
165.7 VS 142.9 VS 116.8 GPixel/s
Texture Rate
331.4 VS 321.6 VS 379.6 GTexel/s
FP32
10.60 VS 10.29 VS 12.15 TFLOPS

Что же мы видим. Казалось бы флопсы у PS5 с 6600Xt за малым равны.
Но всё же чуть хуже в среднем. При чём с просадкой в растеризации около 14%. Что уже играет некоторую роль.

Вот казалось бы Бокс не плох, и шейдеры значительно быстрее, и с текстурами работает на ура. Но у него слабые ROPы получаются. И они то тормозят всю систему. И это достаточно важные блоки. Если я правильно понимаю они отвечают за разрешение и сглаживание, а так же освещение, т.е. отражения затенения и т.п. (может быть не на 100% их работа но всё же)
Сложнее сцена хуже производительность. Конечно бокс может себе позволить использовать например текстуры более высокого разрешения или возможно работать с большим количеством текстур. За счёт работы TMU.
Шейдерная программа в целом будет работать быстрее. Ну например работа с теми же вершинами.

А сегодня то на дворе середина 2023… и пошли в ход некст ген игры. Т.е. графика усложнилась, по крайней мере чисто технически. Не факт что вы на глаз заметите разницу в повышении текстур, геометрии и т.д.
И вот уже консольный GPU, Аналог RX 7600 который ну до 10% быстрее 6600xt
https://youtu.be/Yhoj2kfk-x0?t=935

Конечно никто не отменяет плохие игры с никакущей оптимизацией. Или плохим портом. Но всё же тренд ясен. GPU стали быстрее и игроделы стали ориентироваться в своих проектах на возросшие возможности. И по меркам сегодняшнего дня, консольный GPU это самый начальный уровень среднего сегмента.

Плюс конечно 8 ядер CPU Zen2, с обрезанным L3 кешем и низкой частотой, явно не блещут производительностью, как настольные собратья. Но уже и не ягуар конечно.

Вывод дело не столько в оптимизации, а устаревании консолей, у которых из коробки нет запаса прочности (ведь там не было например ничего мощней той же 6900xt). И как только игры начинают требовать больше, консоли то и начинают не выдерживать. По тому и сбрасывают разрешение.

avatar
«Видеомайнинг закончился биток упал,»
Не фига подобного. Это биток упал, видеомайнинг закончился.
Битку плевать на видеомайнинг от слова совсем. Он не майнится на видяхаха.

И у него совершенно иные триггеры. На него как раз влияет ситуация в мире.
https://ru.tradingview.com/symbols/SPX/
https://www.rbc.ru/crypto/currency/btcusd
Откройте 5 летние графики удивитесь. Не забудьте сделать поправку на то, что крипта априори более спекулятивна и волатильная.
И связь проста, влияют на эти курсы одни и те же события.
Например ФРС запустила печатный станок все финансовый сектор начал расти. Особенно крипта. Запускали кстати из за ковида.
После ФРС остановила станок и подняла ключевые ставки, всё пожалуйста падение. Тут собственно из за инфляции.

Самое тут важное это потоки денег. Особенно институциональные инвестиции. А не чепухня в виде видеомайнинга.

avatar
«Никто не будет сравнивать до последнего винтика»
Технические обзоры от крупных технических сайтов, ну да ну да пошли мы в ....
Приличные обзоры любой карты, это обзор именно до винтиков.
Я уж молчу о гиках, что творят невиданное например проводят расследования используя специалистов. Или делают die shot, т.е. берут кристалл и на спец оборудовании его просвечивают.
Да и обычные энтузиасты вполне себе разберутся в теме.

«потому что и по шине достаточно»
Адепты шины господи. vega 56 и 64 имеет в аккурат одну и туже шину. 2048бит.
5700 и 5700xt имели одну шину. 256 бит.
6800 и 6950xt имели одну шину. 256 бит.
По вашему данные карты то будут равны, ведь достаточно посмотреть на шину. А вот не фига подобного.

Какие ветряные мельницы. Тут глубокий, стереотипный идиотизм. При том на профильном, железном ресурсе. Это уже заслуживает внимания.

avatar
Я больше скажу я его и не читал. Но я отсмотрел всю сводку по всем 25 играм. Где 24 игры 4060m быстрее. И сразу стало понятно что просто опечатка.
avatar
Вот давайте быстренько проверим это утверждение
https://youtu.be/BwZfEqkuXqs?t=535
В среднем по 25 играм 4060M быстрее 3060M
Единственная игра из 25 где 4060M оказалась медленней это F1
(https://youtu.be/BwZfEqkuXqs?t=456)
Пробую найти ещё какие-то тесты QHD
https://youtu.be/3H0QdQcefrU
https://youtu.be/zDBbn31NrVc
https://youtu.be/k_sx4s73pOI
p.s. пролистал 2 вкладки в гугле, дальше лень, выше то что нашлось.
avatar
«Производители делят ниши по шине уже более 20 лет,»
Пруфы?
«что при прочих равных шина прямо влияет на производительность. „
Хорошо, давайте к 1010 поставим HBM память с 4096 битной шиной .

Куда мне кстати вписывать vega 56/64 и radeon VII или ту же FURY X? в SUPER ULTRA BEST END? В место HIGH END.
Если да то каким макаром оно не особо то лучше 2080TI.
А если нет, то тогда почему 2080TI и RADEON VII находятся в одной нише? При настолько разной шине?
Нет деление идёт очевидно по цене и производительности. По этому проводят разные тестирования в разных играх и говорят вот почему карта столько стоит.

Так что «наяривать на шину» это правильно.
Это идиотизм. Как и любое другое наяривание на что-либо, тем более в отрыве от всего. При том наяривая на шину, почему то люди ещё умудряются проводить параллели далеко за пределами одного поколения и одного производителя.

А то я не помню как люди наяривали на шину и сравнивали RDNA 2 и Ampere. Вспомнили ли они про кеш? А зачем! Шина же...

“ но не адресует посыл изначального поста»
Изначальный пост
«То есть 4060 должна бы как минимум догонять 3060 Ti. Идиотское решение повторить за Амуде и поставить 128 битную шину, вдобавок к маленькому объему 8гб памяти.»
Т.е. снова наяриваем на шину, без учёта всей подсистемы памяти и говорим ай ай ай идиоты повторяют 128 битную шину за амуде. Не забывая до того провести параллель между разными поколениями.

«а в одной поколении покажите как карта с узкой шиной обгоняет карту с более широкой шиной.»
Отвечу вашей же цитатой.
«это потому что при прочих равных шина»
Прочие уже не равны точка.
Ну и ещё это ваше пожелание же снова ваша же цитата «не адресует посыл изначального поста»

Нет мил человек. Наяривать на шину плохо. Если уж берётесь сравнивать, сравнивайте всё целиком. Фиг ли толку от вашей шины если нет ни ROPов, ни TMU, ни шейдерных блоков? Ни RT, ни матричных блоков сегодня.
И именно от них в первую очередь зависит производительность карты.
Во вторую от всей подсистемы памяти.

Это единственно верная очередность. Т.к. подсистема памяти не занимается вычислениями. Её единственная задача обеспечить данными вычислительные блоки. Если данных несколько не хватает, мы ТЕРЯЕМ производительности. И это ключевое. Подсистема памяти не увеличивает производительность, она её НЕ СНИЖАЕТ. И это важное отличие. Т.к. без проблем можно увеличить эффективную пропускную способность. Что не увеличит нам производительность сверх того, что могут считать вычислительные блоки.

С таким же успехов в вашем тексте меняем шину на шейдерный блок, и наяриваем исключительно на него. Что всё так же не будет правильным.

avatar
Вот именно вы видите. Обычные лягушки на дне колодца, вы не видите картины целиком.
«когда в фермы ставили даже ноуты.»
Продолжим идею, а сколько у нас там майнеров всего? А сколько геймеров? По моему разница тупо в количестве будет идти на порядки. Просто потому, что далеко не все могут себе позволить купить несколько видюх за 200-300%.
При том речь то не о всех майнерах, а о бомж майнерах. Т.к. Те кто побогаче, могут себе позволить купить ASICи, естественно новые не бу, которые эффективней майнят, он на то и ASIC и естественно не один. Цены на один ASIC исчисляются тысячами долларов.
Те кто побогаче, но недостаточно, как правило выкупают БУ асики. Которые из за выхода новых моделей потеряли в эффективности, но всё равно круче видюхи.

Итого прослойка чисто майнеров очень не большая. И да 15% всех видях, это очень много так то. Там в квартол продавалось за 10 лямов GPU. Т.е. Примерно 70 лямов GPU За каких нибудь 5 кварталов наберём. Т.е. 10.5лямов для майнеров, это ой как не мало.

Кстати вы врёте. Карты были на прилавках уже в середине или 3/4 майнинг бума. За конский прайс но были.

После майнинг бум кончился и нас -15% спроса. Так ещё +5...10% предложения бу от майнеров. И 115% производства. Как вы считаете карты появятся в такой ситуации или нет?

Ещё раз Кто-то майнил на 1030? Тогда с фига ли на неё цена сканула, а версия с DDR5 и вовсе пропала с продажи? Майнеры виноваты?

Кстати по динамике цен, прекрасно видно ситуацию на рынке. Самый старт майнеры активно скупали видяхи, цены скакнули до 300%. После же цена на видяхи упала к 160-180% и так и держалась до конца.
https://cdn.videocardz.com/1/2022/01/AMD-nVidia-Retail-Price-Trend-2021-2022-v2.png
При том, цены на АМД, которые майнили хуже раза так в 2, скакнули тоже. Тоже всё майнеры раскупили?

За вас уже всё посчитали умные люди.
https://www.ixbt.com/news/2022/06/19/za-poltora-goda-majnery-vykupili-okolo-20-vseh-nastolnyh-videokart-na-rynke.html

avatar
Ребят хватит наяривать на шину. Ещё раз вам чем то мешает 128 битная шина в пк?
Это максимально тупая затея.
Аналогия ширина щины, то ширина трассы. Что нам даёт ширина трассы, если по ней не ездят автомобили? НИ ЧЕ ГО.
Что даст нам широкая трасса, со скоростным ограничением 1м в час? Тоже толку то.

А ведь ещё есть такая штуки как сжатие и кеши. Усложним модель.
Теперь задача не просто ехать. А перевозить грузы. При том на одной стороне у тебя бесконечный запас нужного груза. А с другой стороны производство, с ограниченным складским запасом.

И что мы видим теперь
Есть трасса, чем шире тем больше трафика можно гонять. Чем выше скорость, т.е. частота памяти тем так же больше трафика в единицу времени будет проходить.
Чем лучше алгоритмы сжатия данных, а они есть уже давно. То тем больше грузов вы перевозите в единицу времени.
Т.е. вам нужно меньше трафика на трассе, что бы производство не остановилось из за нехватки груза.
Чем больше у нас кеша, то тем выше локальный склад, тем выше шанс, что на нём найдётся нужный нам груз для производства, тем ниже нужен трафик на трассе, что бы производство так же не остановилось.

Итого теперь по факту что изменилось.
1)Трасса стала уже.
2)Подняли частоты (скоростной лимит).
3)Увеличили локальный склад.

Вот и всё. Это абсолютно нормально. И для игр разницы особой нет. 5700xt с вдвое выше шиной показывает результата аналогичные 6600Xt.

Идиотское решение говорить про то, о чём ничего не знаешь, что не понимаешь и даже не пытаешься погуглить и понять.

Кмон L3 кеш открыли достаточно давно. Уже x3d процы клепают. А люди всё чисто на шину глядят.