Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ну как вам сказать, по поводу урезаний. Там немножечко иной набор исполнительных блоков.
Просто у интела соотношение fp32 к fp64 1 к 4. Как у 7 радика.
У АМД 1 к 16. И нет не режут. Сравните Rx 6800 и W6800. у обеих 1 к 16.
Тут разница кроется в ALU и инструкциях. Т.е. в самом подходе архитектуры к вычислениям.
И судя по всему, Интел использует более длинные инструкции, возможно исполняемые за несколько тактов. И вся проблема, в том чтоб эту железяку обеспечить работой. Для GPGPU не проблема. Для игр не очень.
https://www.techpowerup.com/review/intel-arc-a770/39.html
Тут я и нашёл ответ. Карточки хоть и умеют сбрасывать частоты (до 600МГц). Но почему-то память у них молотит всегда на полную.
При том в рамках энергосбережения, карты должны скидывать частоты прям на минимум. Можете у себя в GPU-Z попробовать глянуть.
И тут проблема может быть не софтверной. Ибо схемы питания закладываются на архитектурном уровне.
Удивляет насколько у них плохая архитектура для игр.
Сравним параметры a 770 и rx 6600xt. Данные с течповерапа.
Transistors: 21,700 vs 11,060 M
FP32: 17.2 vs 10.6 TFLOPS
Pixel Rate: 268.8 vs 165.7 GPixel/s
Texture Rate: 537.6 vs 331.4 GTexel/s
Кстати Интел не плох в вычислениях с двойной точностью(FP64).
FP64 4.301 vs 0.668 TFLOPS
А энергоэффективность, на кол-во транзисторов в целом как раз нормальное, на уровне.
Смотрим средний фпс
https://tpucdn.com/review/intel-arc-a770/images/average-fps_1920_1080.png
Теоретически, даже производительность на транзистор не плохая. Но судя по всему, у них какие-то проблемы с нормальной загрузкой конвейера. Из за чего не выходит получить всю производительность. И да это железная проблема.
Очень похоже на то, что интел изобрёл GCN, снова. По сему, в играх и видим такой результат. А вот в вычислениях, вероятно карточка будет не плохой. Но при условии, что софт будет оптимизирован, а драйвер стабилен.
Но что стоит отметить, так это действительно не плохую цену.
Если на карты не забьют. Есть вероятность, что со временем, эти карточки станут быстрее.
Ибо поправят драйвера. И даже может перепишут игры под интел, если те денег занесут.
Всё равно не сходиться. Если оно так. То берём 2мс. 8-2=6мс базовая задержка системы, без учёта времени кадра.
И тут для контраста берём результат в 18мс. 18-6=12мс. Но 1000/122 = 8,2мс. Откуда ещё 4мс взялись? Если ничего кроме видюхи не поменялось. Т.е. зедержки должны быть улучшены только за счёт времени кадра.
Так. в 1 секунде 1000мс. Если будет 1000FPS то задержка будет 1мс. Т.е. при ~500FPS задержка должна быть около 2мс.
1000/8 = 125. Всего 125 отрендереных кадров?
Я тут видимо чего-то не догоняю.
А как её продавать то? Вообще десятка сама по себе не так и плоха. Но чёрт побери, как же странно видеть, когда лезешь в настройки, часть из них от десятки, часть от 7. И сиди разбирайся, кто, что и куда запихнул.
Я вот помнится как-то пощупал сяомишную оболочку. Мне, мягко говоря, не понравилось. Некоторые вещи были не привычны/не удобны, а так же много всяких не нужных приложений из коробки. Как вспомню вспомню, коробит.
Кому-то пофиг, кому-то нравиться. А мне на оборот нравиться, когда ничего лишнего и можно поставить самому, то что нужно.
Переходник с USB на джек? Или на худой конец блютуз наушники? А вообще жаль что джека нет.
Вообще, меня в первую очередь интересовала конечно матрица. Присматриваю, что-то не дорогое для ютуба + чтения.
А на остальное вы уже ответили.
p.s. вроде в pad 2022 добавили джек.
Ну и правительство, ало. Вы что-то делать будете? Или мозги нам не нужны? А как же импортозамещение?
Собрать высококласных сотрудников с Интел и Нвидиа, это ж прям за милую душу.
Особенно под риторику «у какой загнивающий запад» и «вот теперь то как встанем с колен».
Или что, всё что вы хотите, это качать углеводороды, но теперь за восток?
А причём тут собственно ядра? Ядра то там вполне обычные SIMD 32.
CUDA сегодня, это не ядра, это SDK в первую очередь.
Понятное дело, что никто особо переписывать софт не горит желанием. Вон АМД сколько времени свой ROCm мучают.
Так я думаю Е'шка явно подороже будет, думаю могут 50у.е. накинуть, хорошо если меньше. А так B 550 и B650 практически в одной ценовой категории, с одинаковым функционалом. Да и B450 того же уровня, примерно столько и стоил, в своё время, но там без PCI-E 4.0
Так мы о А620 ничего толком не знаем. Это прям совсем гадание на кофейной гуще.
А зачем цены и дальше задирать? Сейчас выкинут платы на рынок. Он насытиться, и всё потихонечку начнёт дешеветь.
Да и B650 за ~200 у.е. норм, я бы такую плату и брал, в плане качества. Но они жутко не интересные. +- тоже самое что и B550 в туже цену. Можно было и получше уж.
Просто у интела соотношение fp32 к fp64 1 к 4. Как у 7 радика.
У АМД 1 к 16. И нет не режут. Сравните Rx 6800 и W6800. у обеих 1 к 16.
Тут разница кроется в ALU и инструкциях. Т.е. в самом подходе архитектуры к вычислениям.
И судя по всему, Интел использует более длинные инструкции, возможно исполняемые за несколько тактов. И вся проблема, в том чтоб эту железяку обеспечить работой. Для GPGPU не проблема. Для игр не очень.
Тут я и нашёл ответ. Карточки хоть и умеют сбрасывать частоты (до 600МГц). Но почему-то память у них молотит всегда на полную.
При том в рамках энергосбережения, карты должны скидывать частоты прям на минимум. Можете у себя в GPU-Z попробовать глянуть.
И тут проблема может быть не софтверной. Ибо схемы питания закладываются на архитектурном уровне.
Сравним параметры a 770 и rx 6600xt. Данные с течповерапа.
Transistors: 21,700 vs 11,060 M
FP32: 17.2 vs 10.6 TFLOPS
Pixel Rate: 268.8 vs 165.7 GPixel/s
Texture Rate: 537.6 vs 331.4 GTexel/s
Кстати Интел не плох в вычислениях с двойной точностью(FP64).
FP64 4.301 vs 0.668 TFLOPS
А энергоэффективность, на кол-во транзисторов в целом как раз нормальное, на уровне.
Смотрим средний фпс
https://tpucdn.com/review/intel-arc-a770/images/average-fps_1920_1080.png
Теоретически, даже производительность на транзистор не плохая. Но судя по всему, у них какие-то проблемы с нормальной загрузкой конвейера. Из за чего не выходит получить всю производительность. И да это железная проблема.
Очень похоже на то, что интел изобрёл GCN, снова. По сему, в играх и видим такой результат. А вот в вычислениях, вероятно карточка будет не плохой. Но при условии, что софт будет оптимизирован, а драйвер стабилен.
Но что стоит отметить, так это действительно не плохую цену.
Если на карты не забьют. Есть вероятность, что со временем, эти карточки станут быстрее.
Ибо поправят драйвера. И даже может перепишут игры под интел, если те денег занесут.
И тут для контраста берём результат в 18мс. 18-6=12мс. Но 1000/122 = 8,2мс. Откуда ещё 4мс взялись? Если ничего кроме видюхи не поменялось. Т.е. зедержки должны быть улучшены только за счёт времени кадра.
1000/8 = 125. Всего 125 отрендереных кадров?
Я тут видимо чего-то не догоняю.
Кому-то пофиг, кому-то нравиться. А мне на оборот нравиться, когда ничего лишнего и можно поставить самому, то что нужно.
Вообще, меня в первую очередь интересовала конечно матрица. Присматриваю, что-то не дорогое для ютуба + чтения.
А на остальное вы уже ответили.
p.s. вроде в pad 2022 добавили джек.
Из аналогичного нарыл разве что Blackview Tab 13.
Маркетологи придумали название. Плановики рассчитали, когда начнут производство.
Собрать высококласных сотрудников с Интел и Нвидиа, это ж прям за милую душу.
Особенно под риторику «у какой загнивающий запад» и «вот теперь то как встанем с колен».
Или что, всё что вы хотите, это качать углеводороды, но теперь за восток?
CUDA сегодня, это не ядра, это SDK в первую очередь.
Понятное дело, что никто особо переписывать софт не горит желанием. Вон АМД сколько времени свой ROCm мучают.
А зачем цены и дальше задирать? Сейчас выкинут платы на рынок. Он насытиться, и всё потихонечку начнёт дешеветь.
Да и B650 за ~200 у.е. норм, я бы такую плату и брал, в плане качества. Но они жутко не интересные. +- тоже самое что и B550 в туже цену. Можно было и получше уж.