Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
>> Вы продолжаетет нести ересь.
Оу, ну канешна же! Диванным экспертам виднее :)
.
>>По вашему и майки пишут дрова для видеокарт Нвидия и АМД?
Нет, я такого не говорил. Я говорил про КОНСОЛИ.
Для ПК драйверы пишет AMD и Nvidia.
Кстати ARM драйверы под линукс у Nvidia лежат на сайте.
.
>>имеено АМД для АПИ Сони разрабатывал драйвер
Ахах. Я как бы лично знаю людей, которые пишут эти драйверы.
.
>>разрабатывает как неожиданно драйвера для Эппл ГПУ
Я специально для вас отквотил кусочек. Тонкий намёк.
>> Ват? В каком смысле свои драйвера? Что вы несете? Кто им вообще даст это делать
Что значит кто даст? Вендор даёт все доки потому что Apple им платит бабки.
Думаете AMD пишет дрова для Metal или для консолей Sony/Microsoft?
.
https://jobs.apple.com/en-us/details/200230175/gpu-driver-architecture-engineer?team=SFTWR
. «This group is responsible for the overall design of Apple's GPU software stack, from the developer APIs (Metal, OpenGL, and OpenCL) to the low level kernel-mode driver infrastructure.
We drive cross-functional projects across multiple GPU families and hardware platforms, working with other groups across the company, including internal and third party application developers, GPU driver engineers»
.
>> К тому же Метал в том виде что нужно для расчетов это практически OpenCl
Для каких? Многие расчётные задачи подразумевают взаимодействие CPU<->GPU.
По тормозной некогерентной шине ePCIe данные гонять предлагаете?
>> банально ни АМД ни точно Нвидия не адаптировали драйвера под арм архитектуру
Apple пишет свои дрова.
Но суть не в этом. Внешний GPU это потеря всех фишек Metal на Apple Silicon, которые завязаны на унифицированную память с процессором и акселераторами. Т.е. программы которые разрабатываются специально под Mac, потребуют модификации чтобы внешняя карта вообще работала. Ради 0.00001% клиентов никто не будет заморачиваться.
>> а тут раз и выдали все сразу и правильно
Сразу? Ахаха.
Свой GPU у них с процессора A10, т.е. 2016г.
Постепенно он становился всё более мощным.
Мобильная графика уже несколько лет как может тащить ПК-игры без проблем.
>> С чего это?
>> У 4770к основная тактовая 3.5ГГц
С того. Процессоры Интел спроектированы с расчётом на высокую частоту.
Незачем их гонять на низкой.
Процессор 2017г вы сравниваете с процессором 2013г.
Хотя самсунговское ядро M2 на бумаге и мощнее чем Haswell в пересчёте на частоту, на реальных приложениях очень вряд ли.
.
>> Везде пишут, что 256бит шина памяти у М1.
У M1 — 128бит LPDDR4X ~62ГБ/c
У M1 Pro — 256бит LPDDR5-6400 200ГБ/с
У M1 MAX — 512бит LPDDR5-6400 400ГБ/с
>> Я бенчмаркил V8 на эксинос и интел несколько лет назад.
Т.е. вы не думали что ARM и х86 бэкенды могут отличаться тупо настройками оптимизации?
.
«Потому все скриптовые языки на рисках работают лучше — это и до М1 было многим известно..»
«Выполнял его он примерно в 1.5 раза дольше, чем 4770к»
.
Отлично — сами сморозили глупость и тут же её опровергли :)
Я даже не стал придираться к "все скриптовые языки". Какие «все» вы «бенчмаркили»?
>> Эпломаны все уши прожужжали про скорость памяти прямо на чипе.
Нет, это как раз «нефанаты» прожужали все уши. Мол он такой быстрый потому что «память на чипе». А как открываешь истинное положение дел, сразу в молчанку уходят.
.
>>Зачем тогда было совать её на чип, если оне не быстрее обычной DDR4?
Компактность, меньше длина проводников. Одни плюсы. Для 512 битной шины это актуально как никогда.
Память всегда была сверху чипа.
Если положить её рядом, получаем лучшее охлаждение чипа + увеличенное число каналов памяти.
>> Там чаcть тестов HTML5 DOM
1 тест из 21, которые включают рейтресинг, SIMD обработку данных, ML и другие связан с Javascript и сразу ВЕСЬ пакет становится «браузерным бенчмарком»
Так и этот тест является нативным, показывающим производительность JS движка — именно так и получается real-world scenarios. Код бенчмарка написан на C++.
Оу, ну канешна же! Диванным экспертам виднее :)
.
>>По вашему и майки пишут дрова для видеокарт Нвидия и АМД?
Нет, я такого не говорил. Я говорил про КОНСОЛИ.
Для ПК драйверы пишет AMD и Nvidia.
Кстати ARM драйверы под линукс у Nvidia лежат на сайте.
.
>>имеено АМД для АПИ Сони разрабатывал драйвер
Ахах. Я как бы лично знаю людей, которые пишут эти драйверы.
.
>>разрабатывает как неожиданно драйвера для Эппл ГПУ
Я специально для вас отквотил кусочек. Тонкий намёк.
Коронный аргумент =)
Ага, пара сотен транзисторов не влезла, вот беда!
Поэтому решили увеличить GPU в два раза до 57 миллиардов.
Зачем её делать, если она там есть уже?
5% используют внешние видеокарты на Макбуках?
Что значит кто даст? Вендор даёт все доки потому что Apple им платит бабки.
Думаете AMD пишет дрова для Metal или для консолей Sony/Microsoft?
.
https://jobs.apple.com/en-us/details/200230175/gpu-driver-architecture-engineer?team=SFTWR
.
«This group is responsible for the overall design of Apple's GPU software stack, from the developer APIs (Metal, OpenGL, and OpenCL) to the low level kernel-mode driver infrastructure.
We drive cross-functional projects across multiple GPU families and hardware platforms, working with other groups across the company, including internal and third party application developers, GPU driver engineers»
.
>> К тому же Метал в том виде что нужно для расчетов это практически OpenCl
Для каких? Многие расчётные задачи подразумевают взаимодействие CPU<->GPU.
По тормозной некогерентной шине ePCIe данные гонять предлагаете?
Apple пишет свои дрова.
Но суть не в этом. Внешний GPU это потеря всех фишек Metal на Apple Silicon, которые завязаны на унифицированную память с процессором и акселераторами. Т.е. программы которые разрабатываются специально под Mac, потребуют модификации чтобы внешняя карта вообще работала. Ради 0.00001% клиентов никто не будет заморачиваться.
Вы бы что-ли на ютубчике посмотрели подборки игр, которых нет =)
Для 3080 слишком сложная задача, да? :)
Прекращайте долбиться в глаза :)
M1 MAX 398.9
3080 394.8
Вы эту презентацию не смотрели или просто бессмысленно врёте?
Сразу? Ахаха.
Свой GPU у них с процессора A10, т.е. 2016г.
Постепенно он становился всё более мощным.
Мобильная графика уже несколько лет как может тащить ПК-игры без проблем.
>> У 4770к основная тактовая 3.5ГГц
С того. Процессоры Интел спроектированы с расчётом на высокую частоту.
Незачем их гонять на низкой.
Процессор 2017г вы сравниваете с процессором 2013г.
Хотя самсунговское ядро M2 на бумаге и мощнее чем Haswell в пересчёте на частоту, на реальных приложениях очень вряд ли.
.
>> Везде пишут, что 256бит шина памяти у М1.
У M1 — 128бит LPDDR4X ~62ГБ/c
У M1 Pro — 256бит LPDDR5-6400 200ГБ/с
У M1 MAX — 512бит LPDDR5-6400 400ГБ/с
Тредриппер это процессоры для дома/рабочих станций.
В HPC рулят GPU (и ARM). А не вот это вот.
Т.е. вы не думали что ARM и х86 бэкенды могут отличаться тупо настройками оптимизации?
.
«Потому все скриптовые языки на рисках работают лучше — это и до М1 было многим известно..»
«Выполнял его он примерно в 1.5 раза дольше, чем 4770к»
.
Отлично — сами сморозили глупость и тут же её опровергли :)
Я даже не стал придираться к "все скриптовые языки". Какие «все» вы «бенчмаркили»?
>> Эпломаны все уши прожужжали про скорость памяти прямо на чипе.
Нет, это как раз «нефанаты» прожужали все уши. Мол он такой быстрый потому что «память на чипе». А как открываешь истинное положение дел, сразу в молчанку уходят.
.
>>Зачем тогда было совать её на чип, если оне не быстрее обычной DDR4?
Компактность, меньше длина проводников. Одни плюсы. Для 512 битной шины это актуально как никогда.
Память всегда была сверху чипа.
Если положить её рядом, получаем лучшее охлаждение чипа + увеличенное число каналов памяти.
1 тест из 21, которые включают рейтресинг, SIMD обработку данных, ML и другие связан с Javascript и сразу ВЕСЬ пакет становится «браузерным бенчмарком»
Так и этот тест является нативным, показывающим производительность JS движка — именно так и получается real-world scenarios. Код бенчмарка написан на C++.