Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ты дурак? Куда БИБЛИОТЕКИ мать вас. Просто открой глаза и научись читать.
Тензорные ядра, это не что-то уникальное. Это блок для матричных вычислений. У амд они есть в архитектуре CDNA. У интела тоже будет АМХ блок.
Ну типа, очевидно Майки и АМД совместно разработали библиотеки для ML. Не удивительно.
Нв для такого явно юзает свои библиотеки куда.
Но один фиг для данных целей лучше юзать спец блоки. И амд это тоже понимают.
Про архитектуру не известно. Но базовый принцип, чем выше частоты и ниже производительность, тем проще архитектура. И 1,8ГГц не то что б мало. А 8Тфлоп не то что б много.
Опять же GCN 3.0 1ГГц фури нано, при потреблении на 25Вт ниже, имела почти 8,2Тфлоп.
Тут же для того же результата надо аж 1.8ггц и то не дотянули.
Но самая жесть это младший вариант, который совсем фекальный 2тфлоп при 150Вт? Что-то явно не то с масштабируемостью видимо.
.
GPU сложная железка, но разрабатывают блоки для гпу не только амд и нв. Есть те кто продаёт разработанные блоки, та же мали например или imagination.
Adreno? тоже графика!
Так что тех кто умеет разрабатывать графику хватает. При том что разработка gpu это всё же не что то концептуально новое. Тоже логические вентили, тоже simd, тоже разводка в кремнии. И да компания создала десятки гпу. Но сколько создал каждый отдельный человек?
И да gpu как и cpu так или иначе в своей основе таки использует математику. Просто описывают функции или алгоритмы, через логические вентили. и тут нет концептуальной разницы меж тем же cpu. Кстати cpu то тоже используют simd расширения.
.
Так что дорога то уже прокатанная. И я даже с актуальным то не сравнивал. Но получить что-то уровня 1080ти или титанов, можно было. При том что китайцы то не тратят кучу ресурсов на продвижение технологий типо РТ или длсс.
.
А что до интел вон обещают выкатить карту уровня 3070. с матричными блоками и РТ блоками, со своим длсс. И это интел не смогла? Сомнительно. про DG1 даже не говорите, ибо это та же встройка по сути, просто в ином формате. Считайте отбраковка.
тк они и так платят за тот же dp и hdmi. Как пример.
Так же можно заметит что версия openGL тоже не последняя.
Но тем не менее лицензирование бы явно не стоило дорого, ибо отчисления идут с одной штуки. И менее дорого.
При том я не уверен, что производители железа вообще должны платить за вулкан. Ибо это вообще по сути реализовывается через драйвер. И является наследием опенгл.
Т.е. они и так платят, почему бы не использовать более свежие стандарты.
Пфф где этот мусор был бы не то что быстрее НВ а на уровне.
Оно архитектурно судя по всему ну такое себе. И выехали чисто за счёт частот и потребления.
просто берём gp102
псп 484ГБ/сек
ТДП 250Вт
частота 1582MHz
fp32 11.34Tflop
16нм
упс. И это 2016год
Возьмём амд 2015.
r9 nano максимально близкий конфиг с тем что в новости
псп 512ГБ/сек
ТДП 175Вт
частота 1000MHz
fp32 8.19Tflop
28нм.
Просто GCN 3.0, лол.
только вот фури как бы к fp16 имеет множитель 1:1 и fp64 1:16. Когда 1080ти 1:64 и 1:32 соответственно.
.
Китаец же фигачит на частоте в 1.8Ггц. Что выше любого названного варианта. Да и им доступны те же 16...12нм ТП серийно. Что это нам говорит, что вероятно конвейер то по проще будет, ибо производительность не высока, в отличии от тактовой частоты.
.
И да сделать gpu ХУЖЕ, чем модель 6 летней давности, действительно просто. Особенно с ресурсами китайцев, как человеческих так и денежных. Просто потому как тебе вообще не надо быть первопроходцем. ДОГОНЯЮЩИМ быть проще. Банально за это время стало БОЛЬШЕ опытных кадров. Фаундри продвинулись вперёд. Да даже наборов ГОТОВЫХ блоков для проектирования стало больше. Купи, поставь, пользуйся. СЕЙЧАС не обязательно всё делать с 0. И с чего ты взял, что инженеры, которые делали этот gpu, что-то разрабатывают в первой лол. Или что любой другой опыт не в счёт.
Лол я даже не брал в сравнение современные железки. Не брал в расчёт что в 2022 году (под конец) может уже выйти следующее поколение железа.
А оно даже до железок 2015-2016 года не дотянуло местами.
Лол ты так говоришь, как будто китайцы запилят что-то КОНЦЕПТУАЛЬНО новое, что до них НЕ делали. И вот оно оказалось похуже.
Но НЕТ. НАВЕРНЯКА используя КУЧУ РЕСУРСОВ, просто не смогли.
Оно конечно прикольно, что типо своё.
Но такой мусор.
Особенно конкурент 1050. Который JM9231. Жрёт в 2 раза больше, имеет чуть выше частоту, почти в 2.5раза больше псп, а производительность та же. Мда. При том что паскали то, далеко не новые.
А вот отсутствие того же вулкана не айс.
И типо 2 тфлоп? И 9 тфлоп? на сегодняшний день это не так и много. Хотя оно почти не о чём и не говорит.
И да как минимум были ещё 1080ти и титан Х.
Ну и конечно аппаратные декодеры и грустный dp 1.3, грустно, но допустим большего и не нужно под те условия где будут использовать данные карты.
.
Но всё же что им блин мешало поставить dp посвежее, vp9 av1 декодеры и вулкан? Хотя чё это я. Смысл ибо врят ли бы китайцы стали бы поддерживать игры на данных картах теми же драйверами. Ибо вероятно это более нишевое решение.
Но самая фигня в том, что они ещё не выпущены. И появятся серийно ток в след году. А это уже 6 лет отставания.
.
А за это время индустрия уже подсела на те же нейронки с матричными вычислениями.
Чел если ты тупой это твои проблемы.
Но по мне максимально очевидно, что ты тупо не можешь измерять задержки в отрыве от шины данных процессора. Ибо она тоже вносит свои задержки как и тот же КП. Да даже от маршрутизации в самой микроархитектуре. Ибо ты не можешь прокачать данные из озу, не используя шину лол.
Просто бери и проверяй эмпирически лол.
Сравни задержки на одинаковых модулях в 3х разных конфигах.
На интеле тот же 10900к
С тем же амд zen2 3800х
И о божечки что мы видим? На интеле задержка то оказывается ниже. Но тут разные шины и кп.
А теперь сравним задержки zen2 3800х и zen3 5800х при прочих равных.
И о боже 5800х имеет задержки почти на 10нс меньше
А ведь шина таже, да даже КП тот же. А вот иерархия L3 кеша изменилась. Сделав L3 единым для 8 ядер, что и приводит нас к тому, что шина стала менее нагруженной, ибо больше не нужно прокачиваться данные меж двумя CCX в CCD и бац задержка то стала по меньше.
Задержки конечно конские 90нс для 128бит или двухканала, для интела. Это прям слишком много.
А учитывая микроархитектуру, то задержки должны были бы остаться теми же или изменения были б минимальны.
Ибо по сути всё та же кольцевая шина, только вместо 2х больших ядер подключили два 4х ядерных кластера с малыми ядрами.
А ведь это даже ещё не самый худший варик ddr5 которым будет по факту уже ddr5 4800.
Ждёмс реальных тестов с снижением таймингов или разгоном памяти.
Выглядит немного позорно. Типо у амд хотя бы теплотрубки есть. А тут же просто алюминиевый радиатор, в лучшем случае с медным сердечником? тьфу покрасили и подстветочку.
Ну суть то иная. Там обусловлено больше выходом из строя самой механической части. И выработка на отказ обусловлена не циклом записи, а временем наработки.
Когда ССД это именно отказ в связи с разрушением самой ячейки.
Ну хотя в сверхплотных ХДД тоже возможно потеря данных в связи с перезаписью, ибо запись влияет на соседние участки. И там это правится на уровне коррекции, точнее перезаписи потерянных данных(утрировано). Но бытовых моделей и тех что использовали в плотинге это особо не касается
Так что перезапись в сотни тб, для хдд пустяк, что не скажешь про ссд.
Только вот ССД всё же быстрее вот и ускоряет посев, который и храниться на хдд.
Ага только концепция то всё ещё PoW, что и приводит к всё большей централизации вычислительных мощностей=эмиссии. Не говоря уже о том, что чем у вас больше средств и связей (например с производителями асиков), то тем больше вы себе можете позволить вычислительных мощностей. Т.е. оно уже априори идёт по пути централизации. И полная чушь говорить, что оно не порождает централизацию.
Иди помайни биток на смартфоне, IoT, cpu, gpu. Посмотрим как оно тебе удастся.
.
Для того и нужна асик устойчивость.
Так у битка своих косяков хватает. Например он не устойчив к асикам, что приводит к его же централизации.
Или не самая высокая пропускная способность сети, т.е. транзакции не очень быстрые, так и комиссионные будут не лучшими.
Отсутствие тех же смарт контрактов.
А альткоины решают проблему децентрализации не хуже. Ибо их наличие само по себе децентрализация, у тебя есть выбор что использовать.
Вот например транзакция в с начала 21 года в битке была не менее 5$ и доходила до 63$, сейчас 2.5$.
Когда в сети трон ты можешь нное кол-во тронов в день отправлять вообще без комиссии.
Скорость транзакций тоже не айс. транзакция подтверждается примерно 6 блоками, нахождение 1 блока сейчас занимает 9 минут. 54 минуты ммм.
Тот же трону куда быстрей.
Да оно медленней и дороже внутрибанковских переводов и не только.
Не говоря уже о том, что курс биткоина задаётся на биржах.
А чиа да вроде сразу было похоже на некоторый скам.
Так оно возможно и без SSD только плотинг или как оно там, происходит дольше.
Ну а HDD пофиг у него не ресурса по кол-ву записей.
.
И да майнинг на HDD был и до этого и тоже не особо взлетал.
Схерали?
Стоимость небольших по размеру чипов копейки. И ТСМС не продаёт чипы.
ТСМС продаёт пластины.
Стоимость 300мм выполненной по 5нм т.п. составляет 17000$
Возьмём эффективную площадь как 64000мм2 (где условно 5% брака)
apple m1 die size 120,5мм2
64000/120.5=531чип
17000/531=32$ за кристалл
И даже все 20% удорожания, это всего на всего 6,4$ с чипа.
И вот если перенести эти 6,4$ на стоимость конечной продукции без наценок. То какая разница стоит ноут на М1 1000$ или 1006,4$ какой ужас.
Но это эпл, которые используют передовые тех процессы и тонны транзисторов.
Для zen3 амд это всего пара долларов.
Вы не верно пишите, вроде бы верную мысль.
кто вообще не даёт $ вперёд?
все фаблес компании резервируют мощности, т.е. дают деньги вперёд.
Ибо проектирование чего либо, полностью базируется на возможностях тех процессов и оптимизируется под них. А цикл разработки может составлять 3...5 лет. Кстати плюс минус столько же строиться или расширяется фабрика.
Только эпл прям инвестирует в строительство заводов под свои заказы, а не просто даёт деньги вперёд. Да и объёмы производства не малые.
Но опять же я считаю, что его поставить не так и дорого. Допустим лишние операции выльются ну в 10...15$ не более.
Ведь установка каключается в чём. развернули кристалл cpu на 180 градусов, хызы зачем, это ничего не стоит.
Спилить кристалл не так дорого, но учитывая точность всё ж денег стоит. Установка с использованием TSV в основном и занимает основную цену. А дальше заливают структурным силиконом.
и вот себестоимость до 20$ и то я многовато беру, может быть чуть ли не в 2раза дешевле.
.
Стоимость RnD вероятно вообще крайне низкая. Ибо архитектура, управление питанием и прочие нюансы уже были.
А изменения минимальны, вероятно они использовали данные которые пользовали при разработке zen3, в плане размеров кеша.
Т.е. по сути исследование было в определении точного объёма кеша, как повлияют возросшие задержки, да и всё вроде. Т.е. как по мне АМД для внедрения нужно было использовать минимум ресурсов.
Так что я думаю оно не дорого выйдет.
Но фактически в больших ядрах есть AMX блоки под 2048битные Int8 вычисления. Как и предусматривается 2метра L2 кеша. Но по факту в десктопе этого не будет. Так же и c AVX 512 кастрируют. Хотя физически оно есть.
Опять же мог быть невнимательным и не так интерпретировать. Но вроде перепроверил, но авх512 не будет(так же как исполнения двух avx2). Так же вроде vnni Для e-core.
Это всё пойдёт вроде в сервера.
Тензорные ядра, это не что-то уникальное. Это блок для матричных вычислений. У амд они есть в архитектуре CDNA. У интела тоже будет АМХ блок.
Нв для такого явно юзает свои библиотеки куда.
Но один фиг для данных целей лучше юзать спец блоки. И амд это тоже понимают.
Опять же GCN 3.0 1ГГц фури нано, при потреблении на 25Вт ниже, имела почти 8,2Тфлоп.
Тут же для того же результата надо аж 1.8ггц и то не дотянули.
Но самая жесть это младший вариант, который совсем фекальный 2тфлоп при 150Вт? Что-то явно не то с масштабируемостью видимо.
.
GPU сложная железка, но разрабатывают блоки для гпу не только амд и нв. Есть те кто продаёт разработанные блоки, та же мали например или imagination.
Adreno? тоже графика!
Так что тех кто умеет разрабатывать графику хватает. При том что разработка gpu это всё же не что то концептуально новое. Тоже логические вентили, тоже simd, тоже разводка в кремнии. И да компания создала десятки гпу. Но сколько создал каждый отдельный человек?
И да gpu как и cpu так или иначе в своей основе таки использует математику. Просто описывают функции или алгоритмы, через логические вентили. и тут нет концептуальной разницы меж тем же cpu. Кстати cpu то тоже используют simd расширения.
.
Так что дорога то уже прокатанная. И я даже с актуальным то не сравнивал. Но получить что-то уровня 1080ти или титанов, можно было. При том что китайцы то не тратят кучу ресурсов на продвижение технологий типо РТ или длсс.
.
А что до интел вон обещают выкатить карту уровня 3070. с матричными блоками и РТ блоками, со своим длсс. И это интел не смогла? Сомнительно. про DG1 даже не говорите, ибо это та же встройка по сути, просто в ином формате. Считайте отбраковка.
Так же можно заметит что версия openGL тоже не последняя.
Но тем не менее лицензирование бы явно не стоило дорого, ибо отчисления идут с одной штуки. И менее дорого.
При том я не уверен, что производители железа вообще должны платить за вулкан. Ибо это вообще по сути реализовывается через драйвер. И является наследием опенгл.
Т.е. они и так платят, почему бы не использовать более свежие стандарты.
Оно архитектурно судя по всему ну такое себе. И выехали чисто за счёт частот и потребления.
просто берём gp102
псп 484ГБ/сек
ТДП 250Вт
частота 1582MHz
fp32 11.34Tflop
16нм
упс. И это 2016год
Возьмём амд 2015.
r9 nano максимально близкий конфиг с тем что в новости
псп 512ГБ/сек
ТДП 175Вт
частота 1000MHz
fp32 8.19Tflop
28нм.
Просто GCN 3.0, лол.
только вот фури как бы к fp16 имеет множитель 1:1 и fp64 1:16. Когда 1080ти 1:64 и 1:32 соответственно.
.
Китаец же фигачит на частоте в 1.8Ггц. Что выше любого названного варианта. Да и им доступны те же 16...12нм ТП серийно. Что это нам говорит, что вероятно конвейер то по проще будет, ибо производительность не высока, в отличии от тактовой частоты.
.
И да сделать gpu ХУЖЕ, чем модель 6 летней давности, действительно просто. Особенно с ресурсами китайцев, как человеческих так и денежных. Просто потому как тебе вообще не надо быть первопроходцем. ДОГОНЯЮЩИМ быть проще. Банально за это время стало БОЛЬШЕ опытных кадров. Фаундри продвинулись вперёд. Да даже наборов ГОТОВЫХ блоков для проектирования стало больше. Купи, поставь, пользуйся. СЕЙЧАС не обязательно всё делать с 0. И с чего ты взял, что инженеры, которые делали этот gpu, что-то разрабатывают в первой лол. Или что любой другой опыт не в счёт.
Лол я даже не брал в сравнение современные железки. Не брал в расчёт что в 2022 году (под конец) может уже выйти следующее поколение железа.
А оно даже до железок 2015-2016 года не дотянуло местами.
Лол ты так говоришь, как будто китайцы запилят что-то КОНЦЕПТУАЛЬНО новое, что до них НЕ делали. И вот оно оказалось похуже.
Но НЕТ. НАВЕРНЯКА используя КУЧУ РЕСУРСОВ, просто не смогли.
Но такой мусор.
Особенно конкурент 1050. Который JM9231. Жрёт в 2 раза больше, имеет чуть выше частоту, почти в 2.5раза больше псп, а производительность та же. Мда. При том что паскали то, далеко не новые.
А вот отсутствие того же вулкана не айс.
И типо 2 тфлоп? И 9 тфлоп? на сегодняшний день это не так и много. Хотя оно почти не о чём и не говорит.
И да как минимум были ещё 1080ти и титан Х.
Ну и конечно аппаратные декодеры и грустный dp 1.3, грустно, но допустим большего и не нужно под те условия где будут использовать данные карты.
.
Но всё же что им блин мешало поставить dp посвежее, vp9 av1 декодеры и вулкан? Хотя чё это я. Смысл ибо врят ли бы китайцы стали бы поддерживать игры на данных картах теми же драйверами. Ибо вероятно это более нишевое решение.
Но самая фигня в том, что они ещё не выпущены. И появятся серийно ток в след году. А это уже 6 лет отставания.
.
А за это время индустрия уже подсела на те же нейронки с матричными вычислениями.
Но по мне максимально очевидно, что ты тупо не можешь измерять задержки в отрыве от шины данных процессора. Ибо она тоже вносит свои задержки как и тот же КП. Да даже от маршрутизации в самой микроархитектуре. Ибо ты не можешь прокачать данные из озу, не используя шину лол.
Просто бери и проверяй эмпирически лол.
Сравни задержки на одинаковых модулях в 3х разных конфигах.
На интеле тот же 10900к
С тем же амд zen2 3800х
И о божечки что мы видим? На интеле задержка то оказывается ниже. Но тут разные шины и кп.
А теперь сравним задержки zen2 3800х и zen3 5800х при прочих равных.
И о боже 5800х имеет задержки почти на 10нс меньше
А ведь шина таже, да даже КП тот же. А вот иерархия L3 кеша изменилась. Сделав L3 единым для 8 ядер, что и приводит нас к тому, что шина стала менее нагруженной, ибо больше не нужно прокачиваться данные меж двумя CCX в CCD и бац задержка то стала по меньше.
А учитывая микроархитектуру, то задержки должны были бы остаться теми же или изменения были б минимальны.
Ибо по сути всё та же кольцевая шина, только вместо 2х больших ядер подключили два 4х ядерных кластера с малыми ядрами.
А ведь это даже ещё не самый худший варик ddr5 которым будет по факту уже ddr5 4800.
Ждёмс реальных тестов с снижением таймингов или разгоном памяти.
Когда ССД это именно отказ в связи с разрушением самой ячейки.
Ну хотя в сверхплотных ХДД тоже возможно потеря данных в связи с перезаписью, ибо запись влияет на соседние участки. И там это правится на уровне коррекции, точнее перезаписи потерянных данных(утрировано). Но бытовых моделей и тех что использовали в плотинге это особо не касается
Так что перезапись в сотни тб, для хдд пустяк, что не скажешь про ссд.
Только вот ССД всё же быстрее вот и ускоряет посев, который и храниться на хдд.
Иди помайни биток на смартфоне, IoT, cpu, gpu. Посмотрим как оно тебе удастся.
.
Для того и нужна асик устойчивость.
При том что открой как смарт контракт в сети виза хах.
Или не самая высокая пропускная способность сети, т.е. транзакции не очень быстрые, так и комиссионные будут не лучшими.
Отсутствие тех же смарт контрактов.
А альткоины решают проблему децентрализации не хуже. Ибо их наличие само по себе децентрализация, у тебя есть выбор что использовать.
Вот например транзакция в с начала 21 года в битке была не менее 5$ и доходила до 63$, сейчас 2.5$.
Когда в сети трон ты можешь нное кол-во тронов в день отправлять вообще без комиссии.
Скорость транзакций тоже не айс. транзакция подтверждается примерно 6 блоками, нахождение 1 блока сейчас занимает 9 минут. 54 минуты ммм.
Тот же трону куда быстрей.
Да оно медленней и дороже внутрибанковских переводов и не только.
Не говоря уже о том, что курс биткоина задаётся на биржах.
А чиа да вроде сразу было похоже на некоторый скам.
Ну а HDD пофиг у него не ресурса по кол-ву записей.
.
И да майнинг на HDD был и до этого и тоже не особо взлетал.
Стоимость небольших по размеру чипов копейки. И ТСМС не продаёт чипы.
ТСМС продаёт пластины.
Стоимость 300мм выполненной по 5нм т.п. составляет 17000$
Возьмём эффективную площадь как 64000мм2 (где условно 5% брака)
apple m1 die size 120,5мм2
64000/120.5=531чип
17000/531=32$ за кристалл
И даже все 20% удорожания, это всего на всего 6,4$ с чипа.
И вот если перенести эти 6,4$ на стоимость конечной продукции без наценок. То какая разница стоит ноут на М1 1000$ или 1006,4$ какой ужас.
Но это эпл, которые используют передовые тех процессы и тонны транзисторов.
Для zen3 амд это всего пара долларов.
кто вообще не даёт $ вперёд?
все фаблес компании резервируют мощности, т.е. дают деньги вперёд.
Ибо проектирование чего либо, полностью базируется на возможностях тех процессов и оптимизируется под них. А цикл разработки может составлять 3...5 лет. Кстати плюс минус столько же строиться или расширяется фабрика.
Только эпл прям инвестирует в строительство заводов под свои заказы, а не просто даёт деньги вперёд. Да и объёмы производства не малые.
Ведь установка каключается в чём. развернули кристалл cpu на 180 градусов, хызы зачем, это ничего не стоит.
Спилить кристалл не так дорого, но учитывая точность всё ж денег стоит. Установка с использованием TSV в основном и занимает основную цену. А дальше заливают структурным силиконом.
и вот себестоимость до 20$ и то я многовато беру, может быть чуть ли не в 2раза дешевле.
.
Стоимость RnD вероятно вообще крайне низкая. Ибо архитектура, управление питанием и прочие нюансы уже были.
А изменения минимальны, вероятно они использовали данные которые пользовали при разработке zen3, в плане размеров кеша.
Т.е. по сути исследование было в определении точного объёма кеша, как повлияют возросшие задержки, да и всё вроде. Т.е. как по мне АМД для внедрения нужно было использовать минимум ресурсов.
Так что я думаю оно не дорого выйдет.
Опять же мог быть невнимательным и не так интерпретировать. Но вроде перепроверил, но авх512 не будет(так же как исполнения двух avx2). Так же вроде vnni Для e-core.
Это всё пойдёт вроде в сервера.