Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
А дальше в дело идут «размножители нейтронов». Например бериллий из которого делают первый (обращенный к горящей плазме) слой бланкета перед литием и который при поглощении 1 термоядерного нейтрона дает два вторичных нейтрона попадающих уже в литий.
В результате обкладывать совсем все (все 360 градусов вокруг плазмы) литием и нет необходимости. И при этом коэффициент воспроизводства трития можно получить больше единицы, даже с учетом того факта, что часть нейтронов теряется не достигая цели (т.е. лития).
Это тоже среди прочего на ITER тестировать будут — там целую коллекцию бланкетов разных конструкций и составов для испытаний готовят.
По бланкетам и воспроизводству трития в термоядерных реакциях неплохой реферат в тему:
http://profbeckman.narod.ru/DisAjizhan.files/Gl1.pdf
P.S.
Плюс в дейтерий-тритиевом реакторе на самом деле на 1 атом трития из топлива образуется немного БОЛЬШЕ чем 1 нейтрон — за счет идущий параллельно с основной (D-T) вторичной термоядерной реакции дейтерий-дейтерий(D-D). Которая и сама по себе дает дополнительную мощность и нейтроны не используя при этом тритий (только легко доступный дейтерий). И в которой из дейтерия образуются «бонусные» (не внесенные вместе и исходным топливом) тритий и гелий-3, которые тоже в свою очередь вступают в реакцию и дают дополнительную энергию и нейтроны.
Для параметров достижимых в ITER вклад всех этих вторичных/побочных реакций небольшой, но где-то порядка 10% сверху они дать могут суммарно. А по мере совершенствования параметров реакторов их вклад можно наращивать вплоть до перехода на чистое дейтериевое топливо в конце эволюции. Т.е. постепенно сокращать потребность в тритии и его производство. Ну либо производить его уже с избытком для использования в других местах — например в менее совершенных реакторах с коэффициентами наработки трития меньше единицы или вообще без собственной наработки трития.
И каким образом эти 95% оставшегося топлива опровергают произошедший ядерный взрыв?
Для той мощности ядерного взрыва (порядка нескольких сотен тонн в тротилловом эквиваленте) достаточно реакции сотых долей % от имевшегося топлива. Только очень быстрой — на ядерной мощности на порядки выше предельной проектной мощности реактора. Т.е. микро ядерный взрыв.
Паровой взрыв это не отменяет — дальше естественно был еще и паровой взрыв, т.к. большая часть энергии ядерного взрыва была поглощена огружавшей топливо водой, которая почти мгновенно превратилась в перегретый пар. И дальше взрыв продолжился уже как паровой. Гремучка скорее всего тоже была — в условиях поглощения энергии от первичного ядерного взрыва давшего очень высокие температуры и уровни излучения часть воды должна была распасться на водород и кислород из-за термического разложения и радиолиза.
На Фукусиме так и было — реакторы уже после полной остановки цепной ядерной реакции довольно долго и нудно (больше суток для первого взрыва) перегревались за счет тепла выделяющего от распада продуктов ядерных реакций. Накапливали давление пара и водород (образующийся от распада воды) прежде чем бабахнуть в обычных взрывах: большие количества перегретого пара и взрывы гремучей смеси — водорода с кислородом.
А вот Чернобыль имел место разгон цепной реакции на мгновенных нейтронах с повышением мощности на порядки выше максимальной проектной за время порядка секунды. Т.е. микроядерный взрыв. Примерно такой же как происходили при ранних НЕудачных испытаниях атомных бомб, когда из-за ошибок и просчетов мощность ядерного взрыва получалась крайне маленькой из-за того, что конструкция разрушалась слишком рано и начавшийся экспоненциальный рост мощности ядерных реакций обрывался слишком рано.
Погуглите по термину «Шипучка» + ядерное оружие. («Шипучками» называли неудачные испытания ядерного оружия ядерные выдавшие очень малую мощность)
Естественно за микроядерным взрывом в Чернобыле сразу же последовал паровой взрыв — т.к. большую часть энергии выделившейся в изначальном ядерном взрыве поглотила окружавшая ядерное топливо вода, которая превратилась в перегретый пар который продолжил разрушать конструкции реактора дальше.
Тепловые нагрузки в токамах намного НИЖЕ чем в ядерных реакторах, а не выше. Просто потому, токамаки получаются НАМНОГО крупнее/тяжелее чем ядерный реактор аналогичной мощности.
Для ядерных реакторов это всего сотни тонн при тепловой мощности в несколько тысяч МВт.
А для термояда на пример ITER это свыше десятки тысяч тонн при мощности до 500 МВт. В будущих более совершенных реакторах возможно получится сократить до тысяч тонн на несколько ГВт мощности, но все-равно плотность мощности будет где-то на порядок ниже имеющихся атомных реакторов.
Это плохо с точки зрения экономики, но хорошо с точки зрения пассивной безопасности.
Полететь они никуда не могут т.к. образуются и находятся внутри твердых и прочных конструкций — в стали, в меди, в бетоне и т.д., которые поглощали нейтронный поток. А не в жидких или газообразных веществах. Из жидких/газообразных там только тритий и тритивая вода которая может образоваться из него при аварии. Но в самом реакторе(не считая запаса хранящегося отдельно в другом здании) трития всего считанные граммы, а не тонны как в ядерных реакторах. Не говоря уже на пару порядков меньшей опасности самого трития по сравнению с ядерными отходами (при одинаковом количестве)
А вся эта наведенная радиоактивность, даже если ее из всех конструкций как-то извлечь не наберется и на 1% активности имеющейся всего в одном комплекте отработанного ядерного топлива обычного атомного реактора.
Это помимо той же наведенной радиоактивности в конструкциях ядерного реактора от нейтронных потоков. Правда на фоне отработанного топлива это тоже мелочь.
Эти «глупые» страны как раз ветряков строят и денег в них вкладывают больше чем в токамаки и частности и даже весь термояд в целом. Так что это утверждение ложно.
Включая даже Россию, не говоря тем более про Францию и «прочих».
В России что интересно ветряками среди прочих активно занимаются структуры Росатома наряду со строительством атомных станций.
Как раз потому, что токамаки и термояд вообще очень интересные и потенциально перспективные технологии, но это дело очень далекого и пока туманного будущего.
А ветряки уже освоенная технология которая работает и окупает вложенные в них деньги уже прямо сейчас. Поэтому инвестиции идут туда.
А на термояд как и прочую фундаментальную науку деньги выделяют неохотно.
Ну глазом разницу латиницы и кириллицы на одинаковых буквах не видно и сокращения такое не попадалось. Обычно CCGT. Решил что это СССР с опечаткой.
Это парогазовые установки(CCGT как раз), других видов CCPP вроде тоже не освоено. Так ведь и там тоже вода и водяной пар используется. А первая ступень такой комбинированной турбины пригодна только одного топлива — горючей газо-воздушной смеси, где он и топливо и раб. тело одновременно.
К другим источникам тепла это никак не применить.
В АЭС не только PWR реакторы (хоть их и явной большинство), есть же реакторы с жидкометаллическими теплоносителями первого контура, в которых поднять температуру в 1м контуре проблем нет. Но не имеет смысла — т.к. во втором контуре снова используется вода с ее ограничениями по температурам и паровые турбины с относительно низким КПД. Можно было бы ставить высокотемпературные турбины работающих на других раб. телах. Но на промышленном уровне такие до сих пор не освоены и приходится ставить к таким реакторам старые добрые паровые турбины.
Ну в первом контуре кроме галлия вариантов много, теплоносители на жидких металлах хоть и не особо хорошо, но уже кое-как освоены — натриевые, свинцовые.
Но это только первый шаг — съём тепла из активной зоны.
Для 2й ступени (собственно работы турбины) оно не применимо.
Для этой части в принципе тоже давно есть разработки — например высокотемпературные газовые — на гелии или был/есть вариант со сверхкриитческим углекислым газом. Но все «не выходит каменный цветок» в плане практического освоение подобных технологий. Хотя в теории все выглядит неплохо и этими вопросами уже несколько десятков лет занимаются и не в одной стране.
А я не про температуру сгорания топлива, а про температуру нагревателя тепловой машины (котла), которая в практических машинах ограничивается совсем не температурой сгорания топлива, а параметрами используемых теплоносителей. И которая и ограничивает максимальный КПД преобразования, а не температура горения топлива.
Температура нагревателя конечно не может быть выше температуры горения топлива, но к этому пределу и близко не подпускают ограничения задаваемые использованием воды.
Да и относится эта проблема с оксидами азота только к электростанция в которых жгут ископаемое топливо(угольных, газовых). На атомных или например солнечно-концентрационных (CSP) такой проблемы вообще нет в принципе. Однако там тоже везде до сих пор используют турбины работающие на воде и относительно небольшие разницы температур и как следствие невысокие КПД (обычно ниже 40%).
И что «еще как» освоили в СССР? В СССР как и во всем мире в промышленности (а не в лабораториях или каких-то экспериментальных установках) для турбин повсеместно использовали воду.
КПД которого как и всех прочих тепловых циклов ниже цикла Карно.
Поэтому хоть непосредственно по циклу Карно турбины не работают (он вообще на практике не используется), но теоретические ограничения цикла Карно применимы и к турбинам в том числе.
Только если студент которого за дурость из университета выперли и он теперь вместо изучения физики тусуется на форумах «альтернативщиков» среди изобретателей вечных двигателей, продавцов холодного термояда, торсионщиков и прочих фриков.
Потому что все студенты хоть даже краешком изучающие теплотехнику знают, что у ЛЮБЫХ тепловых машин по какому бы они циклу не работали КПД их работы ВСЕГДА ниже чем у идеальной тепловой машины работающей по циклу Карно. Она потому «идеальной» и называется.
В т.ч. и у любой турбины.
У котла может быть очень высокий КПД, а вот у турбин — строго не выше предела задаваемого циклом Карно при имеющейся разнице температур. Ну а суммарный КПД всей связки (котел-турбина-питающие/циркуляционные насосы) еще ниже.
Дейтерий-тритиевый термоядерный реактор сам создает дикие нейтронные потоки (намного больше чем в ядерных реакторах). Поэтому если когда-нибудь именно такой тип реакторов (на дейтерий-тритии) пойдет в промышленность, то тритий будут вырабатывать прямо на месте в самом термоядерном реакторе обкладывая его со всех сторон бланкетами с литием, которые будут выполнять одновременно две задачи: работать как поглотитель нейтронов(преобразовывая их энергию в тепло, которое потом пойдет на производство электроэнергии), и как источник трития.
Одна из многих задач ИТЭР в т.ч. опробовать такой способ наработки трития на практике. Его там совсем немного будет производиться (основные поставки для работы будут с ядерных реакторов), т.к. таких бланкетов будет совсем мало установлено. Но такую технологию производства трития опробовать уже начнут.
С учетом того, что на входе считают тоже на само деле не электрическую энергию, а энергию инжекции попадающую в плазму (радиочастотных колебаний, мощность пучка нейтральных частиц и т.д. — смотря какие технологии нагрева плазмы используются) КПД получения которой из электрической энергии тоже далек от 100%, то соотношение подведенной мощности и выделяющейся термоядерной мощности (Q) нужно хотя бы до 1к5 доводить, чтобы потом в итоге хотя бы в ноль на полном цикле выйти: тепловая энергия из термоядерных реакций ==> электричество ==> энергия инжекции для подогрева плазмы и поддержания протекания реакции.
Ну а для для возможности более-менее нормального промышленного применения нужно будет добиваться Q хотя бы 1к20 и выше.
Только при ОЧЕНЬ высокой разнице температур нагревателя и «холодильника» и соответственно отказе от воды в качестве теплоносителя и рабочего тела и замены ее на что-то другое. Над чем уже очень много лет думают и экспериментируют (причем и без всякой привязки конкретно к термоядерным реакторам — повышение КПД тепловых турбин для любых электростанций очень полезно), но никто так и не смог нормально освоить на практике.
Что за мрак гонит МРАК?
Сегодня ПРИСТУПИЛИ к строительству?! Да его уже много лет строят, и все кто интересуется вопросом уже не первый год за процессом его постройки и поставок уникального оборудования следят. Некоторые даже на экскурсию еще в прошлом году успели съездить и своими ногами по уже построенным зданиям и сооружениям походить и на привезенное оборудование посмотреть!
Ну ядра GPU нужно конечно учитывать обязательно, выше неправ.
Но называть «CUDA cores” ядрами это высер маркетологов НВ, которые как и все маркетологи любят „написать цифры побольше“ любыми способами..
Ядрами „CUDA cores” не являются. Это элементарные успонительные блоки SIMD процессора. И их там кстати даже не 64, а 32 на SM. 5120 вообще бред маркетологоd посчитавших 2560 64 битных исполнительных блока как 5120 32 битных.
Надо бы им было дальше пойти и написать 10240 ядер (16 битных).
В таких попугаях если маркетологов слушать, то в ядре современного CPU будет более 20 ядер, а какой нибудь i7 или Ryzen 3700 на самом деле не 8 ядерные, а 160 ядерные процессоры.
Прямым аналогом процессорного ядра на GPU является как раз SM — минимальная единица чипа способная работать самостоятельно.
Так их в том числе в TOP-500 считают у всех суперкомпьютеров — складывают ядра всех CPU с SM (или Compute Units y GPU AMD) в GPU (при их наличии).
Да. Это не тупой тест, а тест показывающий именно вычислительные способности используемых процессоров/ядер о чем выше и спорили собственно.
А HPCG тестирует в основном скорость подсистемы памяти и интерконнекта между узлами, а не вычислительную мощность процессоров. В принципе конкретно для больших суперкомпьютеров он полезен и для некоторых задач даже более важен/показателен чем результаты классического Linpack, его показатели это показатели эффективности архитектуры построенного суперкопьютера как машины в целом. А не архитектуры использованных в нем процессоров. Т.е. качества работы проектировщиков и инженеров проектировавших супер (мат. платы под процессоры, конфигурации узлов, внутренню сеть соединяющую узлы и т.д), а не разработчиков самих процессоров.
Нет там 700 ядер, только по примерно 11 ядер GPU на 1 ядро Power. В каждом узле(сервере) по 2 процессора Power с 22 ядрами каждое и 6 Tesla V100 с 84 ядрами в каждом. Итого 44 ядра CPU и 504 GPU на каждый узел.
ARM потребовалось в 3 раза больше ядер(~7.3 миллиона против 2.4 миллионов), чтобы получить в 2.8 раза более высокую производительность.
При этом он жрет так же как раз примерно в 2.8 раз больше энергии(28 МВт против 10 МВт). Все достижения получены медом «против лома нет приема»: навалим ядер побольше, вольем немерено энергии и выйдем на первое место. Как в свое время сделали китайцы со своим Sunway TaihuLight — просто задавив числом процессоров и ядер впервые собранных в одной машине.
А итоговая энергоэффективность у новейшего «монолитного» (все внутри одного кристалла и даже память максимально близко к нему на одной подложке) серверного ARM чипа производимого по новейшей 7нм технологии получилась такая же как у «вязанки» из CPU + GPU общающихся с друг другом по длинных внешним шинам(которые сами по себе кучу энергии жрут из-за длинных линий) и изготовленным по уже прилично устаревшим тех. процессам (14нм и 12нм). А более современным уже проигрывает.
О чем собственно фанатикам «суперэффективных АРМ» уже много лет пытаются объяснить — что как только из ARM пытаются выжать действительно хорошую производительность вся его эффективность сдувается.
Так что либо медленной (но экономичные) процессоры для смартфончиков и планшетов, либо быстрые, но тогда уже нефига не экономичные процессоры догоняющие х86 не только по скорости работы, но и по жору энергии, если даже не хуже их.
Просто дело не в суперэффективной архитектуре, а в занимаемой нише — «небыстро, но экономично» и приоритетном доступе к «тонким» нормам контрактного производства — благо с конечных клиентов за них дерут достаточно, чтобы можно было позволить оплатить такой доступ.
В результате обкладывать совсем все (все 360 градусов вокруг плазмы) литием и нет необходимости. И при этом коэффициент воспроизводства трития можно получить больше единицы, даже с учетом того факта, что часть нейтронов теряется не достигая цели (т.е. лития).
Это тоже среди прочего на ITER тестировать будут — там целую коллекцию бланкетов разных конструкций и составов для испытаний готовят.
По бланкетам и воспроизводству трития в термоядерных реакциях неплохой реферат в тему:
http://profbeckman.narod.ru/DisAjizhan.files/Gl1.pdf
P.S.
Плюс в дейтерий-тритиевом реакторе на самом деле на 1 атом трития из топлива образуется немного БОЛЬШЕ чем 1 нейтрон — за счет идущий параллельно с основной (D-T) вторичной термоядерной реакции дейтерий-дейтерий(D-D). Которая и сама по себе дает дополнительную мощность и нейтроны не используя при этом тритий (только легко доступный дейтерий). И в которой из дейтерия образуются «бонусные» (не внесенные вместе и исходным топливом) тритий и гелий-3, которые тоже в свою очередь вступают в реакцию и дают дополнительную энергию и нейтроны.
Для параметров достижимых в ITER вклад всех этих вторичных/побочных реакций небольшой, но где-то порядка 10% сверху они дать могут суммарно. А по мере совершенствования параметров реакторов их вклад можно наращивать вплоть до перехода на чистое дейтериевое топливо в конце эволюции. Т.е. постепенно сокращать потребность в тритии и его производство. Ну либо производить его уже с избытком для использования в других местах — например в менее совершенных реакторах с коэффициентами наработки трития меньше единицы или вообще без собственной наработки трития.
Для той мощности ядерного взрыва (порядка нескольких сотен тонн в тротилловом эквиваленте) достаточно реакции сотых долей % от имевшегося топлива. Только очень быстрой — на ядерной мощности на порядки выше предельной проектной мощности реактора. Т.е. микро ядерный взрыв.
Паровой взрыв это не отменяет — дальше естественно был еще и паровой взрыв, т.к. большая часть энергии ядерного взрыва была поглощена огружавшей топливо водой, которая почти мгновенно превратилась в перегретый пар. И дальше взрыв продолжился уже как паровой. Гремучка скорее всего тоже была — в условиях поглощения энергии от первичного ядерного взрыва давшего очень высокие температуры и уровни излучения часть воды должна была распасться на водород и кислород из-за термического разложения и радиолиза.
А вот Чернобыль имел место разгон цепной реакции на мгновенных нейтронах с повышением мощности на порядки выше максимальной проектной за время порядка секунды. Т.е. микроядерный взрыв. Примерно такой же как происходили при ранних НЕудачных испытаниях атомных бомб, когда из-за ошибок и просчетов мощность ядерного взрыва получалась крайне маленькой из-за того, что конструкция разрушалась слишком рано и начавшийся экспоненциальный рост мощности ядерных реакций обрывался слишком рано.
Погуглите по термину «Шипучка» + ядерное оружие. («Шипучками» называли неудачные испытания ядерного оружия ядерные выдавшие очень малую мощность)
Естественно за микроядерным взрывом в Чернобыле сразу же последовал паровой взрыв — т.к. большую часть энергии выделившейся в изначальном ядерном взрыве поглотила окружавшая ядерное топливо вода, которая превратилась в перегретый пар который продолжил разрушать конструкции реактора дальше.
Для ядерных реакторов это всего сотни тонн при тепловой мощности в несколько тысяч МВт.
А для термояда на пример ITER это свыше десятки тысяч тонн при мощности до 500 МВт. В будущих более совершенных реакторах возможно получится сократить до тысяч тонн на несколько ГВт мощности, но все-равно плотность мощности будет где-то на порядок ниже имеющихся атомных реакторов.
Это плохо с точки зрения экономики, но хорошо с точки зрения пассивной безопасности.
Полететь они никуда не могут т.к. образуются и находятся внутри твердых и прочных конструкций — в стали, в меди, в бетоне и т.д., которые поглощали нейтронный поток. А не в жидких или газообразных веществах. Из жидких/газообразных там только тритий и тритивая вода которая может образоваться из него при аварии. Но в самом реакторе(не считая запаса хранящегося отдельно в другом здании) трития всего считанные граммы, а не тонны как в ядерных реакторах. Не говоря уже на пару порядков меньшей опасности самого трития по сравнению с ядерными отходами (при одинаковом количестве)
А вся эта наведенная радиоактивность, даже если ее из всех конструкций как-то извлечь не наберется и на 1% активности имеющейся всего в одном комплекте отработанного ядерного топлива обычного атомного реактора.
Это помимо той же наведенной радиоактивности в конструкциях ядерного реактора от нейтронных потоков. Правда на фоне отработанного топлива это тоже мелочь.
Включая даже Россию, не говоря тем более про Францию и «прочих».
В России что интересно ветряками среди прочих активно занимаются структуры Росатома наряду со строительством атомных станций.
Как раз потому, что токамаки и термояд вообще очень интересные и потенциально перспективные технологии, но это дело очень далекого и пока туманного будущего.
А ветряки уже освоенная технология которая работает и окупает вложенные в них деньги уже прямо сейчас. Поэтому инвестиции идут туда.
А на термояд как и прочую фундаментальную науку деньги выделяют неохотно.
Это парогазовые установки(CCGT как раз), других видов CCPP вроде тоже не освоено. Так ведь и там тоже вода и водяной пар используется. А первая ступень такой комбинированной турбины пригодна только одного топлива — горючей газо-воздушной смеси, где он и топливо и раб. тело одновременно.
К другим источникам тепла это никак не применить.
В АЭС не только PWR реакторы (хоть их и явной большинство), есть же реакторы с жидкометаллическими теплоносителями первого контура, в которых поднять температуру в 1м контуре проблем нет. Но не имеет смысла — т.к. во втором контуре снова используется вода с ее ограничениями по температурам и паровые турбины с относительно низким КПД. Можно было бы ставить высокотемпературные турбины работающих на других раб. телах. Но на промышленном уровне такие до сих пор не освоены и приходится ставить к таким реакторам старые добрые паровые турбины.
Но это только первый шаг — съём тепла из активной зоны.
Для 2й ступени (собственно работы турбины) оно не применимо.
Для этой части в принципе тоже давно есть разработки — например высокотемпературные газовые — на гелии или был/есть вариант со сверхкриитческим углекислым газом. Но все «не выходит каменный цветок» в плане практического освоение подобных технологий. Хотя в теории все выглядит неплохо и этими вопросами уже несколько десятков лет занимаются и не в одной стране.
Температура нагревателя конечно не может быть выше температуры горения топлива, но к этому пределу и близко не подпускают ограничения задаваемые использованием воды.
Да и относится эта проблема с оксидами азота только к электростанция в которых жгут ископаемое топливо(угольных, газовых). На атомных или например солнечно-концентрационных (CSP) такой проблемы вообще нет в принципе. Однако там тоже везде до сих пор используют турбины работающие на воде и относительно небольшие разницы температур и как следствие невысокие КПД (обычно ниже 40%).
И что «еще как» освоили в СССР? В СССР как и во всем мире в промышленности (а не в лабораториях или каких-то экспериментальных установках) для турбин повсеместно использовали воду.
Поэтому хоть непосредственно по циклу Карно турбины не работают (он вообще на практике не используется), но теоретические ограничения цикла Карно применимы и к турбинам в том числе.
Потому что все студенты хоть даже краешком изучающие теплотехнику знают, что у ЛЮБЫХ тепловых машин по какому бы они циклу не работали КПД их работы ВСЕГДА ниже чем у идеальной тепловой машины работающей по циклу Карно. Она потому «идеальной» и называется.
В т.ч. и у любой турбины.
У котла может быть очень высокий КПД, а вот у турбин — строго не выше предела задаваемого циклом Карно при имеющейся разнице температур. Ну а суммарный КПД всей связки (котел-турбина-питающие/циркуляционные насосы) еще ниже.
Одна из многих задач ИТЭР в т.ч. опробовать такой способ наработки трития на практике. Его там совсем немного будет производиться (основные поставки для работы будут с ядерных реакторов), т.к. таких бланкетов будет совсем мало установлено. Но такую технологию производства трития опробовать уже начнут.
Ну а для для возможности более-менее нормального промышленного применения нужно будет добиваться Q хотя бы 1к20 и выше.
Сегодня ПРИСТУПИЛИ к строительству?! Да его уже много лет строят, и все кто интересуется вопросом уже не первый год за процессом его постройки и поставок уникального оборудования следят. Некоторые даже на экскурсию еще в прошлом году успели съездить и своими ногами по уже построенным зданиям и сооружениям походить и на привезенное оборудование посмотреть!
Но называть «CUDA cores” ядрами это высер маркетологов НВ, которые как и все маркетологи любят „написать цифры побольше“ любыми способами..
Ядрами „CUDA cores” не являются. Это элементарные успонительные блоки SIMD процессора. И их там кстати даже не 64, а 32 на SM. 5120 вообще бред маркетологоd посчитавших 2560 64 битных исполнительных блока как 5120 32 битных.
Надо бы им было дальше пойти и написать 10240 ядер (16 битных).
В таких попугаях если маркетологов слушать, то в ядре современного CPU будет более 20 ядер, а какой нибудь i7 или Ryzen 3700 на самом деле не 8 ядерные, а 160 ядерные процессоры.
Прямым аналогом процессорного ядра на GPU является как раз SM — минимальная единица чипа способная работать самостоятельно.
Так их в том числе в TOP-500 считают у всех суперкомпьютеров — складывают ядра всех CPU с SM (или Compute Units y GPU AMD) в GPU (при их наличии).
А HPCG тестирует в основном скорость подсистемы памяти и интерконнекта между узлами, а не вычислительную мощность процессоров. В принципе конкретно для больших суперкомпьютеров он полезен и для некоторых задач даже более важен/показателен чем результаты классического Linpack, его показатели это показатели эффективности архитектуры построенного суперкопьютера как машины в целом. А не архитектуры использованных в нем процессоров. Т.е. качества работы проектировщиков и инженеров проектировавших супер (мат. платы под процессоры, конфигурации узлов, внутренню сеть соединяющую узлы и т.д), а не разработчиков самих процессоров.
https://avatars.mds.yandex.net/get-zen_doc/1101877/pub_5d5fb83a7cccba00ae9d79cc_5d5fbadf8c5be800aea89d57/scale_1200
ARM потребовалось в 3 раза больше ядер(~7.3 миллиона против 2.4 миллионов), чтобы получить в 2.8 раза более высокую производительность.
При этом он жрет так же как раз примерно в 2.8 раз больше энергии(28 МВт против 10 МВт). Все достижения получены медом «против лома нет приема»: навалим ядер побольше, вольем немерено энергии и выйдем на первое место. Как в свое время сделали китайцы со своим Sunway TaihuLight — просто задавив числом процессоров и ядер впервые собранных в одной машине.
А итоговая энергоэффективность у новейшего «монолитного» (все внутри одного кристалла и даже память максимально близко к нему на одной подложке) серверного ARM чипа производимого по новейшей 7нм технологии получилась такая же как у «вязанки» из CPU + GPU общающихся с друг другом по длинных внешним шинам(которые сами по себе кучу энергии жрут из-за длинных линий) и изготовленным по уже прилично устаревшим тех. процессам (14нм и 12нм). А более современным уже проигрывает.
О чем собственно фанатикам «суперэффективных АРМ» уже много лет пытаются объяснить — что как только из ARM пытаются выжать действительно хорошую производительность вся его эффективность сдувается.
Так что либо медленной (но экономичные) процессоры для смартфончиков и планшетов, либо быстрые, но тогда уже нефига не экономичные процессоры догоняющие х86 не только по скорости работы, но и по жору энергии, если даже не хуже их.
Просто дело не в суперэффективной архитектуре, а в занимаемой нише — «небыстро, но экономично» и приоритетном доступе к «тонким» нормам контрактного производства — благо с конечных клиентов за них дерут достаточно, чтобы можно было позволить оплатить такой доступ.