Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
С кабелями реально ж… па иногда бывает: далеко не каждый type c <-> type A(type C) оказывается хотя бы 3.0, чаще всего попадаются 2.0(например такой идет с samsung galaxy S 22го года) :( При подключении скоростного устройства получаешь 40 мб/сек на >= 3.0 портах…
Ну если брать именно стандартный 3.5", то 20 Мб было где-то в 1983(первый 3.5" на 10 мб) — 1985, так что все-таки чуть меньше 40 лет всего прошло. Что интересно, почему-то ST не стало использовать EAMR/HAMR в этих 20 ТБ дисках — а ведь обещали, что уже чуть ли не 24-30 Тб будет с этой технологией.
Не совсем так, я писал именно про потоки: 8 ядер с HT ей вполне может уже хватить. Не факт, что даже 16 E-ядер будут лучше, чем «всего лишь» 8 P-ядер с HT. Короче говоря, идея такая — для типичных десктопных задач пользы от E-ядер (в текущем их виде), мягко говоря, мало: как в смысле снижения энергопотребления(что вообще не особо актуально на десктопе), так и в смысле увеличения производительности за счет «маленьких» дополнительных ядер с низкой производительостью(и без HT) Иначе они бы сделали например 4+16( или даже 0-2+32?) на десктопе…
Сделайте TDP(и частоту, отключить HT) P-ядрам такие же как E-ядрам и окажется, что их производительность все равно значительно выше, такой тест уже делали. Вот, на TPU https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/7.html
8 P-ядер на 3.9 ГГц без HT 156 Вт потребление системы, а 8 E-ядер — 123 Вт. (корректность теста конечно не 100%, т. к. отключить P-ядра полностью нельзя, но это какое-то приближение) В итоге E-ядра не такие уже и эффективные получились — чистая энерго-эффективность P-ядер даже выше: за счет того, что задача выполняется быстрее при чуть более высокой потребляемой мощности. То есть E-ядра «эффективны» только в смысле расхода транзисторного бюджета по факту. Засунуть то их можно много на кристалл, но толку от них… Тем более, что обычные(не серверные) задачи редко хорошо масштабируются выше 8 ядер(16 потоков).
Точно! И я говорю — не нужны эти E-ядра на десктопе никому.(у АМД их не будет, да и штеуд возможно тоже откажется от них) В бучных процах(типа 12900HK) еще надо посмотреть, может и будет какой-то толк. В настольных же могли легко сделать 10 P-ядер, 12 уже наверное с трудом. И не пришлось бы с отключением AVX512 мудрить, и главное — не нужно мутить thread director и принуждать всех ставить несчастную 11ю винду! Так что если и брать процы этого поколения, то только те, которые имеют формулу X+0. Жаль только, что X > 6 похоже не будет…
intel обещал своим клиентам вполне серьезно(и я это запомнил):
https://www.reddit.com/r/hardware/comments/5sqw20/the_future_that_never_was_in_2000_intel_predicted/
Частоты можно было бы повысить все-таки хотя бы до 6-7 Ггц при желании, за 10 то лет(нам когда-то 10 Ггц обещали дать уже в 2005 году) :) Ну и засчет увеличения ширины/глубины x86 архитектуры (см. Apple ARM M1/M2 например), если это в принципе конечно с ней возможно(одновременно с ростом частоты очень сложно, но время же было). А вот всякие AVX2/AVX512 и пр. как раз не делать, на чем и сэкономить транзисторный бюджет. И уж точно не делать то, что делал штеуд все эти годы: увеличивать аж на 0-3-5% IPC/частоты за год :(
Да, с нм(техпроцессами) все сложно уже давно. Но еще печальнее обстоят дела с производительностью на ядро x86. Если взять простой вычислительный тест (без каких-то особых изысков с AVX инструкциями и пр.), например CPU-Z single-thread(x64-2017.1), то получим на моем древнем Sandy-Bridge E(модель 2011 г, @4 Ггц) примерно 400 единиц. На самом же лучшем ядре x86-64 на конец 2020 мы не получим 800 даже близко, в лучшем случае 650-700 на AMD Zen3. Итого: нет двукратного прироста за почти 10 лет :-(
Вот когда их по 68 тыс. рублей можно будет свободно купить, тогда только можно будет считать «рейтинг полезности». А пока у нас была по сути ничтожно малая партия распродана, а дальше перепродажа идет уже совсем по другим ценам.
Не совсем, хотя отчасти так. Там вроде с FP32 все как бы честно: можно 128 FP32 операций за цикл выполнить в каждом SM блоке(64+64), но если нужны еще и INT32, то только 64INT32+64FP32 (а это в Тьюринге было). То есть, как только нужно хотя бы одну INT32 операцию исполнить параллельно, то все… только 64 FP32 можно сделать одновременно с ней. Там вроде физически 3 группы ядер в каждом SM: 64FP32/64FP32/64INT32, где 2я и 3я не могут работать параллельно — либо одна, либо другая. Странное какое-то решение. Но в итоге можно считать, что это как бы «полтора» тьюринга, очень условно конечно. Насколько часто встречаются INT32 инструкции в шейдерах современных игр — не знаю. В паскале с INT32 вроде вообще была беда, но ничего — работает же далеко не в 2 раза хуже тьюринга.(без RT)
Да это понятно, что задействовать все эти тфлопсы(загрузить работой все шейдерные блоки) в реальных играх и получить прирост FPS не так-то просто, масштабируется это все хуже, чем линейно. Но просто удивляет такой рост кол-ва шейдерных блоков FP32, никогда вроде такого не было еще:
2080 ti -> 3080: 8704 / 4352 = 2.0 (!)
1080 ti -> 2080 ti: 4352 / 3584 = 1.2
980 ti -> 1080 ti: 3584 / 2816 = 1.27
780 ti -> 980 ti: 2816 / 2880 = 0.97
По поводу меньшего числа FP64 блоков в GA102 — да, может быть и в этом дело(а сколько их там осталось кстати?), но в GA100 зато нет ни RT блоков, ни прочей графической требухи, которая есть в GA102. Трудно оценить вклад каждой из этих частей в транзисторный бюджет. В GA100 опять же он 54 млрд, тогда как в GA 102 только 28.
У меня тоже большие сомнения насчет кол-ва «cuda ядер». Возможно как-то поменялась архитектура ядра и оно стало меньше(в 2 раза), чем было в паскале/тьюринге? Сомневаюсь конечно, что такое может быть, но чем иначе можно объяснить это удвоение. Если бы это была правда, то 3070 должна была бы значительно опережать 2080 ti, если не в 1.5 раза(20 TFLOPs FP32), то % на 20-30. При этом даже по данным nv они примерно равны… Ну и не может быть 3080 больше GA100, это точно, у которого максимум 8192 шейдерных ядра, а по факту в реальных картах(A100) используется меньше, примерно 7000.
А cuda ядер правда что ли 5888 будет в 3070? Или теперь каждое такое ядро — это половинка от «старого» cuda ядра? Чо-то не верится в эти циферки, в 2080 ti их было всего 4352. В 1080 ti вообще всего 3584. Если правда, то получается, что даже 3070 имеет почти в 1.5 раза больше «обычных» TFLOPs (FP32), чем 2080 ti… Куда столько…
Не знаю, взял еще в апреле MSI Gaming (без X), гарантии конечно нет, но она и не надо — проверил, что рабочая, еще и привезли домой мне. 2070 не тянет RTX толком, а какие еще плюшки там есть.
Возможно, но конкретно в gears 5 у других источников 1080 ti вообще выдает средний FPS за 80 в 1440p(см. например techpowerup, guru3d, ...). См. например здесь:
https://www.techpowerup.com/review/gears-5-benchmark-test-performance-analysis/4.html
Они тестируют с 9900K конечно, R7 1700 использовать для такого мало кому приходит в голову. А вот 2080ти покупать не надо, по крайней мере по текущим ценам, я бы не стал.
Слабоватый результат что-то у zotac 1080 ti. У меня на 1080 ti (MSI) в 2560x1440 по данным бенча получилось примерно 78 fps в среднем на ультрах (ультратекстуры тоже включены) и мин. 5% в р-не 65. Проц i7 3960X, но от него там зависимости практически нет.
Интересно, где они еще валяются по таким ценам. Полно б/у предложений же, я себе взял в апреле за 24 модель c хорошим охлаждением(MSI) и никаких проблем не было. RTX брать точно не буду, до появления следующего поколения(super таковым не является)
Pascal (1080 ti) на самом деле до сих пор рулит в сегменте до 25 за бу(откуда цена 46 — новых их нет?): заметно уступает только 2080 ti, 2080 super, 2080. То есть твердое 4-е место. RTX до сих пор не нужен: что за год с лишним у нас появилось кроме 3-4 изначальных DXR тайтлов — убогие control и W:YB? Ради этого не стоит бежать за RTX, AMD до сих пор его не имеет, да и сама ngreedia выпуском GTX 16XX подтверждает вторичность RTX.
Ну, для тех, кому нужно читать статьи про кастрюли и мясорубки, отдельный раздел какой-то стоило завести, с другим URL. Мешать все в одну кучу — PC железо, бытовая техника, смартфоны и портативная техника, аудио(его правда мало) — не лучший вариант. Я привык уже за столько лет, что ixbt было почти исключительно о PC/железе… и каждый раз раздражает какая-нить новая статья об очередных блендерах, маслопрессах, и т.п. Хоть бы фильтр что ли какой-то на гл. страницу поставить можно было, чтобы не видеть их :)
Конечно содержание и качество новостей тоже напрягает последние годы: много опечаток и ошибок в тексте, много пустых(бессодержательных) «событий» — на это уже махнул рукой, другие ресурсы тоже, к сожалению, этим грешат.
Да, а как хорошо начиналось — только PC железо. А сейчас почти нечего и почитать — чайники, кастрюли, сковородки, хлаоми, мейзы и прочая… требуха. Грустно :-(
8 P-ядер на 3.9 ГГц без HT 156 Вт потребление системы, а 8 E-ядер — 123 Вт. (корректность теста конечно не 100%, т. к. отключить P-ядра полностью нельзя, но это какое-то приближение) В итоге E-ядра не такие уже и эффективные получились — чистая энерго-эффективность P-ядер даже выше: за счет того, что задача выполняется быстрее при чуть более высокой потребляемой мощности. То есть E-ядра «эффективны» только в смысле расхода транзисторного бюджета по факту. Засунуть то их можно много на кристалл, но толку от них… Тем более, что обычные(не серверные) задачи редко хорошо масштабируются выше 8 ядер(16 потоков).
https://www.reddit.com/r/hardware/comments/5sqw20/the_future_that_never_was_in_2000_intel_predicted/
2080 ti -> 3080: 8704 / 4352 = 2.0 (!)
1080 ti -> 2080 ti: 4352 / 3584 = 1.2
980 ti -> 1080 ti: 3584 / 2816 = 1.27
780 ti -> 980 ti: 2816 / 2880 = 0.97
По поводу меньшего числа FP64 блоков в GA102 — да, может быть и в этом дело(а сколько их там осталось кстати?), но в GA100 зато нет ни RT блоков, ни прочей графической требухи, которая есть в GA102. Трудно оценить вклад каждой из этих частей в транзисторный бюджет. В GA100 опять же он 54 млрд, тогда как в GA 102 только 28.
https://www.techpowerup.com/review/gears-5-benchmark-test-performance-analysis/4.html
Они тестируют с 9900K конечно, R7 1700 использовать для такого мало кому приходит в голову. А вот 2080ти покупать не надо, по крайней мере по текущим ценам, я бы не стал.
Конечно содержание и качество новостей тоже напрягает последние годы: много опечаток и ошибок в тексте, много пустых(бессодержательных) «событий» — на это уже махнул рукой, другие ресурсы тоже, к сожалению, этим грешат.