Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Нет никакой разницы. Дискретная видеокарта в ноутах это тоже не карта (кроме MXM, конечно). Она может быть и на чипе как в процессорах Интел с AMD графикой.
Нет, недоступен (по крайней мере без хаков от производителей материнок). Смысл в том, что у вас 1-2 ядра могут работать на максимальной частоте (какое-то время), но TDP не хватает чтобы все ядра работали на ней.
Вообще лучше почитайте вот эту статью:
https://habr.com/ru/post/431276/
>> Это все зависит от охлаждения.
Оно должно быть, ага.
GB даёт процессору остыть, а турбо «таймаут» достаточно большой чтобы туда всё влезло.
https://www.hardwareluxx.ru/index.php/news/hardware/prozessoren/49769-znacheniya-pl1-pl2-i-tau-dlya-vsekh-protsessorov-intel-comet-lake-s.html
>> Процессоры с десктопной производительностью и будут работать на десктопных частотах
Не будут. У Apple другой подход — высокий IPC на низкой частоте.
>> А потому, что он имеет ноутбучную производительность на ноутбучных частотах.
Ноутбучные частоты сравнимы с десктопыми.
Ещё раз: GB в однопоточном тесте сравнивает х86 турбо частоту с максимальной частотой ARM.
>> Конечно, пока все это гадание вилами на воде
Вы просто не хотите признавать реальность :)
>> Гикбенч — это синтетика, и как десктопный тест ее ругают.
Синтетика это dhrystone, coremark или какой-нибудь или STREAM.
Clang для вас это синтетика? Многие из программ представленных в GB я использую каждый день.
И A13 там cпокойно выигрывает у самых быстрых декстопных x86.
А вообще в чём проблема взять вашу «несинтетическую» программу и запустить её на A12/A13?
Вы же программист, вроде?
>> Но при этом с этой одной производительностью на одной частоте 5 нм процессоры намного экономичней 14 нм. Что вполне ожидаемо.
А ожидаемо что 10нм Интел менее экономичные чем 14нм? :)
Без энергоэффективности не будет производительности.
Попробуйте задуматься хоть на секунду — зачем нужны базовая и буст-частоты?
Не проще ли всегда работать на максимальной частоте (на всех ядрах)? Зачем AVX2 инструкции сбрасывают частоту процессора? Ведь они снижают производительность?
Ведь абсолютно не важно сколько там жрёт этот процессор — 200, 300W или важно?
Вот был же отличный процессор — 28 ядер, 5GHz?
https://www.tomshardware.com/news/intel-28-core-cpu-5ghz,37244.html
Акселераторы нынче программируемые. Тут дело не в производительности а в энергоэффективности. Процессор общего назначения x86/ARM справляется куда большими усилиями.
Apple, кстати, недвусмысленно показывал график про десктопную производительность при ноутбучном энергопотреблении.
(вторая картинка)
https://habr.com/ru/company/itsumma/news/t/507806/
Как они это будут делать?
8 больших смартфонных ядер (~3W/ядро в пике) как раз влезут в ноутбучный пакет 35-45W (с активным охлаждением), При этом 1 ядро должно работать как ядро десктопа на 5GHz, что мы видим уже сейчас.
>>Давайте посмотрим на частоты процессоров: в Айпаде A12X на 2,5 ГГц. В Макбуке Про Core i7-8750H на 2,2 ГГц. Есть турбобуст до 4,1 ГГц, но базовая частота ниже
Кого волнует базовая частота? Одно ядро всегда работает на турбо-частоте.
Именно поэтому однопоточный тест в GB показывает максимальную производительность ядра. Более того, он это делает паузы между сабтестами, чтобы ядро успело остыть.
На этом всё. Ваши умозаключения — неверны.
>> Да в общем ничего и не изменилось. Как были ядрами с низкой производительностью, так и остались.
Чем больше вы повторяете чушь, и чем больше вы в неё будете верить, тем забавнее будет столкновение с реальностью :D
>> Microsoft там раньше Apple. Intel там уже давно была и больше не хочет.
Раньше где?
Они не отказывались от х86, не сделали ничего для расширения экосистемы.
Интел производит ARM процессоры и сейчас.
>> Это у них вечная проблема мощи-тепловыделения-автономности.
А вы не знали, что все процессоры — ноутбучные, десктопные и особенно серверные(!) ограничены по потреблению.
Что такое 280W для EPYC? Плюнуть да растереть! 4,3W на ядро+uncore. Т.е в районе 2.2W на ядро. Ядро в смартфоне может потреблять 3W :)
На макбуке у меня <5W (ЕМНИП) это полное потребление системы при браузинге. А стоит дать чуть-чуть нагрузки на CPU, как батарея начинает таять на глазах.
C чего бы? Yohan (Intel Core) поддерживал архитектуру IA-32 1985г. Core2 поддерживал AMD64 (2000г), которая является надстройкой над IA-32. Все негативные моменты IA-32 там же остались.
AArch64, напротив, не расширение, а полностью несовместимая с AArch32 ISA, созданная с нуля.
Вообще лучше почитайте вот эту статью:
https://habr.com/ru/post/431276/
https://browser.geekbench.com/v5/cpu/compare/2924765?baseline=2926726
Оно должно быть, ага.
GB даёт процессору остыть, а турбо «таймаут» достаточно большой чтобы туда всё влезло.
https://www.hardwareluxx.ru/index.php/news/hardware/prozessoren/49769-znacheniya-pl1-pl2-i-tau-dlya-vsekh-protsessorov-intel-comet-lake-s.html
>> Процессоры с десктопной производительностью и будут работать на десктопных частотах
Не будут. У Apple другой подход — высокий IPC на низкой частоте.
>> А потому, что он имеет ноутбучную производительность на ноутбучных частотах.
Ноутбучные частоты сравнимы с десктопыми.
Ещё раз: GB в однопоточном тесте сравнивает х86 турбо частоту с максимальной частотой ARM.
>> Конечно, пока все это гадание вилами на воде
Вы просто не хотите признавать реальность :)
>> Гикбенч — это синтетика, и как десктопный тест ее ругают.
Синтетика это dhrystone, coremark или какой-нибудь или STREAM.
Clang для вас это синтетика? Многие из программ представленных в GB я использую каждый день.
И A13 там cпокойно выигрывает у самых быстрых декстопных x86.
А вообще в чём проблема взять вашу «несинтетическую» программу и запустить её на A12/A13?
Вы же программист, вроде?
>> Но при этом с этой одной производительностью на одной частоте 5 нм процессоры намного экономичней 14 нм. Что вполне ожидаемо.
А ожидаемо что 10нм Интел менее экономичные чем 14нм? :)
Попробуйте задуматься хоть на секунду — зачем нужны базовая и буст-частоты?
Не проще ли всегда работать на максимальной частоте (на всех ядрах)? Зачем AVX2 инструкции сбрасывают частоту процессора? Ведь они снижают производительность?
Ведь абсолютно не важно сколько там жрёт этот процессор — 200, 300W или важно?
Вот был же отличный процессор — 28 ядер, 5GHz?
https://www.tomshardware.com/news/intel-28-core-cpu-5ghz,37244.html
(вторая картинка)
https://habr.com/ru/company/itsumma/news/t/507806/
Как они это будут делать?
8 больших смартфонных ядер (~3W/ядро в пике) как раз влезут в ноутбучный пакет 35-45W (с активным охлаждением), При этом 1 ядро должно работать как ядро десктопа на 5GHz, что мы видим уже сейчас.
Кого волнует базовая частота? Одно ядро всегда работает на турбо-частоте.
Именно поэтому однопоточный тест в GB показывает максимальную производительность ядра. Более того, он это делает паузы между сабтестами, чтобы ядро успело остыть.
На этом всё. Ваши умозаключения — неверны.
Чем больше вы повторяете чушь, и чем больше вы в неё будете верить, тем забавнее будет столкновение с реальностью :D
Раньше где?
Они не отказывались от х86, не сделали ничего для расширения экосистемы.
Интел производит ARM процессоры и сейчас.
Да-да, особенно во время пандемии, когда народ по домам работает.
А вы не знали, что все процессоры — ноутбучные, десктопные и особенно серверные(!) ограничены по потреблению.
Что такое 280W для EPYC? Плюнуть да растереть! 4,3W на ядро+uncore. Т.е в районе 2.2W на ядро. Ядро в смартфоне может потреблять 3W :)
AArch64, напротив, не расширение, а полностью несовместимая с AArch32 ISA, созданная с нуля.