Как правило, при тестировании производительности платформ акцент делается на процессорозависимые приложения. Но скорость системы зависит не только от центрального процессора. И сейчас мы даже не вспоминаем о графически насыщенных приложениях и использовании GPU для вычислений общего назначения, в которых значимую роль играет выбор видеокарты. Речь, как нетрудно догадаться, пойдет о влиянии производительности памяти, и нашей попытке количественно оценить это влияние.
Мы решили, что лучший способ подвести итоги 2010 года — это просто вспомнить основные его события. Как же их вычислить? Есть много способов, но один из них показался нам наиболее интересным: если сделать смелое предположение о том, что редакторы процессорного раздела нашего сайта действительно интересуются тем, о чём они пишут, то… правильно — то о самых интересных событиях года они наверняка написали! Осталось проверить данную гипотезу на практике и посмотреть, что из этого получится.
Эта справочная статья нужна, чтобы читатели не запутались в бесконечных терминах и сокращениях, переполняющих любую содержательную аналитику о процессорах и их архитектурах. Писать такие статьи без спецтерминов нельзя, иначе они превратятся в иносказательную кашу, из которой можно сделать какой угодно вывод, кроме правильного. Чтобы определиться, что именно автор имеет в виду под тем или иным специфическим словом или сокращением, не напоминая об этом каждый раз, и написана энциклопедия. Она также пригодится для изучения тематических иллюстраций, в изобилии встречающихся в процессорных статьях и презентациях и в большинстве случаев написанных на английском.
Всё, написанное в данной статье, является личной точкой зрения автора. Автор отдает себе отчет в том, что на самом деле все могло быть задумано совсем не так. В конечном итоге, планы корректировать приходится по самым разным причинам. В точности установить, как принимались те или иные решения, уже невозможно. Тем более, находясь в положении стороннего наблюдателя. Однако доступной информации достаточно, и вся она показывает, что получилось совсем не то, что планировалось. А вот изложенное далее, с точки зрения автора, ей не противоречит и даже наоборот.
Компиляторы и библиотеки Intel работают зачастую подозрительно медленно на ЦП производства других компаний. Всё дело в том, что в генерируемом коде есть несколько версий наиболее критичных участков, оптимизированных для конкретной архитектуры или набора команд. Также в коде есть функция определения типа ЦП (на котором запущен код), чтобы выбрать верную ветвь. Nano впервые позволил провести независимое изучение честности программ и тестов благодаря тому, что опытный программист и исследователь Агнер Фог подобрал доступ к специальным регистрам для «перепрошивки» нужных значений. В результате лёгким движением регистра Nano превращается в Intel Core 2 (или любой другой процессор).
Предположив, что читатель уже знаком с теорией и практикой энергоэффективных и дешёвых процессоров на примере Intel Atom, статью о VIA Nano мы построим по принципу поиска ответов на вопрос: «Почему VIA сделала это не так, как Intel?» Но сначала давайте попытаемся понять, что она вообще хотела.
Благодаря значимому прогрессу в технологиях, которые обеспечивают современному поколению процессоров разумный и комфортный тепловой конверт, «первичная» характеристика кулеров — эффективность (охлаждающая способность), медленно, но верно теряет свою актуальность, а «вторичные» параметры — шум, эргономичность, техническое качество и т.д., напротив, приобретают первостепенное значение. Естественно, отмеченная трансформация требует более аккуратного подхода к инспектированию систем охлаждения, с более четким выделением критически важных функциональных аспектов.
Странностей у этого процессора набирается столько, что кажется, будто разработчики Intel почувствовали себя авторами захватывающего детектива для будущих исследователей. И первое, что бросается в глаза — те самые 24 КБ в кэше L1D. Но в начале снова некоторая теория.
Прежде всего удивляют странные параметры L1D, но о них мы поговорим особо. Сейчас же добавим, что у всех кэшей — 64-байтовые строки. Это также нетипично, т.к. за последние 20 лет вычислительная индустрия выработала наилучшее соотношение длины строки кэша к куску данных, обмениваемых с памятью за такт — 4:1. Т.е. 2·8·4=64 байта на строку — оптимально для 2-канального контроллера памяти с 8 байтами/такт на канал. Неужели Intel намекает на использование двух модулей памяти на дешёвых и компактных мобильных ПК? Но ведь таких чипсетов для Атома не было полтора года после его выпуска, пока не вышел NVIDIA Ion. Правда, как выяснилось, второй канал памяти даёт Атому лишь 5–6 % прибавки к скорости…
Компания Intel давно стала обращать пристальное внимание на мобильный потребительский сектор и выпускать ориентированные на него продукты. Поначалу это были процессоры, подобранные по малому энергопотреблению при прочих равных параметрах (разве что частоты пониже, да корпус поменьше). Затем стали выпускать ЦП, специально доработанные для подобных применений. Историю можно начать с чипа i80386SL, у которого впервые появился SMM (System Management Mode — режим управления системой), динамическое ядро было заменено на статическое (т.е. для сохранения энергии частота может падать до нуля), и добавлены контроллеры кэша, памяти и шин ISA и PI (Peripheral Interface). Все эти изменения увеличили число транзисторов аж втрое (с 275'000 у обычного 386SX/DX до 855'000), но инженеры посчитали, что такой бюджет оправдан. Помимо этого также были версии i386CX и i386EX без встроенной периферии с тремя режимами энергосбережения.
Продолжая вектор, заданный ещё в методике тестирования 4.0 2009 года, мы представляем вам обновлённую версию 4.5, которая будет использоваться для тестирования процессоров и компьютерных систем на протяжении всего оставшегося 2010 года и начала года 2011. Искушённые пользователи наверняка уже поняли по номеру версии, что никаких кардинальных изменений по отношению к предыдущей, мы вам не предлагаем: более-менее традиционным останется и подход, и список групп тестов, и список приложений. Однако отличий тоже немало: в методику введены (пока в качестве опциональных) три новые группы тестов, да и в старых иногда присутствуют не только обновлённые версии, но и ранее не используемое нами ПО.
В задаче создания общей классификации x86-процессоров (далее по тексту мы для краткости будем их называть просто «процессорами» или ЦП), самым важным является ответ на вопрос о том, зачем нам вообще нужна эта классификация. Ведь несколько десятков лет без неё жили, а тут вдруг понадобилась? И вообще, зачем в принципе нужны эти классификации? Отбросим клеветнические обвинения в том, что классификации нужны, чтобы было о чём писать, когда больше не о чем. На самом деле нужда в них возникает, когда мы настолько заблудились в эмпирически полученных знаниях в определённой области, что уже требуется их упорядочить.
Двоичная трансляция (ДТ) — технология с достаточно длинной на данный момент историей, отсутствием каких-либо официальных документов, подробно описывающих достижения в этой области, и непредсказуемым будущим. Несмотря на то, что уже был реализован ряд систем двоичной трансляции и проведена серия исследований в этой области в различных научных центрах, до сих пор никто не использует такие системы в повседневной работе. Это и по сей день является многообещающей технологией и притягательным для многих инженеров направлением исследований. Уже давно витает в воздухе вопрос, где же реальные реализации в области двоичной трансляции, имеющие возможность стать всемирнопризнанными коммерческими продуктами?
Этот материал представляет собой обновлённую, существенно переработанную и дополненную версию статьи 2006 года, которая называлась «Современные десктопные процессоры архитектуры x86: общие принципы работы (x86 CPU FAQ 1.0)». Правда, чтобы не вводить потенциальных читателей в заблуждение словом «FAQ», мы решили назвать новый материал более правильным, как нам кажется, термином — «дайджест». Действительно, ведь большая его часть — это не ответы на конкретные вопросы, а разъяснения и краткие выжимки из чего угодно — от технической документации до истории развития микропроцессорной отрасли.
Всё время существования вычислительных машин, начиная ещё с арифмометров, создатели всегда хотели их ускорить. Какими способами у них это получалось и получается? Разумеется, никакого основного метода увеличить скорость вычислений нет, одновременно применяются почти все из до сих пор найденных. Поэтому для классификации потребуется разделение на качественные (интенсивные) и количественные (экстенсивные) ускорения.
Целью данной статьи является попытка посеять сомнение в голове читателя, уверенного, что он знает о разрядности всё или почти всё. Но сомнение должно быть конструктивным, дабы сподвигнуть на собственное исследование и улучшить понимание.
Итак, мы представляем вам новую методику тестирования iXBT.com. Наши постоянные читатели, быть может, отметят разницу в её наименовании: если ранее мы представляли данный продукт в качестве «Методики тестирования производительности процессоров от iXBT.com» — то теперь официальное название изменилось на «Методику тестирования компьютерных систем»: процессоры, вроде бы, приравнены ко всем остальным компонентам. Это и так, и не так.
В данном материале мы попытаемся дать ответ на один очень простой и в то же время очень сложный вопрос: как правильно выбирать процессор? Разумеется, мы даже не будем пытаться представить свои советы в виде точной пошаговой инструкции, выполнив которую вы гарантированно получите качественный результат — очевидно, что существование такой инструкции невозможно. Поэтому, отказавшись от данной идеи сразу, мы решили пойти другим путём: попытаться сосредоточить в рамках одного материала необходимый набор базовых знаний, которыми нужно обладать, чтобы осознанно прийти к определённому выбору.
Выхода процессора Core i7, также известного под кодовым именем «Nehalem» ждали все. Ждали его и мы. Однако после того, как долгое ожидание закончилось, многие оказались, не побоимся этого слова, обескураженными: ведь ждали-то «простого и понятного» — что выпустит Intel первый свой процессор со встроенным контроллером памяти, а мы ей слегка попеняем за то, что она так долго не шла по давно проторенной AMD дорожке, но поглядим на результаты тестов производительности, умилимся, возрадуемся, и благодушно её простим. И вот, Intel выпустила Core i7. Однако оказалось, что это вовсе не «Core 2 со встроенным контроллером памяти», а нечто совсем-совсем другое. И как к этому относиться — совершенно непонятно. В этой, первой части статьи, посвящённой новой архитектуре Intel, мы попытаемся не прибегая к тестам понять, чего можно было ждать от нового процессора исключительно на основании описаний его характеристик.
Да простят нас читатели за несколько несерьёзное начало повествования, но если шутка соответствует истине — то почему бы с неё не начать? Вкратце 2007 год на процессорном рынке можно описать так: Intel продолжала спокойно и неторопливо развивать архитектуру Core, AMD же всех весь год пугала, пугала...
Нет, новая SoC Kirin 9010 не выглядит хорошо даже на фоне старых платформ Qualcomm. Это примерно уровень Snapdragon 888 из 2020 года
24 апреля 2024 г.
Получится ли у Qualcomm повторить успех Apple и изменить рынок ПК? Представлены SoC Snapdragon X Elite и X Plus для ноутбуков с Windows
24 апреля 2024 г.
Asus протестировала китайский 8-ядерный процессор Zhaoxin KX-7000, и он даже обошёл Core i5-7500
24 апреля 2024 г.