Главная » Новости » 2011 » 09 » 20 20 сентября 2011

IDF 2011: Джастин Раттнер о Multi-core, Many-core, Near Threshold Voltage, Claremont и кое-чем другом

Доклад Джастина Раттнер (Justin Rattner), директора Intel по технологиям, предварял последний третий день осеннего Форума Intel для разработчиков 2011. В своей речи Раттнер коснулся перспективных технологий, но начал все… с шутки.

Раттнер вышел на сцену в беретке наподобие той, что носит вице-президент Intel Мули Иден (Мooly Eden, он отметился своим докладом во второй день IDF 2011 в Сан-Франциско). Зал благосклонно принял пародию, после чего Раттнер снял беретку и начал выступление.



За прошедшие пять лет Intel прошла длинный путь: от двухъядерных процессоров в 2006 году до более чем десятиядерных в 2011 году. На смену решениям Multi-core уже идут Many-core с десятью вычислительными ядрами и более.



Интел продолжает исследования в области массивных вычислений с наращиванием мощностей – Terascale.

Для этих целей используется SCC - Single Chip Clud Computer — по сути, 48-процессорный чип, где каждый узел является полноценным процессором со своим контроллером памяти, но зато за счет размещения в одном корпусе устранены узкие места внутренних связей и обмена данными между процессорами.

Масштабирование (рост скорости вычислений) наблюдается на целом спектре задач, но в некоторых случаях этот рост линеен!

Про такую ситуацию рассказал Анджей Новак (Andrzej Nowak) из CERN OpenLab.



Сначала Новак кратко рассказал, что такое OpenLab и Большой Адронный Коллайдер, после чего обратился к сути процесса регистрации, сбора и передачи данных в БАК.

Вкратце процесс выглядит следующим образом: в LHA частицы разгоняются почти до скорости света и сталкиваются, результат столкновения фиксируется датчиками, после чего данные сохраняются и анализируются. Это огромные массивы данных (15-25 петабайт данных в год), на обработку которых требуется много ресурсов и времени.



Intel проделала огромную работу, обеспечив возможность использования стандартных средств программирования для решений Many-core и их легкую интеграцию в существующую инфраструктуру. Главным образом, за счет компиляторов, позволивших использовать решения Many-core в одном кластере с обычными мультипроцессорными серверами на Xeon.

На картинке ниже показано, как идут расчеты на одном узле MIC (т.е. решениях Many-core и Multi-core) и на всех сразу (справа).





Как видно - масштабирование линейно: с ростом количества потоков (вычислительных ядер) пропорционально растет и скорость.

А ведь еще менее полугода назад много кто не верил, что такое возможно.

Затем Раттнер перешел к вопросу о том, какой уровень подготовки требуется от программистов, чтобы учитывать особенности MIC. Должен ли быть программист ниндзей в своей области?

Но вначале Раттнер обозначил области, где уже сегодня можно получить положительный эффект от программирования с учетом решений MIC. Это мегадатацентры, веб-приложения, безопасность на ПК и беспроводные сети (LTE).

Задача кэширования памяти в случае с облачными сервисами является тем узким местом, при расшивке которого наблюдается впечатляющий прирост производительности. Потому что к облачным сервисам и приложениям обращаются много клиентов и их запросы легко кэшируются, т.к. повторяются.

Затем на сцену вышел Брендон Айк (Brendan Eich, создатель языка Javascript, а ныне – главный инженер Mozilla) и рассказал про библиотеку River Trail, позволяющую распараллеливать Javascript.



В обычном случае, если запустить Javascript-анимацю с расчетом движения частиц, то скорость будет низкой.

Однако при использовании распараллеливания скорость возрастает более чем в 10 раз!

Затем Раттнер перешел к вопросу использования MIC в приложениях для станций беспроводной связи стандарта LTE.

Для решения этой задачи Intel скооперировалась с China Mobile и результаты были представлены на IDF в Пекине весной этого года.

На изображениях ниже наглядно показано, что компьютер на базе Xeon с адаптированным ПО прекрасно справляется с задачами, выполняемыми базовой станцией LTE.



Затем Ратннер перешел к задачам обеспечения безопасности на ПК.

Обратите внимание на изображения ниже: а экран компьютера по центру видны серые прямоугольники. На самом деле это превью фотографий, но их содержание зашифровано.



Авторизация осуществляется через распознавание лица пользователя через web-камеру. В данном случае (см. картинку ниже) после распознавания лица и авторизации пользователь получил доступ ко всем фотографиям - как видно все превью фото стали видны.

При этом ПО оптимизировано для конфигураций Multi-core (по сути, является многопоточным) и загрузка системы остается на приемлемом уровне.

Если же пользователь после распознавания лица и авторизации имеет ограниченный доступ, то он видит лишь те фотографии, к которым ему разрешили обращение.

Как видно, такой сценарий вполне применим в реальной жизни. Отметим также, что все это работает на текущем поколение процессоров Core.

После этого Раттнер решил заглянуть в будущее, к которому мы движемся.

Рост вычислительной мощности за счет роста количества ядер неизбежно поднимает проблему энергоэффективности. Intel очень серьезно относится к решению этой проблемы.

Компанией поставлена задача свести энергопотребление вычислительных систем до 2 Вт на 100 Гигафлопс или 20 МВт на Экзафлопс. Задача, поставленная Intel перед собой на грядущие 10 лет: добиться 300-кратного роста энергоэффективности или 20 пДж на Флопс (на системном уровне).

На сцену вышел Шехар Бокар (Shekhar Borkar), исследователь Intel.

На данный момент положение дел с энергоэффективностью выглядит следующим образом: 200 Вт на 100 Гигафлопс. Заветное значение в 2 Вт Intel собирается достигнуть к 2018 году.

На картинке выше видно, на что расходуется энергия. Однако очевидно, что энергоэффективность процессора это не полное решение проблемы, нужно сокращать потребление и остальных компонентов системы.

Чтобы повысить энергоэффективность вычислительных ядер, решено сокращать потери, возникающие при доставки электричества. Решение данной проблемы видится Intel в технологии Near Threshold Voltage operation, суть которой заключается в переключении транзисторов из одного состояния в другое при напряжении, близком к пороговому.

Ядро процессора, на котором все это отлаживают, условно назвали Claremont.





Это концепт-чип на старой архитектуре Intel Pentium, который в зависимости от нагрузки может снижать потребление до уровня в менее чем 10 мВт и при этом выполнять приложения. В данном случае на экране ПК, работавшего под управлением Ubuntu, «крутился» ролик кошки в наушниках.

Затем запустили Quake.

Интересно, что системными платами, на базе которых строились экспериментальные системы с Claremont, оказались довольно старые ASUS P2P55T. На вопрос, почему так, был получен ответ — просто потому, что там удобный регулятор напряжения, а для задач отладки этого достаточно, поэтому их и использовали.





Последней технологией, на которой заострил внимание Джастин Раттнер, стала Hyper Memory Cube. Подробнее о ней можно узнать здесь.

Источник: Собственный корреспондент iXBT в Сан-Франциско

Оценить новость

Не работают комментарии или голосования? Читайте как почистить куки



сентябрь
Пн
Вт
Ср
Чт
Пт
Сб
Вс
2011

Нашли ошибку на сайте? Выделите текст и нажмите Shift+Enter

Код для блога бета

Выделите HTML-код в поле, скопируйте его в буфер и вставьте в свой блог.