iТоги марта 2006 года: основные события ИТ-индустрии за прошедший месяц


Минувший месяц выдался урожайным на слияния. Как будто производители только и ждали, чтобы объявить о своих объединениях: в iтогах мобильной связи мы сообщали о слиянии Alcatel и Lucent, но кроме этого в марте стало известно еще о ряде сделок: Dell купила Alienware, Universal Scientific Industrial (USI) приобрела ABIT, ATI — XGI Technology, NVIDIA — купила Hybrid и подписала контракт с Sony, а также рассматривает возможность приобретения Pace Soft Silicon. Сделок могло бы быть и больше: были слухи, что MSI и Gigabyte также планируют объединить активы, но эти слухи не оправдались.

Тем временем, аналитическая компания iSuppli опубликовала окончательный рейтинг (ранее были доступны лишь предварительные данные) производителей полупроводниковой продукции по итогам 2005 года. По данным исследователей, объем рынка в прошлом году составил 237,1 млрд. долл., что на 3,6% больше, чем в 2004 году.

Первое место занимает компания Intel — ей принадлежит 15% рынка, что заметно больше, чем 13,8% в прошлом году. За год компании удалось увеличить доходы на 13%, до 35,466 млрд. долл. Рост обусловлен устойчивым спросом на микропроцессоры. Между тем, как известно, рынок микропроцессоров вырос на 16,1%, а доля Intel — на 13%. Почему? Кое-что пришлось уступить конкурирующей компании AMD. Кстати, AMD переместилась с 11 на 15 строчку рейтинга, хотя совокупный доход вырос до 5,97 млрд. долл., что соответствует 8 месту в таблице. Как же так? Дело в том, что произошло разделение AMD и Spansion — дочернего предприятия, занятого выпуском флэш-памяти. В итоге, AMD — на 15 месте, Spansion — на 24.

На втором месте — южнокорейский гигант Samsung Electronics. Этой компании принадлежит 7,3% рынка. Как и Intel, Samsung демонстрирует заметный прирост доходов — 9,2% (с 15,8 млрд. долл. в 2004 году до 17,2 млрд. долл. в 2005 году). Замыкает тройку компания Texas Instruments, которой удалось поднять доход на 5,1% и занять 4,5% рынка. Аналитики объясняют успех Texas Instruments популярностью цифровых сигнальных процессоров, микроконтроллеров и больших интегральных схем.

За Texas Instruments в рейтинге следует компания Toshiba (3,8% рынка), которую с минимальным отрывом сопровождают STMicroelectronics, Infineon и Renesas. Кроме них, в десятку вошли компании NEC Electronics, Philips Semiconductors и Freescale Semiconductor.

Примечателен успех компаний Hynix, IBM Microelectronics и Broadcom — хотя им достались места только во второй десятке, рост доходов, продемонстрированный этими производителями, выражается двухзначными числами: 20,7%, 11,5% и 11,3%, соответственно. Две японских компании, напротив, показали столь же значительное уменьшение доходов. Это NEC Electronics и Matsushita Electric: 12,2 и 11,5%.

Среди компаний, не имеющих собственной производственной базы, отличились NVIDIA и ATI Technologies, впервые за все время попавшие в список 25 крупнейших производителей полупроводниковой продукции.

Раз мы подняли тему роста поставок персональных компьютеров, упомянем о последнем отчете аналитиков из Gartner, прогнозирующих замедление роста активности покупателей в ближайшее время после того, как пик роста был достигнут в прошлом году.

В этом году ожидается продать 234,5 млн. настольных компьютеров, что означает 10,7%-ный рост по отношению к показателям 2005 года (211,8 млн.). Однако темп роста замедлится — годом ранее он составлял 15,5%. Аналитики связывают это с нежеланием пользователей заменять уже имеющийся компьютерный парк. Особенно ярко это проявляется в Северной Америке и Западной Европе, где объем поставок в 2006 году и вовсе снизится. Объёмы в странах с развивающейся экономикой должны вырасти примерно на пятую часть (19,5%).

По мнению Gartner, желание покупателей обновить свой компьютер сдерживают две основных причины: отсутствие определенной даты выхода в свет новой операционной системы Microsoft Vista (которую компания вновь перенесла на будущий год) и ожидания, связанные с новыми платформами Intel и AMD, которые должны появиться на рынке в третьем квартале текущего года. Сейчас вкладывать деньги в оборудование, которое через полгода может оказаться устаревшим, бессмысленно — считают покупатели (и мы их поддерживаем).

Бальзамом на душу производителей является ситуация с мобильными компьютерами, где Gartner прогнозирует рост рынка в 2006 году почти на треть (31,4%). Очевидно, это связано с тем, что к ноутбуку покупатель имеет менее высокие требования, чем к настольному ПК, да и цены на такие решения неуклонно снижаются уже долгий период времени.

Задержка с выходом Vista также отчасти стала причиной того, что iSuppli пересмотрела свой прогноз развития рынка памяти. Многие производители, и, в первую очередь, Samsung, ожидали роста спроса на флэш-память с выходом новой системы. Впрочем, замедление спроса на флэш-память также оказалось результатом снижения интереса и к MP3-проигрывателям. Зато оперативная память (DRAM) вдруг оказалась более востребованной, в результате чего спрос начал идти вверх, а вместе с ним — и цены. Исследователи компании IDC, специализирующейся на изучении рынка, считают, что задержка с выходом ОС Microsoft Windows Vista повлияет на продажи ПК в этом году, но рост объема поставок все равно сохранится на уровне более 10% ежегодно, по крайней мере, до 2008 года.

Хорошие перспективы рынка памяти в связи с положительным прогнозом роста продаж ПК привели даже к тому, что Silicon Integrated Systems (SiS) решила попробовать себя в новом качестве и начнет выпускать модули DDR и DDR2-памяти для настольных и портативных компьютеров. Поставками чипов, упаковкой и тестированием для SiS займется United Microelectronics Corporation (UMC).

С другой стороны, признанный лидер рынка DRAM и NAND флэш-памяти Samsung, наоборот, вынуждена искать иные пути заработка и готова всерьез выйти на рынок контрактного производства — надо же как-то занять свои простаивающие мощности.



IDF

Так получилось, что весенний Форум Intel для разработчиков проходит в марте, поэтому не упомянуть о нем в мартовских iТогах было бы неправильно. В рамках нулевого R&D дня на начинавшемся 7 марта в Сан-Франциско мероприятии перед международной прессой и промышленными аналитиками выступили ключевые специалисты Intel, занимающиеся разработками будущих продуктов и стандартов. В одном из выступлений было рассказано о новом универсальном стандарте для видеоинтерфейсов, пригодном для применения не только в компьютерной технике, но и в более широком спектре продуктов. Развиваемый стандарт, получивший название Unified Display Interface (UDI), имеет цель заменить устаревший VGA-стандарт для дисплеев.



Индустрия уже не раз предпринимала попытки заменить устаревший интерфейс VGA — например, на получающий все большее распространение DVI. Однако эти попытки пока не привели к созданию видеоинтерфейса, удовлетворяющего постоянно растущим потребностям индустрии. UDI, разработка которого началась в 2005 году, должен будет обеспечить совместимость UDI с интерфейсами DVI и HDMI. Новый видеоинтерфейс будут продвигать Apple, Intel, LG Electronics и National Semiconductors. Спецификации UDI 1.0 ожидаются во втором квартале 2006 года.

Заметим, в частности, что разъемы UDI значительно компактнее, чем у текущих VGA и DVI, и содержат меньше контактов, хотя и шире по функциональности.

Зачем необходим интерфейс UDI? Дело в том, что ПК имеют ряд различных требований, видеоконтенту требуется лицензирование программ, PC-monitor и многое другое. Интерфейс HDMI, например, еще обеспечивает передачу аудио, что для мультимедиа тоже необходимо, чтобы не использовать отдельный кабель (в этом смысле UDI выступает как упрощение HDMI для недорогих систем). Кроме того, UDI имеет унифицированный интерфейс для сетевых компьютеров, меньшее количество контактов, более надежен в соединении и компактен. Пока рано в деталях говорить об устройстве UDI — спецификации уточняются и скоро будут доступны.



Еще одна любопытная демонстрация — системы электропитания на базе метаноловых топливных элементов UltraCell XX25. В ней использована улучшенная технология метаноловых топливных элементов (reformed methanol fuel cell, RMFC), изначально разработанная для военных.

Предварительное тестирование XX25 начнётся в середине года, а коммерческая версия (UltraCell UC25) обещана к концу этого года. UC25 сможет «прокормить» портативную систему в течение двух дней, используя один метаноловый картридж, который к тому же легко сменить.

XX25 создавался с учётом всех требований, которые предъявляют реальные боевые условия. Топливные элементы выдерживают экстремальные температуры, влажность и перегрузки. Выбор армией именно этого продукта объясняется тем, что UltraCell XX25 легче используемых сейчас войсками заряжаемых аккумуляторов на 70% (из расчета набора для 72-часовой миссии при потреблении в 20 Вт, более длительные операции становятся ещё экономичнее) — заявляет компания-производитель.

Но проблему увеличения времени автономной работы предлагается решать не только путем увеличения мощности элементов питания: в рамках IDF был продемонстрирован прототип будущей технологии управления дисплеями с функциями энергосбережения Display Self-Refresh (самообновление дисплея). Если в традиционном современном компьютере импульсы на дисплей от видеоадаптера посылаются непрерывно, расходуя при этом определенную энергию и не позволяя видеоадаптеру «уснуть», даже если процессор находится с состоянии бездействия и экономии энергии, то при наличии функции самообновления дисплея графический адаптер может позволить себе перейти в экономичное состояние работы, если изображение на экране монитора не должно меняться в этот период времени.

При этом сокращается количество посылаемых на дисплей импульсов и экономится электроэнергия. Это особенно актуально для ноутбуков и для миниатюрных настольных ПК нового форм-фактора вроде Mac mini, а также для домашних ПК с бесшумным дизайном.

Прототип новой технологии для мобильных устройств был продемонстрирован на отладочном стенде, в будущем размеры системы будут приведены в соответствующий компактный вид. В работе прототип показал отличные результаты: если без технологии Display Self-Refresh система потребляла около 3,65 ватт в режиме бездействия. Естественно, что такая экономия для ноутбука, который потребляет всего 7-10 ватт, не может быть лишней. Технологию предлагается включить в следующее поколение чипсетов Intel со встроенной графикой для мобильных и миниатюрных настольных систем. Возможно, что мы увидим ее совсем скоро — в начале 2007 года, когда корпорация выпустит новую мобильную платформу Santa Rosa.

Там же должна появиться поддержка еще одной интересной технологии энергосбережения дисплея — автоматическое переключение графического контроллера между прогрессивной и чересстрочной разверткой. Если выводимый на дисплей видеоконтент требует быстрого обновления (динамичные фильмы, игры), то развертка будет традиционной, прогрессивной (60 Гц). Если картинка ближе к статичной, не требующей быстрого обновления (офисная работа и пр.), то развертка станет чересстрочной (30 Гц). Разумеется, это также заметно снизит потребляемую мощность.





Наконец, стоит также отметить о том, что на форуме были показаны образцы новых поколений 65-нм процессорной микроархитектуры Conroe (для настольных ПК), Merom (мобильная платформа) и Woodcrest (серверные решения), являющиеся представителями Intel 3.0, еще называемое Intel Core Microarchitecture. Это звучит не так красиво, как, например, NetBurst, но полностью отражает сфокусированность Intel на термине «ядро» (Core).

В заключение — о несколько неожиданном повороте в истории с пластиковой памятью: в Intel решили, что современная технология флэш-памяти продержится до конца десятилетия, отодвигая потребность в «универсальной памяти» на 2010 год. В то же время, по мнению Intel, память, построенная на переключателях Овшинского (на аморфных халькогенидных плёнках), известная также под аббревиатурой OUM (ovonic unified memory) или под названием «память с изменением фазового состояния» (phase-change memory), остается наиболее перспективной энергонезависимой памятью для будущего внедрения. Напомним, что Intel ведет исследования в области OUM совместно с компанией Ovonyx, начиная с 2000 года. Есть и другая крупная компания, лицензировавшая наработки Ovonyx в этой области. Речь идет о STMicroelectronics. Интересно, что не далее, чем в прошлом году, компанию «поклонников OUM» пополнили такие известные производители памяти, как японская компания Elpida Memory и корейская Samsung Electronics. Сильной стороной OUM является потенциал миниатюризации — по утверждению Комото, исследования Intel показывают, что технология OUM может быть использована в техпроцессах с нормами до 15 нм. Основным препятствием на пути внедрения OUM пока остается высокая стоимость, не позволяющая новой памяти конкурировать с существующей.

Процессоры

Хотя этот раздел и будет посвящен преимущественно процессорам, здесь я хотел бы рассмотреть и ситуацию в более широком подтексте — конкуренция между такими гигантами, как Intel и AMD, давно вышла из чисто технологической плоскости в плоскость экономико-политическую, а борьба за кошельки теперь требует все большего ума и изобретательности. В этих условиях у более мелких игроков, таких как VIA или Transmeta, изобретательности которым не занимать, появляется новое пространство для маневра, хотя на первый взгляд кажется, что им его оставляют всё меньше.

Например, проект 100-долларового ноутбука проектпро AMD, который в рамках некоммерческого проекта «Каждому ребенку по ноутбуку» (One Laptop per Child, OLPC) будет распространяться в системах общего образования развивающихся стран.

Такую деятельность однозначно можно отнести к разряду некоммерческой, однако, эта программа отнюдь не означает отсутствия выгоды, по крайней мере, если говорить не только о прямой прибыли от поставок процессоров, полагают в AMD. Главное, чего хочет добиться компания — проникнуть на быстрорастущие рынки и увеличить рыночную долю в общемировом объеме поставок. Кстати, AMD уже представляла свой вариант недорогого компьютера, во многом похожий на OLPC. Под наименованием «персональный Интернет-коммуникатор» (Personal Internet Communicator, PIC) он был выпущен на китайский рынок в 2004 году. Примечательно, что именно рынки Китая, Индии и других стран, где внедрение вычислительной техники характеризуется высокими темпами, сыграли немаловажную роль в недавнем увеличении доли AMD на глобальном рынке микропроцессоров.



Однако позитивный настрой AMD в отношении проекта OLPC ее главный конкурент, компания Intel, не разделяет. Не разделяет воодушевления AMD и Microsoft, но по несколько другой причине — если Intel готова оспорить правомерность выбора микропроцессоров AMD, то Microsoft, как нетрудно догадаться, не дает покоя выбор операционной системы — Linux вместо Windows CE/Mobile. И альтернативы Intel и Microsoft предлагают свои: первая начала поставки недорогих ПК Community PC (на фото) на рынки Индии и Мексики в рамках программ Jaagruti («Пробуждение») и Discover the PC (открой для себя ПК), а вторая предлагает Origami — довольно дорогой (стоимость «зашкаливает» за 1000 долларов) планшет с неплохой, но ограниченной по сравнению со стандартными ноутбуками функциональностью, да еще и существенно меньшим временем автономной работы. И если у Intel есть все шансы захватить большую часть рынков Мексики и Индии благодаря грамотной маркетинговой политике, сработав на упреждение программы OLPC, то перспективы Microsoft Origami аналитики оценивают очень скептически. В то же время платформа AMD LIVE!, будучи аналогом Intel Viiv, однозначно служит цели конкуренции и в сегменте high-end домашних развлекательных систем на базе ПК, где у Intel опять есть фора.

Скепсис аналитиков, базирующихся на не очень впечатляющих характеристиках первых прототипов UMPC (Ultra-Mobile PC), в том числе и Origami, в будущем может быть опровергнут, ведь упоминавшимся выше VIA и Transmeta есть что сказать и в плане энергосбережения, и в отношении стоимости своих решений. К слову, первый UMPC-планшет от OQO был построен на базе процессора Transmeta, а в ходе выставки CeBIT 2006 VIA представила низковольтную версию C7-M — VIA C7-M ULV, которую вполне можно назвать Geode-killer'ом, ведь при тактовой частоте от 1 до 1,5 ГГц заявленная максимальная рассеиваемая мощность (TDP) составляет всего 3,5 Вт. Минимальная (в режиме ожидания) — не превышает 0,1 Вт. А это полноценный х86-совместимый микропроцессор, который на аппаратном уровне поддерживает ряд самых современных криптографических алгоритмов, а значит, может занять уникальную нишу между OLPC и UMPC или даже потеснить детища AMD и Intel.

Размеры микропроцессора составляют всего 21х21 мм, форм-фактор — nanoBGA2.



Эффективность использования электроэнергии выходит на одно из ведущих мест и в стратегии Intel, в подтверждение чего был выпущен процессор Xeon в низковольтном исполнении (LV).

В новой модели процессора двухъядерная технология дополнена средствами управления питанием, помогающими улучшить соотношение между энергопотреблением и производительностью. По утверждению компании, показатель «производительности в расчете на Ватт» удалось улучшить примерно в два-четыре раза по сравнению с другими моделями Intel Xeon (в официальном пресс-релизе присутствует оговорка о том, что данные основаны на результатах сравнения опытных образцов с некоторыми одноядерными процессорами Intel Xeon предыдущего поколения, а реальные показатели зависят от «типа системы и конфигурации»).

Общая рассеиваемая мощность (TDP) новинки составляет 31 Вт, что совсем неплохо для двухъядерного процессора такого класса, работающего на частоте 2 ГГц (предусмотрен также выпуск 1,6-ГГц варианта). Малое тепловыделение позволяет создавать на их базе высокопроизводительные вычислительные системы в небольших объемах, например, в конфигурациях блейд-серверов. Цена новинок в партии из 1000 штук — 209 и 423 доллара, соответственно.

Но, пожалуй, пора заканчивать живописание решений Intel и всего, что с ними связано, и уделить внимание AMD, тем более что компания и сама не прочь привлечь в свою сторону объективы фото и видеокамер. Как раз во время IDF 2006 AMD представила свои новые процессоры для портативных компьютеров, двухъядерные Turion X2, которые появятся в продаже во втором квартале 2006 года.



Каждое из двух ядер Turion X2 будет иметь отдельный кэш второго уровня объёмом 256 Кбайт. Taylor (кодовое название чипа) станет первым из процессоров AMD, поддерживающим работу с памятью DDR2-667, для чего придется перевести процессор на новый разъем, Socket S1. Кроме Taylor, следует ожидать выхода Trinidad, также предназначенного для компактных ноутбуков. Единственным отличием между ними будет увеличенный вдвоё объём кэш-памяти второго уровня (L2) у последнего. Будут поддерживаться технология виртуализации Pacifica, технология энергосбережения PowerNow!. Одноядерные мобильные процессоры будут представлены Keene, имеющим кэш L2 в 256/512 Кбайт. Остальные его параметры аналогичны Taylor. Предполагаемое энергопотребление Keene и Taylor составляет 25 и 35 Вт, соответственно.

В 2007 году Taylor сменит Tylor, имеющий не только схожее название, но и спецификации. Главными отличиями будет используемый 65-нм технологический процесс и поддержка памяти DDR2-800. Только ожидается это все, скорее всего, не раньше июня 2006 года. Вполне вероятным видится одновременный дебют Socket S1 и Socket AM2, для которого, напомним, выход запланирован на 06.06.06 г.

Но все-таки, главное направление, в котором AMD продолжает наращивать технологическое преимущество — серверные процессоры. Компания представила трио новых двухъядерных Opteron, возглавляемое моделью с индексом 885. Этот процессор предназначен для серверов корпоративного класса, поддерживающих установку до 8 процессоров (16 ядер). Еще один процессор, AMD Opteron Model 285, предназначается в сегмент двухпроцессорных (четырехъядерных) рабочих станций и серверов, а замыкает тройку процессор AMD Opteron Model 185, который может стать основой однопроцессорных (двухъядерных) серверов и рабочих станций.

Тактовая частота всех трех моделей — 2,6 ГГц. В пресс-релизе подчеркивается, что инженерам AMD удалось сохранить тепловыделение новых моделей в пределах «стандартного диапазона» (95 Вт).

Пока готовился этот материал, стало известно, что процессоры Opteron взяли планку частоты в 3 ГГц — в моделях 856 и 256 (одноядерные чипы).

Не за горами переход и на четырехъядерные процессоры, и AMD уже сейчас задумывается о повышении их конкурентоспособности на рынке, для чего было принято решение обратиться за помощью к британскому производителю сопроцессоров Clearspeed. Сопроцессоры CSX600 последней демонстрируют производительность в 25 млрд. операций с плавающей запятой в секунду — на 25% больше, чем у четырехядерных серверных процессоров AMD, ожидаемых в следующем году.

Сопроцессоры Clearspeed ускоряют обработку требующих интенсивных вычислений математических задач, подобно тому, как графический акселератор обрабатывает трёхмерную графику. Ресурсы центрального процессора высвобождаются для других операций. Сопроцессор CSX600 увидел свет в июне 2005 года. Он состоит из 96 ядер, каждое из которых оснащено 6 Кбайт кэш-памяти. Кроме того, есть общий кэш, объёмом 128 Кбайт, используемый всеми ядрами. Энергопотребление сопроцессора Clearspeed не превышает 10 Вт. Есть данные, что к разработкам Clearspeed проявляют интерес и в Intel.

Чипсеты

В начале марта дебютировал новый чипсет ATI Technologies для платформы AMD Socket 939 — CrossFire Xpress 3200, ранее известный под кодовыми обозначениями RD580 и Skeletor.



Проектирование изделия заняло восемь месяцев. Получившийся в результате кристалл обладает площадью 39 кв. мм, претендуя на звание самого маленького среди аналогов. При этом в чипе уместилось 22 млн. транзисторов. Для изготовления микросхем на мощностях компании TSMS будет задействован 110-нм техпроцесс.

Однако CrossFire Xpress 3200 или RD580 — это лишь половина чипсета, северный мост. Приблизительно до лета этого года он будет использоваться в паре с южным мостом ULi M1575 — пока поставки последнего не прекратятся с завершением его поглощения компанией NVIDIA. Впоследствии ATI планирует выпустить собственный вариант южного моста, как утверждает компания — более подходящий для CrossFire Xpress 3200, хотя, как нетрудно понять, на самом деле компании будет попросту некуда деваться после того, как поток южных мостов от ULi иссякнет. В принципе, уже сейчас у ATI готов южный мост SB560, однако, в платах на его основе есть проблемы со скоростью подключения периферийных устройств по USB 2.0 и SATA.

Но вернемся к CrossFire Xpress 3200. Основное преимущество над продукцией конкурентов заключается в том, что средствами одного северного моста реализована поддержка двух полноценных портов PCI Express x16 (!). В общей сложности, чип обеспечивает поддержку 40 линий PCI Express, 32 из которых отданы под нужды графической подсистемы. Еще 4 линии (4 порта PCI-Express x1) отведено для карт расширения PCI Express, 4 линии (1 порт PCI Express x4) образуют интерфейс Alink2, используемый для взаимодействия с южным мостом.



В качестве возможной рыночной ниши для устройства называется, например, такая: установив в системную плату на базе нового чипсета две видеоплаты бюджетной категории, например, на базе графических процессоров ATI Radeon X1300, пользователь может получить довольно привлекательное решение по соотношению цены и производительности. Разумеется, можно наращивать мощность решения при установке плат на более производительных графических процессорах. Для CrossFire Xpress 3200 характерно невысокое тепловыделение — TDP не превышает 8 Вт, отмечается готовность новинки к «разгону». Обещанные частоты, на которых CrossFire Xpress 3200 сохраняет работоспособность, заметно превышают штатные значения: HyperTransport — до 1,5 ГГц (на 50% выше штатного значения), PCI Express — до 140 МГц (на 40% выше). Чип рассчитан на процессоры AMD Athlon 64FX, Athlon 64 X2 и Athlon64.

Спустя несколько дней на выход в свет системных плат на базе чипсета ATI CrossFire Xpress 3200 компания NVIDIA отреагировала выпуском нескольких наборов системной логики под общим названием nForce 500. Реальные продукты на этих чипсетах появятся лишь в середине года, а пока сообщается о четырех модификациях для разных сегментов рынка:

  • nForce 590 SLI MCP — решение для энтузиастов;
  • nForce 570 SLI MCP — решение для производительного сектора;
  • nForce 570 MCP — то же что и предыдущее, но без поддержки SLI;
  • nForce 550 MCP — массовый сектор.

Главным технологическим новшеством, конечно, станет наличие в материнских платах на базе первых двух из представленных чипсетов двух графических портов PCI Express, по 16 линий на каждый. Именно здесь пока вперед вырвалась ATI со своим RD580 (он же CrossFire Xpress 3200).

Среди основных особенностей своего нового набора микросхем NVIDIA называет поддержку конфигурации Quad SLI с четырьмя установленными GPU одновременно; технологию NVIDIA MediaShield, обеспечивающую множество конфигураций для создания дискового массива, включая двойной RAID 5; до 10 портов USB 2.0, до шести жестких дисков с интерфейсом SATA II и поддержку грядущих двухъядерных процессоров AMD Socket AM2.

Несмотря на то, что NVIDIA не указала прямо тип памяти, который будет использоваться в своей новой платформе, с большой долей уверенности можно предположить, что это будет DDR2, в вариантах для процессоров Intel (LGA775) и AMD (Socket AM2).

Что до остальных производителей чипсетов, то SiS и VIA усиленно готовятся к выходу новой ОС Windows Vista, для которой потребуется серьезно поднять производительность встроенной графической подсистемы. Однако VIA Technologies не забыла воспользоваться вниманием публики к концепции ультрамобильного ПК (UMPC), напомним, что умеет делать неплохие высокоинтегрированные наборы системной логики для подобных продуктов.



Новый чипсет VX700 объединяет в себе функции северного моста VN800 и южного VT8237. Платы, построенные на таком наборе системной логики, поддерживают как процессоры VIA C7-M ULV, так и Intel Pentium M. В частности, именно на базе VX700 будут построены такие готовые решения, как OQO UPC и DualCor cPC, которые появятся в продаже в ближайшее время. Кроме функциональности, стандартной для VN800 и VT8237, VX700 будет обладать рядом специфических особенностей. Например, в нём будет реализован TV-ресивер с полной поддержкой HDTV, интегрированное графическое ядро Chromotion Video Engine.



Благодаря этому готовые продукты будут поддерживать аппаратное ускорение 2D/3D графики, воспроизведение видео в формате MPEG2, смогут оснащаться двумя выходами на монитор. В будущем чипсете VX700-M VIA реализует также аппаратное ускорение Windows Media 9, MPEG4 и поддержку High Definition Audio.

Графика

В портфолио графических процессоров NVIDIA появилось новое пополнение — GeForce 7900 GTX и GeForce 7900 GT, а чуть позже была представлена и версия этого же чипа для портативных компьютеров — GeForce Go 7900GS. Все построены на базе нового 90-нм ядра G71.



GeForce 7900 GTX:

  • Частота ядра 650 МГц (пиксельные процессоры и блендинг)
  • Частота вершинного блока 700 МГц
  • Эффективная частота памяти 1,6 ГГц (2×800 МГц)
  • Тип памяти GDDR-3, 1,1 нс (штатная частота до 2×900 МГц)
  • Объем памяти 512 мегабайт
  • Пропускная способность памяти 51,2 Гбайт/с
  • Теоретическая максимальная скорость закраски 10,4 гигапикселя в сек.
  • Теоретическая скорость выборки текстур 15,6 гигатекселя в сек.
  • Два DVI-I разъема (DualLink — поддержка 1920×1200 и 2560×1600)
  • SLI-разъем
  • Шина PCI-Express 16х
  • TV-Out, HDTV-Out, поддержка HDCP.


GeForce 7900 GT:

  • Частота ядра 450 МГц (пиксельные процессоры и блендинг)
  • Частота вершинного блока 470 МГц
  • Эффективная частота памяти 1,32 ГГц (2×660 МГц)
  • Тип памяти GDDR-3, 1,4 нс (штатная частота до 2×700 МГц)
  • Объем памяти 256 мегабайт
  • Пропускная способность памяти 42,2 Гбайт/с
  • Теоретическая максимальная скорость закраски 7,2 гигапикселя в сек.
  • Теоретическая скорость выборки текстур 10,8 гигатекселя в сек.
  • Два DVI-I разъема (DualLink — поддержка 1920×1200 и 2560×1600)
  • SLI разъем
  • Шина PCI-Express 16х
  • TV-Out, HDTV-Out, поддержка HDCP

Ориентировочная цена 7900 GTX — около 650 долларов, 7900 GT — около 400 долларов.

С подробным обзором вышеназванных видеокарт, а также GeForce 7600 GT вы можете ознакомиться на нашем сайте.



Не обделены вниманием и сегменты среднего и начального уровня: для него NVIDIA представлены GeForce 7300 LE и 7600 GS. Оба новых графических процессора изготовлены с использованием 90-нм технологического процесса, обеспечивают поддержку Microsoft DirectX 9.0 Shader Model 3.0 и освещения в широком динамическом диапазоне (HDR), а также фирменной технологии PureVideo, которая, к слову, была обновлена с целью задействовать аппаратные ресурсы при работе с видео высокого разрешения (добавилась поддержка проигрывания видео высокого разрешения (HD) в формате H.264).

Технические характеристики семейства графических процессоров 7600 GS:

  • Ядро: G73
  • Количество транзисторов в чипе: 173 млн.
  • Количество пиксельных конвейеров: 12
  • Количество вершинных процессоров: 5
  • Тактовая частота ядра: 400 МГц
  • Тактовая частота памяти 800 МГц (DDR)
  • Полоса пропускания памяти: 12,8 Гб/с
  • Пиковое энергопотребление: 32 Вт

Особенностью данного решения, отличающего его от ранее анонсированного GeForce 7600 GT, являются сниженные частоты, и, как следствие, тепловыделение. 7600 GS будет использовать пассивное охлаждение, что делает карту абсолютно бесшумной. Вероятно, адаптер будет позиционироваться в сегмент ПК для «цифрового дома», где к шуму предъявляются повышенные требования. Кроме того, по заявлению производителя, 7600 GS будет полностью поддерживать воспроизведение видео высокого разрешения с защитой авторских прав.

Технические характеристики GeForce 7300 LE пока не сообщаются. Предположим, что речь идёт о понижении тактовых частот GeForce 7300 GS, при том же чипе G72 и неизменной 64-битной шине доступа к памяти и количестве пиксельных и вершинных процессоров (4 и 3). Известно, что GeForce 7300 LE займет ценовую нишу от 50 до 70 долларов.

Не отстает от конкурента и ATI — корпорация представила Radeon X1800 GTO. Рекомендованная розничная цена адаптеров на базе нового графического процессора составит 249 доллара. Radeon X1800 GTO обладает такой же шейдерной архитектурой с технологией Ultra-Threading и контроллером памяти, как Radeon X1800 XT и Radeon X1800 XL, Radeon X1800 GTO, поддерживает технологию ATI Avivo. Чип содержит 12 процессоров пиксельных шейдеров, использует 256-разрядную шину памяти GDDR3, частоты графического ядра и памяти составят 500 МГц и 1000 МГц, соответственно.



А пока NVIDIA заполняет пробелы в сегментах среднего и начального уровня, ATI анонсировала два решения для профессиональных применений, в основу которых положен графический процессор R520GL. Модели FireGL V7350 и FireGL V7300 оснащены, соответственно, 1 Гбайт и 512 Мбайт памяти, работающей на частотах 600/1300 МГц.

Помимо высокой производительности, новые адаптеры приносят на рынок профессиональных решений технологию ATI Avivo. В частности, речь идет о гамма-коррекции и повышенной глубине представления цвета (в графическом конвейере на каждый компонент RGB отведено 10 бит вместо привычных 8). Платы оснащены разъемами для подключения двух мониторов, что обеспечивает суммарную ширину изображения более 5000 пикселей.

Высокая производительность дорого стоит: FireGL V7350 обойдется покупателю в 1999 долларов, FireGL V7300 — в 1599 долларов.

Физика

Этот раздел, посвященный ускорителям физических вычислений в играх, можно было бы назвать несколько искусственным: все дело в том, что производители графических процессоров готовы осуществлять ускорение этих самых вычислений и в своих решениях. Например, NVIDIA и создатель программного обеспечения для разработчиков игр Havok продемонстрировали в ходе Game Developer Conference (GDC) первое в отрасли решение для расчета физических эффектов силами графического процессора.

Новинка получила название Havok FX и представляет собой программное решение, которое позволяет моделировать «физику» игр с помощью графических карт, поддерживающих Shader Model 3.0, в частности, выполненных на базе процессоров NVIDIA GeForce 7 и 6. Утверждается, что технология поддерживает конфигурации с несколькими графическими процессорами (SLI). С помощью Havok FX, процессор графической карты сможет обработать взаимодействие тысяч твердых тел, учитывая трение, силу тяжести, скорость и другие параметры. Что важно, не создавая никакой нагрузки на центральный процессор.



Однако компания Ageia, начавшая в марте продажи своего физического ускорителя (PPU) PhysX, утверждает, что решать задачу ускорения физических расчетов все-таки лучше с помощью специализированного решения. Плата построена на ядре площадью 182 кв. мм, что очень близко к площади 196 кв. мм, занимаемой GeForce7900. Количество транзисторов в чипе составляет всего 125 млн. против 278 млн. у ускорителя NVIDIA, что связано с использованием 130-нм технологического процесса в производстве PPU и 90-нм — для GPU. PhysX способен обрабатывать динамику столкновений, системы частиц, комплексную физику объектов, терраморфинг и т.д.

На презентации собственного продукта Ageia не упустила шанса критически отозваться о перспективах использования графической карты в качестве физического ускорителя, о котором на днях объявила NVIDIA. В качестве аргументов было предложено следующее:

Во-первых, внутренняя пропускная способность чипа PhysX составляет 2 Тбит/с, что во много раз больше, чем у нынешних процессоров и GPU. Этот показатель влияет на скорость геометрических расчетов, необходимых для обработки столкновений большого количества твердых предметов.

Во-вторых, разработчик подчёркивает, что ядра PhysX оптимизированы конкретно для многопоточных физических вычислений. При этом в настоящий момент нет информации, является ли чип действительно многоядерным, или же речь идёт о независимых физических конвейерах, что кажется более вероятным.

В-третьих, производитель обещает широкую шину памяти устройства с быстрым случайным доступом. В случае обработки физических объектов обращение процессора к памяти носит случайный характер, что учтено при разработке ускорителя.

Есть и другие недостатки, присущие графическим процессорам в связи с особенностями их микроархитектуры. В настоящее время при разработке архитектуры видеоадаптеров всё большее внимание уделяется производительности пиксельных блоков, в то время как текстурирование отходит на второй план. Такой подход снижает необходимость в широкой шине GPU, к которой физические вычисления весьма требовательны. Кроме того, выполнение графическим процессором физических расчётов происходит через API Direct3D. Это требует преобразования «физического» языка в пиксельные шейдеры, что снижает скорость обработки и накладывает ограничения на сложность физических расчётов, доступных GPU. По словам Ageia, видеоплатам будут доступны лишь относительно несложные вычисления по обработке частиц, эффектов и статической геометрии. Кроме того, обновление Direct3D API потребует обновления физического ядра Havok FX для корректной работы, а PhysX не зависит от версии DirectX.

Не преминула высказаться на эту тему и ATI: ядро Havok FX поддерживает как видеоадаптеры NVIDIA, так и ATI. Сегодняшняя физика в играх является очень упрощенной в сравнении с той, которая имеет место в реальной жизни. Столкновения и взаимодействие объектов, как правило, обсчитывается на основании параллелограммов, в которые заключены объекты. Дальнейшее развитие физики объектов, такое как обсчёт сфер, тетраэдров и сеток объектов — пока практически не применяется.

Такой упрощённый подход ведет к тому, что архитектура R520 и R580 не может развернуться в полную силу. В качестве примера была приведена игра Half-Life 2, в которой, по словам ATI, выполнение физических расчетов графическим процессором (GPU) способно повысить производительность всего на 20-30%.

Во-вторых, производительность R580 составляет примерно 375 млрд. операций с плавающей запятой в секунду (GFLOP) для одной карты и вдвое больше для CrossFire-конфигурации. Сравните с 10 GFLOP у современных центральных процессоров или с 25 — у PhysX (последняя цифра является приблизительной и получена по оценкам ATI — тестовых данных пока нет). Даже при большей эффективности специализированного ускорителя разрыв в чистой вычислительной мощности позволяет говорить о том, что видеоадаптеры находятся отнюдь не в проигрыше.

В-третьих, архитектура R580 предполагает эффективное выполнение сложного ветвления логических операций. Благодаря этому чип может разбивать физические вычисления на всё более мелкие блоки и обрабатывать их быстрее. ATI утверждает, что при детализированной физике мелкими блоками преимущество архитектуры R520 и R580 над конкурентами может достичь впечатляющих размеров (за базу взят собственный ускоритель X1600, демонстрируется обработка физики объектов через параллелепипеды, сферы, тетраэдры и сетки).

Четвертый, и едва ли не самый важный момент — это то, что ATI заявляет о разработке ПО, позволяющего приложениям обращаться для расчета физики напрямую к графическому чипу, минуя преобразование команд через программный интерфейс Direct3D или OpenGL. Такой подход позволит избежать лишних трансформаций и ускорит процессы обработки физики.

В-пятых, в отличие от NVIDIA, у которой может заниматься расчётом физики лишь одна из двух в карт SLI-режиме, ATI заявляет, что если у графического процессора достаточно производительности, то часть своих циклов он сможет потратить на расчёт физики.

Наконец, в-шестых, бОльшая гибкость ATI заключается в том, что, купив в будущем карту нового поколения этого производителя, вы сможете оставить в системе предыдущую и загрузить её исключительно расчётом физики. Как видим, пока позиции канадской компании видятся в очень радужном свете, но не стоит забывать, что это — лишь перспективы, преподнесенные нам самим же производителем. Как всё окажется на самом деле, и не повторит ли начинание судьбу, например, казавшейся когда-то перспективной технологии Truform, — покажет время.

О высоком...

Завершая ежемесячный обзор событий мира информационных технологий, по традиции, несколько наиболее интересных сообщений о перспективных технологиях будущего.

Несколько лет назад мы рассказывали о вероятностном подходе к синхронизации микросхем. И если, к слову, синхронизация микропроцессоров вовсе не является непременным условием их успешного функционирования, что было продемонстрировано компанией ARM в асинхронном ядре ARM996HS, то вероятностный подход, судя, по всему, был воспринят с энтузиазмом.

Вероятностный подход был опробован сотрудниками Технологического института Джорджии (Georgia Institute of Technology) в ходе работ над повышением плотности размещения элементов интегральных схем и понижения потребляемой электроэнергии. Проект этот осуществляется при финансовой поддержке Intel и оборонного ведомства США, а точнее — небезызвестного Управления перспективных оборонных научно-исследовательских работ (Defense Advanced Research Projects Agency, DARPA).

Как известно, в обычной микросхеме логические уровни должны иметь заранее определенное значение — то есть, вероятность того, что они примут это значение, должна быть равна 1. В новой разработке требуется, чтобы вероятность «правильного» значения на выходе элемента была не менее некоторой величины p<1. Созданный новый тип логики, названной «вероятностная CMOS» (probabilistic PCMOS), позволяет получать корректные результаты, даже когда значения вероятности корректных выходных значений на выходах элементов схемы меньше 1. По данным создателей новых микросхем, PCMOS требует для работы в 500 раз меньше энергии, чем традиционная логика. Кроме того, новый подход особенно хорошо согласовывается с растущим количеством алгоритмов, в которых используется вероятностные составляющие и идеально подходит, например, для приложений прогнозирования с использованием нечетких множеств.

Еще одно важное преимущество PCMOS — решение проблемы повышения тепловыделения с ростом плотности схем. Вероятностная логика устойчивее к шумам, чем традиционная, а уровень шумов стремительно возрастает по мере того, как повышается плотность расположения элементов. Для коррекции возникающих ошибок используется статистический подход: схема отбрасывает шум, усредняя результаты обработки потоков данных в чипе. Исследователи признают, что такой подход приемлем не для всех типов данных, но многие цепи обработки сигналов уже сейчас рассчитаны на работу с определенным уровнем шумов. В качестве подтверждения права концепции на жизнь, ученые показали работу схемы в задаче распаковки потока видеоданных — видимые искажения не проявлялись.

К настоящему моменту создана однокристальная схема, в которой вероятностный сопроцессор объединен с цепями традиционной логики. На следующем этапе проекта разработчики планируют создать библиотеку алгоритмов обработки аудио— и видеоданных, которая покажет, что архитектура PCMOS пригодна для широкого внедрения.



Второе заслуживающее упоминания сообщение пришло от корпорации IBM, создавшей интегральную схему на базе углеродных нанотрубок раньше NEC, обещавшей сделать это к 2010 году. Это не первый успех IBM в этой области — компании также принадлежат лавры первооткрывателя нанотрубок, излучающих свет. Правда, строго говоря, интегральной схемой последняя разработка IBM пока не является, но это шаг вперед в сторону их создания.

«Интегральная схема» IBM представляет собой пятикаскадный циклический генератор, построенный на 12 полевых транзисторах, выполненных на одной и той же углеродной нанотрубке. Аналог комплементарной структуры металл-окисел-полупроводник был получен «регулировкой» функциональности отдельных полевых транзисторов p— и n-типов. Углеродные нанотрубки известны своими выдающимися электрическими свойствами — по данным IBM, длина свободного пробега электрона в них при комнатной температуре достигает нескольких сот нанометров.

Кроме того, IBM сообщает о том, что параметры передачи постоянного тока у транзисторов на нанотрубках намного лучше, чем у самых современных кремниевых устройств. Научившись создавать много транзисторов на одной нанотрубке и умея их синтезировать, осталось научиться их «упаковывать» в корпус — и в распоряжении разработчиков появятся первые интегральные микросхемы на нанотрубках.

Трудно сказать, стал ли последний успех IBM последней «каплей в море» или IEEE пришла к решению самостоятельно, но в институте решили, что наступила пора стандартизовать нанотехнологии, и выступили с «дорожной картой стандартов нанотехнологий» (Nanoelectronics Standards Roadmap).

Главная цель инициативы IEEE — ускорить процесс выхода нанотехнологий из лабораторных стен на рыночное пространство, где их давно ждут: в коммуникациях, информационных технологиях, бытовой электронике и оптоэлектронике. IEEE планирует провести 18 мая в Нью-Йорке семинар, посвященный новой инициативе, в ходе которого будут определены применения и время утверждения стандартов.

Этот семинар будет проходить в одно время и в одном месте с конференцией Nano-Business Conference и, скорее всего, в основу его результатов лягут положения стандартов IEEE-SA (Standards Association), касающихся наноматериалов, устройств, функциональных блоков и приложений. Предполагается, что «дорожная карта», дополняющая аналогичные документы ITRS (International Technology Roadmap for Semiconductors), и IEMI (International Electronics Manufacturing Initiative) будет обновляться ежегодно.

Уже известно, что значительная часть роадмэпа IEEE-SA будет посвящена углеродным нанотрубкам. К слову, недавно был принят стандарт IEEE 1650, определяющий методы измерения электрических свойств углеродных нанотрубок (Standard Test Methods for Measurement of Electrical Properties of Carbon Nanotubes). Однако у течения в сторону стандартизации нанотехнологий есть один весьма серьезный подводный камень: как известно, все права на коммерческое использование углеродных нанотрубок принадлежат компании NEC, и если японская корпорация не откажется от них, это может поставить крест на принятии значительной части открытых стандартов.




Дополнительно

iXBT BRAND 2016

«iXBT Brand 2016» — Выбор читателей в номинации «Процессоры (CPU)»:
Подробнее с условиями участия в розыгрыше можно ознакомиться здесь. Текущие результаты опроса доступны тут.

Нашли ошибку на сайте? Выделите текст и нажмите Shift+Enter

Код для блога бета

Выделите HTML-код в поле, скопируйте его в буфер и вставьте в свой блог.