Платформа LGA1156


Старт, каких не было уже давно

Такой же подзаголовок имела статья, опубликованная у нас на сайте более четырех лет назад и посвященная появлению процессоров Intel Core 2 Duo. Тогда подзаголовок не имел никакого ироничного подтекста: действительно — новые процессоры серьезно превосходили своих предшественников по производительности. Такой прогресс мы уже отвыкли видеть: до этого несколько лет выход новых архитектур сопровождался получением лишь небольшого преимущества над старыми. Со временем, конечно, становилось понятно — зачем новинку вообще было выпускать, поскольку «запаса модернизируемости» хватало на долгое развитие. Но чтоб так: сразу почти вдвое быстрее… не было такого со времен появления процессоров семейства 80286.

Последующие семейства ЦПУ нередко приносили на рынок новые технологии, но прорыва в производительности на уже имеющемся запасе программного обеспечения не обеспечивали. (Да и по новым технологиям, опять же, 286-й вне конкуренции — ничего более радикального, чем дебютировавший в них «защищенный режим», впоследствии не появилось: увеличение разрядности, изменение и усовершенствование механизма доступа к памяти, расширение системы команд — все это было лишь эволюцией, но не революционным изменением всех принципов работы.) А вот у Core 2 вполне получилось существенно ускориться, откуда и сверхоптимистичное название статьи, которое на тот момент некоторым читателям показалось даже несколько натянутым.

Сегодня мы решили заняться автоплагиатом, но только в плане заголовка — причина появления нынешней статьи куда более грустная. Но действительно — перед нами снова «старт, каких не было уже давно». Точнее, сам старт-то формально состоялся почти год назад. Но планировался он более года назад, да и затянулся в конечном итоге почти на полгода. В общем, таких «стартов» на рынке компьютерных платформ давно не было. И очень хочется верить, что и в будущем их не будет. А почему платформа LGA1156 оказалась настолько многострадальной, мы сегодня и обсудим. Начать придется, как обычно, с предыстории и причин появления этой платформы на рынке.

Интегрированный контроллер памяти: плюсы и минусы

Долгое время на рынке х86-процессоров система памяти была отделена от процессоров. Первое время это проблем не составляло — и память, и процессоры были достаточно медленными. Потом прогресс в области собственно процессорных технологий ускорился, а вот память топталась на месте, так что по-прежнему место расположения ее контроллера продолжало оставаться не имеющим значения. Просто нужно было учитывать, что оперативная память — устройство медленное, и любое к ней обращение приводит к весьма заметным задержкам. Во избежание последних пришлось применять технологии, изначально дебютировавшие на рынке «более серьезных» систем, а именно: иерархическую систему памяти.

Между вычислительными ядрами и ОЗУ выстраивались всё новые уровни кэш-памяти, ее емкость всё росла (началась с 32К байт, а под конец достигла уже единиц и даже десятка мегабайт), в заметной степени это касалось тех уровней, которые были встроены в сам процессор и, соответственно, работали на его полной скорости — это было. А вот ускорить работу основного ОЗУ не получалось, почему было разумным держать его в сторонке. Тем более что шины, соединяющие процессор и чипсет, обеспечивали куда бо́льшую пропускную способность, нежели та, на которую была способна DRAM. DDR-шина EV6 в первых процессорах Athlon уже имела эффективную частоту передачи данных в 200 МГц, а работать им изначально пришлось с обычной SDRAM, на пакетной передаче данных достигающей лишь 133 МГц. Первые Pentium 4 подняли планку вообще до 400 МГц с перспективой дальнейшего роста, а память по-прежнему оставалась медленной. Впрочем, двухканальная RDRAM позволяла работать синхронно с QPB, однако этот тип памяти, несмотря на все усилия заинтересованных компаний, так и не стал доминирующим на рынке, а через некоторое время и вовсе его покинул.

Однако со временем старая система начала давать сбой. Вовсе не потому, что рост производительности процессоров замедлился — просто на рынке памяти произошел настоящий прорыв. Во-первых, была освоена передача данных по двум фронтам сигнала, что сразу же позволило увеличить вдвое скорость пакетной передачи данных. Во-вторых, и над ней самой конструкторы продолжали работать. Фактическое быстродействие отдельных ячеек памяти увеличилось незначительно даже по сравнению с древней FPM DRAM, но «истинно случайные» запросы достаточно редки, так что на общее быстродействие влияют слабо. А вот потоковых задач становилось все больше и больше, что позволяло увеличивать эффективную частоту их выполнения.

Те же микросхемы, которые годились для DDR400 (заметим, что и это уже втрое выше уровня, до которого дотянулась массовая SDRAM), оказались пригодными и для DDR2-800, а позднее — и для DDR3-1600. Причем рост более чем на порядок занял менее 10 лет. Ну и, в-третьих, росла не только «скорострельность» самих модулей, но и количество каналов памяти. Именно это, кстати, оказалось последней соломинкой, сломавшей спину RDRAM — долгое время считалось, что достаточно сложная и широкая шина SDRAM не позволит использовать память такого типа в многоканальных конфигурациях, поэтому стоит осваивать совсем другие принципы работы (узкая, но высокочастотная шина RDRAM/SLDRAM как пример). Оказалось, что ничего невозможного нет :)

К моменту появления памяти типа DDR2 частота шины процессоров Intel достигла уже 800 МГц, увеличившись вдвое по сравнению с первыми моделями. Но что такое 800 МГц? Это как раз 6,4 ГБ/с — пропускная способность двухканальной DDR400. Уже два канала DDR2-533 обеспечивают больше, чем может «переварить» процессор. Приходится и дальше наращивать частоту процессорной шины, что не так-то просто и быстро сделать (ведь это внешняя шина для связи с чипсетом), а память рвется вперед всё быстрее. Особенно печальная ситуация сложилась на рынке многопроцессорных систем — там все ЦПУ висят на одной общей шине. Увеличить ее производительность нелегко даже в простой системе «процессор—чипсет» и еще сложнее, когда процессоров становится много. Зато производительность памяти можно наращивать все дальше и дальше, но это ничего не дает: сама шина превратилась в «бутылочное горлышко». С одной стороны — потребители-процессоры (которым в сумме нужна широкая полоса доступа к памяти), с другой — все более скоростная оперативная память, а между ними — архаичная FSB.

Радикальным способом решения проблемы является перенос контроллера памяти непосредственно в процессор. В этом случае каждый ЦПУ получает максимально быстрый доступ к «своим» гигабайтам ОЗУ. Причем доступ прямой, что позволяет не только увеличить пропускную способность, но и уменьшить задержки. Именно такой подход был взят на вооружение компанией AMD при создании Opteron и Athlon 64, и именно он принес компании немалые дивиденды в плане прироста производительности. Правда, и определенные проблемы тоже :) Связаны они были с тем, что прогресс в области ОЗУ был достаточно быстрым. Сначала DDR являлась основным типом памяти, доминирующим на рынке, и именно такой контроллер применялся в Athlon 64. Точнее, два типа контроллеров — одноканальные и двухканальные. Разумеется, использующие их процессоры были полностью несовместимы по выводам, так что на рынок пришлось выпустить аж две платформы, что понравилось далеко не всем пользователям.

А потом понадобилось переходить на DDR2 и поводов для недовольства стало еще больше — это уже третья платформа. Причем, по вполне понятным причинам, осваивать DDR2 AMD пришлось начинать позже, чем Intel (нужно было дождаться момента, когда этот тип памяти станет более массовым), теряя в «перспективности». Потом точно так же пришлось переходить на DDR3 — с аналогичными задержками. Впрочем, тут хоть компании немного «повезло» — контроллер с поддержкой DDR3 удалось сделать совместимым с DDR2, что и обеспечивает частичную совместимость новой платформы AM3 с более старой AM2+. Но лишь частичную: новый процессор можно установить в старую систему, но не наоборот. В общем, четыре платформы за пять лет — это достаточно много. Особенно для компании, всегда делавшей ставку на «преемственность поколений» и долгую жизнь компьютерных платформ на рынке.

А вот Intel ничего такого не обещала, зато оно само собой получилось :) Как в 2005 году появилась платформа LGA775, так она до сих пор и жива. Разумеется, определенные ограничения совместимости есть, однако в ряде случаев удается заставить работать самые последние четырехъядерные процессоры даже совместно с памятью типа DDR. Ну а уж первые Core 2 Duo совместить с DDR3 — задача вообще элементарная. Причем и освоение разных типов памяти для Intel было делом несложным — достаточно чипсет соответствующий выпустить, а на процессорах никак не сказывается, что́ там сейчас на рынке более привлекательно: DDR2 или DDR3. В общем, «эпоху перемен» пережили. Но дальше, естественно, держаться за внешний контроллер памяти смысла не было — проблемы с производительностью. Особенно на рынке многопроцессорных систем. Да и перемены на ближайшие годы кончились — доминирующей на рынке стала память типа DDR3, и замены ей в ближайшем будущем не предвидится. Таким образом, внедрение ИКП стало делом решенным. В первую очередь — на рынке многопроцессорных систем, далее — везде…

Именно это мы, в конечном итоге, и увидели. Но не так, как планировалось.

Гладко было на бумаге… или Альтернативная история процессоров Intel: годы 2008-2010

Disclaimer. Все, написанное в данном абзаце является личной точкой зрения автора. Автор отдает себе отчет в том, что на самом деле все могло быть задумано совсем не так. В конечном итоге планы корректировать приходится по самым разным причинам. В точности установить, как принимались те или иные решения, уже невозможно. Тем более, находясь в положении стороннего наблюдателя. Однако доступной информации достаточно, и вся она показывает, что получилось совсем не то, что планировалось. А вот изложенное далее, с точки зрения автора, ей не противоречит и даже наоборот :)

Итак, в конце 2008 года компания Intel пообещала всем показать кузькину мать процессоры на базе новой архитектуры Nehalem. Какими они должны были быть? Давайте рассуждать логически. Про ИКП уже было известно, а он в наибольшей степени нужен в многопроцессорных системах. Однако отмена FSB требует разработки не только ИКП, но и нового интерфейса для связи процессоров с периферией и между процессорами. Очевидно, что сделать на пустом месте интерфейс для действительно многопроцессорных систем сразу — сложно даже для Intel, поэтому задачей-минимум являлась разработка добротной двухпроцессорной системы. На самом деле, не такой уж и малый сегмент рынка — хватит и для рабочих станций, и для очень многих серверов, и для узлов кластеров.

Во всех этих системах немалые требования предъявляются не только к производительности, но и к объему памяти. Немудрено, что первый ИКП в решении Intel стал трехканальным: количество модулей на канал ограничено максимум двумя-тремя, так что при прочих равных трехканальный контроллер позволяет иметь в полтора раза больше памяти. Разумеется, четыре канала было бы еще лучше, но и создать такую систему сложнее (особенно с нуля). В общем, платформ разрабатывалось сразу две. LGA1366 (два процессора Nehalem-EP с трехканальными контроллерами) — ближняя перспектива: конец 2008 года. LGA1567 (два или четыре процессора Nehalem-EX с четырехканальными ИКП) — дальняя. В идеале не сильно дальняя — ориентировочно середина 2009 года. Обе платформы для массового рынка не предназначались.

Почему? А на массовом рынке положение компании и без того было неплохим: догнать старший из «обычных» настольных процессоров Intel (Core 2 Quad Q9650) единственному конкуренту удалось только во второй половине 2009 года, в 2008-м же Core 2 Quad были безусловно самыми быстрыми. Впрочем, некоторый тюнинг старой платформы тоже был запланирован — на всякий случай. И все, что для него требовалось — увеличить частоту FSB до 1600 МГц. Это не радикальное, но вполне достаточное решение проблемы. Тем более что поддержку такой частоты уже заложили во многие материнские платы (причем не только на официально поддерживавшем ее чипсете Х48), да и проверить ее было чем — Core 2 Extreme QX9770 появился еще в конце 2007 года. Соответственно, в конце 2008 года требовалось лишь заменить его на Core 2 Extreme QX9870 с частотой 3,4 ГГц, а старую модель — «опустить» до состояния Core 2 Quad Q9770, заблокировав множители. Ну и «до кучи» выпустить недорогой (относительно) Q9670 с частотой 3 ГГц на замену Q9650.

Скорее всего, расширение ассортимента коснулось бы и двухъядерных процессоров — как минимум, линейки Е8000, которая со своими негуманными ценами начала́ уже выглядеть несколько неубедительно. Само́й компании это ничего бы не стоило — технологический процесс позволял выпускать такие процессоры не дороже старых. Все остальные порадовались бы новым моделям, которые за те же деньги быстрее старых. Кроме того, повысилась бы привлекательность плат на чипсете Х48, да и повод для выпуска чего-нибудь типа «Р48» тоже появился бы. В общем, в районе Нового года продавцам, журналистам и пользователям компьютеров нашлось бы чем заняться.

А где-то в мае 2009 года процессоры Nehalem должны были достаться и массовым потребителям. Но совсем в ином виде, нежели серверному рынку: поддержка многопроцессорных конфигураций не нужна, более двух каналов памяти тоже не требуется, зато контроллер PCIe так и просится на кристалл в освободившееся место. Вот и наследница для устаревшей LGA775 готова — многострадальная (как позже выяснилось) платформа LGA1156. Старт обещал быть достаточно массовым и интересным — для потребителей готовились как четырехъядерные процессоры на ядре Lynnfield, так и двухъядерные Havendale с интегрированным графическим контроллером. Причем поддержка всеми процессорами семейства Nehalem технологии SMT (в терминологии Intel — Hyper-Threading) позволяла на базе двух кристаллов выпустить целых четыре семейства процессоров.

По две-три модели в каждом — вот уже и целый десяток процессоров. Перекрывающий все потребности рынка: от бюджетных систем (два ядра без НТ) до высокопроизводительных (четыре с НТ), включая и новый процессор экстремального уровня, которым стал бы Lynnfield с частотой в районе 3,33 ГГц и разблокированными коэффициентами умножения (и пусть бы его потребление оказалось достаточно высоким — четырехъядерные Core 2 Extreme тоже имеют TDP 130 Вт, в отличие от 95 Вт у «регулярных» Core 2 Quad). Такой старт новой платформы, безусловно, ни у кого не вызвал бы вопросов. Равно как и время его появления: в этом случае новые системы успели бы в 2009 году «захватить» основные сезоны массовых продаж компьютерной техники. А процессоры под LGA775 можно было бы быстро и безболезненно с производства снять еще до конца года — они перестали бы представлять хоть какой-то интерес для основных масс покупателей.

…но забыли про овраги. Овраг первый: шина QPI

Как показывает практика, безвыходных положений не бывает — бывают люди, не умеющие решать проблемы. Однако эта красивая формула не учитывает одного фактора — времени, отведенного на решение проблем. На рынке иногда временной фактор играет решающую роль. Так, судя по всему, получилось и в этой ситуации: QPI являлась новой разработкой, так что довести ее до ума к концу 2008 года не смогли. Не то чтоб вообще не работала — просто наладить взаимодействие трехкомпонентной системы (два процессора и чипсет) не удалось. Один линк шины — работает, с двумя — проблемы. Таким образом, Nehalem-EP вовремя не готов. Тем более не готово семейство процессоров под LGA1156 — их конструкторы знали, что времени у них более чем достаточно: больше полугода. А представить архитектуру на рынке обещали. Именно в четвертом квартале 2008 года. Ситуация, конечно, не безвыходная, но сложная. И выходов из нее всего три.

Первый — просто перенести анонс на более поздний срок. С точки зрения логики, не самый плохой вариант, однако шум бы он вызвал изрядный. Как же так — обещали и не сделали?! Акции падают, руководители дают объяснения инвесторам, пресса глумится — в общем, ничего хорошего. Вариант второй — предложить рынку однопроцессорную серверную систему, формально выполнив обещания. Но издевались бы над компанией при таком раскладе еще активнее, чем в первом случае. Поэтому был избран третий путь — раз у нас получилась такая «ни мышонка, ни лягушка», мы это и пустим в продажу. Но назовем не серверной платформой, а экстремальной настольной. В какой-то степени вполне оправданный шаг — если ранее у нас были экстремальные процессоры, то почему бы не выпустить экстремальную платформу?

То, что это решение было незапланированным, очевидно хотя бы по поведению производителей «сопутствующих товаров». В частности, оперативной памяти и кулеров: ну не готовились ориентирующиеся на розничные продажи фирмы к новой настольной платформе. Обычно они свои продукты показывают еще до официального анонса, а тут анонс прошел, а трехканальных комплектов памяти оказывается, что и нет. Для крупных сборщиков есть, а на розничный рынок не завезли. В общем, нужно всю Библию переписывать. Кстати, и само́й Intel тоже — хоть все дружно ожидали выпуска Core 2 с FSB 1600 МГц, по очевидным причинам эти процессоры пришлось упразднить, не выводя на рынок: есть уже новая топовая платформа, так что нечего развивать старую. Так в результате Core 2 Extreme QX9770 и остался единственным в своем роде — пожил на рынке чуть больше года и исчез, не оставив потомства. Впрочем, особо жалеть о нем не приходится: очевидно, что Core i7 Extreme 965 по всем параметрам лучше, нежели гипотетический Core 2 Extreme QX9870, да и младшие модели Core i7 для своей цены выглядели превосходно. Так что покупателям досталось, в кои-то веки, больше, чем производитель планировал им дать. Но все красивые планы по выходу новых процессоров на рынок пришлось менять на некрасивые. Так тоже часто бывает.

Кстати — что проблема была именно с QPI, следует из очень многих событий. Во-первых, платформу-то в конечном итоге компания доделала — весной 2009 года, с полугодовым опозданием. И выпустила сразу же более десяти процессоров, т. е. состоялся действительно массовый старт. И покупателям серверов платформа очень понравилась. Двухпроцессорных серверов, поскольку всем остальным пришлось ждать еще год — Nehalem-EX появился только этой весной. В результате всех пертурбаций он появился позже Westmere-EP, из чего следует, что задержка была для компании незапланированной: изначально предполагали бы, что так получится — так никаких Nehalem-EX никто бы и не увидел, поскольку сразу бы разрабатывались Westmere-EX.

Но это мы уже отвлеклись от массового рынка. На последнем же события продолжали развиваться. LGA1366 рынок «переварил» и оценил, пусть не сразу, но высоко. А тут как раз время выхода LGA1156 приближаться начало́…

Овраг второй: а куда нам девать LGA775?

Выше я писал, что все готовились к появлению в конце 2008 года новых процессоров для старой платформы. И серьезно готовились — не менее трети годовых продаж компьютеров приходится на Рождество. Производители материнских плат запасались чипсетами и разъемами, планируя увеличить выпуск продукции. А увеличивать не пришлось — пришлось экстренно закупаться разъемами LGA1366 и чипсетами Х58! Потому что появилась новая платформа, так что покупатели отправились в магазины за ней. Во всяком случае те, кто планировал приобретение компьютера топового уровня. Причем не обязательно слишком дорогого — чтобы анонс новой платформы не был близким к бумажному, Intel пришлось самый дешевый процессор под LGA1366 продавать по достаточно гуманной цене, так что системы на базе Core i7-920 стоили лишь немногим дороже, чем построенные на базе Core 2 Quad.

И после Рождества, разумеется, ситуация не улучшилась, а только ухудшилась. Тем более что Intel несколько усилила линейку Core i7 по весне, сделав ее еще более привлекательной для покупателей. В итоге сделанные запасы «устаревших» комплектующих распродать быстро не удалось. А тут еще предлагают закупаться очередными сокетами и очередными чипсетами — куда это годится?! Поэтому производители системных плат бухнулись в ноги Intel и взмолились человеческим голосом: «Отец родной! Не вели казнить — вели слово молвить. Не выпускай ты пока эту бесовскую новую платформу — дай нам склады освободить!»

Ну, разумеется, слова использовались несколько иные, но смысл был именно таким — не можем мы сейчас по достоинству оценить новую разработку, да и не хотим. Нам и со старыми туговато пришлось, так что желательно с новыми повременить. Конечно, в Intel могли на такое противодействие внимания и не обратить, но это было чревато последствиями — выпускать новую платформу при прямом саботаже партнеров не является слишком уж разумной политикой. И компания согласилась с прошением — да, выпустим, но погодя. Осенью. Что, кстати, сразу же сильно подкосило потенциальные возможности LGA1156: платформа «пролетела» мимо Back to School, когда компьютеров продается меньше, чем на Рождество, но тоже много. В начале лета, кстати, многие частные пользователи тоже технику обновляют. Как минимум, дарят компьютеры детям по итогам учебного года. Выходи новая платформа на рынок в мае (как изначально планировалось) — она бы попала в магазины когда нужно. А осенью — уже никак не попадала.

Овраг третий: выпускаем полплатформы

Как мы уже сказали выше, планировался массовый выход на рынок не менее чем десятка процессоров. На практике же в сентябре мы увидели всего три модели, что почти окончательно добило перспективы LGA1156. Почему так мало?

Во-первых, пришлось отказаться от старших моделей. Причина — наличие на рынке LGA1366. Раз уж это экстремальная платформа и для нее есть Core i7 Extreme, выпускать такой же (почти) под LGA1156 смысла не имеет. Вот если бы к этому моменту на массовом рынке была только LGA775, проблем бы не было — новые топовые модели логичным образом заменили бы старые. А заменить процессоры под LGA1366 они не могли — эта платформа на рынке к тому моменту присутствовала менее года. И под нее даже уже пообещали выпустить шестиядерные процессоры (хоть один), чего для LGA1156 не обещали. Таким образом, новая платформа закономерно занимала место ниже топового уровня, что потребовало откорректировать планы по выпуску процессоров.

Во-вторых, «под нож» попали и все младшие модели. Дело в том, что для мая Havendale был вполне актуальным кристаллом — техпроцесс 32 нм планировали начать осваивать лишь во второй половине года. Планы были реализованы, поэтому в сентябре скрипач оказался не нужен. Вернее, сам по себе он по-прежнему был необходим, но вот выпускать Havendale и буквально через несколько месяцев менять его на Clarkdale — увольте: и без того за последний год дров немало наломали.

Проблема только в том, что в сентябре Clarkdale был еще не готов, и, таким образом, новая массовая платформа вышла на рынок, не имея в своем составе массовых процессоров. Также не имея и экстремальных. В общем, те три модели, которые мы увидели, оказались превосходными, но могли претендовать лишь на небольшую часть рынка. И, разумеется, даже во второй половине 2009 года ничего поделать с LGA775 было нельзя. Просто потому, что только под эту платформу выпускались бюджетные процессоры и только на ней была интегрированная графика (коей прекрасно ограничиваются в 2/3 продаваемых компьютеров). А и LGA1156 (три процессора, один чипсет), и LGA1366 (опять же — три процессора, один чипсет) на ее фоне вообще смотрелись не платформами, а какими-то непонятными обрубками. Про то, как это все соотносится с продукцией AMD, где весь ассортимент выпускается ровно для одной платформы, и вспоминать не будем — не стоит о грустном.

Овраг четвертый: уж Герман близится, а полночи все нет

К началу 2010 года Clarkdale доделали, так что после выпуска процессоров на этом кристалле платформа LGA1156 (наконец-то!) обрела законченный вид. На ее базе уже можно выпускать широкий спектр компьютеров — для всех сфер применения. Другой вопрос, что «можно» — не значит «нужно». Задержка составила всего полгода, но поскольку любая платформа существует не в вакууме, а на реальном рынке, оказалась она катастрофической. Одно дело — выпуск всего спектра продукции в мае 2009 года, причем при конкуренции только с LGA775: при таких условиях экспансия LGA1156 была бы очень быстрой и ей бы ничего не мешало. В январе 2010 помехи уже были, причем аж три. Во-первых, в компьютерах высокого уровня приходится конкурировать с «настольной версией» LGA1366, что изначально не планировалось. Не планировалось, но получилось — необходимость в развитии и этой платформы привела к тому, что в ее рамках существуют процессоры, уникальные для настольного сегмента: шестиядерные. Пусть первое время существовали они лишь в количестве всего одной экстремальной модели, да и появившаяся в июле вторая имеет цену, которую вполне можно назвать заградительной, но существуют. Да и среди «обычных» Core i7 все не так уж однозначно, т. е. нет каких-либо принципиальных причин предпочитать эти модели именно в исполнении LGA1156: всегда можно найти доводы как за, так и против.

Во-вторых, снизу «поджимает» LGA775, которую пришлось задержать на рынке на несколько месяцев. Да, за это время ничего принципиально нового в данном классе не появилось, зато старых процессоров навыпускали массу, причем все они успели изрядно подешеветь. Причем (третья причина) продвигать LGA1156 как перспективное решение в 2010 году тоже уже не выходит. Просто потому, что на 2011-й запланированы процессоры с новой архитектурой. Причем так уж получилось, что рассчитаны они совсем на другое конструктивное исполнение. Есть подозрение, что во многом это связано как раз с тем, что LGA1156 сильно задержалась на старте и не сумела занять заметное место на рынке — выйди она вовремя, вопрос сохранения совместимости был бы более-менее актуальным, а так предпочли сэкономить.

В общем, имеем то, что имеем. Если бы весь выводок процессоров появился на рынке одновременно и в первой половине 2009 года, LGA1156 была бы безальтернативной платформой. Особенно, если бы при этом она стала действительно первым решением Intel с ИКП для массового рынка. Но первым решением она не стала и появилась слишком поздно.

Итого

Честно говоря, как нам кажется, какое-либо специальное подведение итогов сегодня не требуется — достаточно просто взглянуть в прайс-лист любой компании, торгующей компьютерами и комплектующими. То, что там творится в разделе систем на базе процессоров Intel, можно назвать всего одним емким словом — бардак. Три одновременно существующих платформы для одного сегмента рынка никак иначе назвать не получается. Причем ладно б еще было впереди время для изменения ситуации — можно было бы навести порядок. Но как раз времени и нет: пройдет еще несколько месяцев, и все нынешние платформы Intel станут морально устаревшими. Хочется верить, что очередная итерация технического процесса пройдет менее болезненно. В конце концов, предпосылки для этого есть — если Nehalem делался практически на пустом месте (в плане интерфейсов вычислительных ядер с внешними схемами), то Sandy Bridge «приходит на готовое»: и контроллеры памяти отлажены, и шина QPI к 2010 году доработана до нужного уровня.

Причем на этот раз в Intel решили вернуться к привычной практике сначала выпускать массовую платформу, а потом уже серверную (отказаться от такой практики попробовали как раз с Nehalem, где оно было вполне оправдано, но вызвало описанные выше проблемы). Таким образом, при правильном подходе все эти грустные страницы прошлого можно будет перелистнуть одним махом — LGA1155 сможет сразу заменить и зажившуюся LGA775, и так и не сумевшую нормально стартовать LGA1156, и выкидыш серверного рынка LGA1366 (во всяком случае, в том, что старшие четырехъядерные процессоры линейки Sandy Bridge как минимум в 90% приложений будут демонстрировать сравнимую с шестиядерными Westmere производительность, сейчас особых сомнений нет).

Так оно может быть. Не обязательно будет — во-первых, как мы уже увидели, даже не очень большие проблемы иногда вызывают целую лавину несуразностей при попытке решить их способом, кажущимся максимально простым. Да и просачивающаяся на данный момент информация о новых платформах определенные основания для пессимизма дает. Например, появилась кой-какая информация о первых процессорах под LGA1155. Так вот: если верить слухам, то будет их пять штук (всего!), причем (опять же — если верить слухам) по сути своей они не заменят текущие модели процессоров под LGA1156, а «встроятся» уровнем выше, иногда даже пересекаясь по производительности. В общем, опять получим равноправное существование сразу двух настольных платформ — в конце 2009 года это были LGA775 и LGA1156, а в начале 2011-го точно так же конкурировать начнут LGA1156 и LGA1155 (да и товарные остатки LGA775, скорее всего, никуда еще не денутся). Более того — есть сведения, что настольных платформ окажется вновь даже не две, а две с половиной. Опять вместо простого и логичного выпуска двух новых платформ (серверной и настольной), как было долгие годы, Intel может выпустить три — серверную, настольную и серверно-экстремально-настольную. Попадут ли те же грабли в то же место, или компания сумеет извернуться и подставить под них свободную от гематом область — покажет время. Одно можно утверждать точно — если события будут развиваться подобным образом, скучать нам всем точно не придется. Так что пополняем запасы попкорна и ждем следующую серию платформенных внутрифирменных баталий.






Дополнительно

iXBT BRAND 2016

«iXBT Brand 2016» — Выбор читателей в номинации «Процессоры (CPU)»:
Подробнее с условиями участия в розыгрыше можно ознакомиться здесь. Текущие результаты опроса доступны тут.

Нашли ошибку на сайте? Выделите текст и нажмите Shift+Enter

Код для блога бета

Выделите HTML-код в поле, скопируйте его в буфер и вставьте в свой блог.