Зачем энтузиасты собирали двухпроцессорные ПК в начале 2000-х

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Мнение | Платформа ПК

На заре 2000-х, когда большинство пользователей довольствовались обычными домашними компьютерами, некоторые энтузиасты шли на странный, казалось бы, шаг: устанавливали в свои системы два процессора. В те времена даже о двухъядерных CPU никто и не мечтал, а двухпоточных задач, на первый взгляд, и вовсе не существовало.

Тем не менее, материнская плата Abit BP6 стала настоящей легендой среди определённого круга пользователей, а желающих собрать двухпроцессорную систему находилось немало — при том, что удовольствие было совсем не из дешёвых. Что же заставляло людей идти на такие сложности и траты в эпоху, когда даже один производительный процессор считался роскошью?

Автор: Cathode Ray Dude (CC BY 4.0) Источник: youtu.be

Тяжёлые будни одноядерной эпохи

На современных компьютерах мы привыкли держать открытыми десятки программ. Браузер с множеством вкладок, редактор графики, мессенджеры, музыкальный плеер — всё работает одновременно, не мешая друг другу. Но в конце девяностых ситуация была кардинально иной: даже простейшие сценарии вроде прослушивания музыки во время работы в Photoshop превращались в настоящее испытание.

Одноядерный процессор, столкнувшись с ресурсоёмкой задачей, практически полностью «подвисал». Winamp начинал заикаться, а интерфейс Windows отзывался с многосекундными задержками. Пользователь буквально слышал, как его компьютер задыхается под нагрузкой — характерные рывки в воспроизведении музыки стали своеобразной «визитной карточкой» проблем с многозадачностью той эпохи.

Даже флагманские модели вроде Pentium III и более поздних Pentium 4 не спасали от проблемы — она крылась в самой архитектуре одноядерных решений. Процессор физически не мог уделять достаточно времени нескольким задачам одновременно, как бы ни старалась система распределить ресурсы. И, хоть появление технологии Hyper-Threading в поздних моделях P4 немного улучшило ситуацию, до настоящего решения было ещё далеко.

Автор: Eric Chan (CC BY 2.0) Источник: www.flickr.com

То есть, если подводить итоги, многозадачность для ПК того времени — скорее формальность, чем реальность. А на деле — «служба одного окна», предел возможностей которой — пара окон браузера с музыкой в фоне.

Два лучше, чем один

Решение напрашивалось само собой — добавить второй процессор. Windows NT, а затем и Windows 2000/XP прекрасно поддерживали такую конфигурацию, равномерно распределяя нагрузку между CPU. Пользователь мог запустить ресурсоёмкую задачу на одном процессоре, пока второй обеспечивал плавную работу остальной системы.

Подобный подход кардинально менял пользовательский опыт. Теперь не требовалось закрывать все фоновые программы перед запуском тяжёлого приложения — система оставалась отзывчивой даже при серьёзных нагрузках. Сегодня мы считаем такое поведение нормой и даже не задумываемся об этом — спокойно смотрим видео на YouTube при рендеринге в VSDC и ничего не закрываем перед запуском игры.

Пользователи двухпроцессорных систем получали возможность работать в режиме, который стал привычным для всех лишь спустя несколько лет. При этом дополнительная производительность второго CPU (многопоточность программ, которая на тот момент была, скорее, исключением, чем нормой) куда менее важна, чем сама возможность параллельного выполнения задач.

«Народный» дуэт Celeron и двухпроцессорные платы

История массового распространения двухпроцессорных систем среди энтузиастов началась с интересного аппаратного бага в процессорах Intel Celeron на Socket 370. Согласно официальной документации Intel, эти бюджетные CPU не должны были поддерживать работу в многопроцессорном режиме — данная функция намеренно блокировалась производителем для разделения потребительского и серверного сегментов.

Однако энтузиасты обнаружили, что любые процессоры на этом сокете прекрасно функционируют в паре при доработке BIOS, несмотря на заявленные ограничения. Производители материнских плат не смогли проигнорировать такую возможность — вскоре появились платы, специально спроектированные под установку двух «бюджетных» CPU. Главной звездой среди них стала Abit BP6, позволявшая использовать два бюджетных Celeron вместо существенно более дорогих Pentium III.

Автор: Cathode Ray Dude (CC BY 4.0) Источник: youtu.be

Intel никогда официально не признавала эту возможность и не поддерживала подобные конфигурации, но и активных мер против них не предпринимала. Для компании это был удобный компромисс — энтузиасты получили возможность экспериментировать с многопроцессорными системами, не подрывая продажи дорогих серверных решений, для которых такие платы были недостаточно надёжны.

Материнская плата Abit BP6 быстро стала культовой в сообществе. За ней последовали другие производители со своими решениями, но именно BP6 задала стандарт для «народных» двухпроцессорных систем. Её популярность была настолько высока, что платы продолжали пользоваться спросом даже после прекращения производства, а на вторичном рынке цены на них порой превышали первоначальную стоимость.

Цена вопроса

Несмотря на использование относительно доступных процессоров Celeron, двухпроцессорная система всё равно требовала существенных вложений. Помимо стоимости второго CPU, значительную часть бюджета съедала специализированная материнская плата — они были заметно дороже обычных моделей из-за более сложной разводки и дополнительных компонентов, даже если брать сравнительно бюджетные решения вроде той же BP6.

Серьёзные требования предъявлялись и к блоку питания — он должен был обеспечивать стабильное питание двух процессоров в любых режимах работы. Но самой существенной статьёй расходов становилась оперативная память: для полноценной многозадачности требовалось в полтора-два раза больше ОЗУ, чем в обычной системе. При этом память тогда оставалась одним из самых дорогих компонентов компьютера.

Тем не менее, для многих энтузиастов эти затраты окупались возможностью получить принципиально более комфортный уровень работы с компьютером. К тому же, если пользователь уже мог позволить себе топовую видеокарту и другие высококлассные комплектующие, вложение в двухпроцессорную конфигурацию выглядело логичным следующим шагом.

Стоит, к тому же, отметить, что флагманское железо тех времён было куда доступнее относительно среднего заработка, чем современные решения вроде RTX 4090 за 300 тысяч рублей. Даже с учетом планового апгрейда раз в два года и поправки на инфляцию…

На пороге новой эры

Появление первых массовых двухъядерных процессоров, особенно после триумфального выхода линейки Intel Core 2 Duo, поставило крест на эпохе двухпроцессорных домашних компьютеров. Два ядра на одном кристалле оказались эффективнее двух отдельных процессоров — как по производительности, так и по энергопотреблению. А уж про разницу в цене и говорить не приходилось.

Многопроцессорные системы стремительно ушли в сегмент серверов и профессиональных рабочих станций, где требования к производительности оправдывали сложность и стоимость таких решений. Для домашних пользователей и энтузиастов эпоха экспериментов с двумя CPU подошла к концу.

Любопытно, что массовое принятие двухъядерных процессоров произошло вовсе не из-за появления программ, способных эффективно использовать оба ядра — таких приложений ещё долго не существовало. Основным драйвером стала именно та самая многозадачность, ради которой энтузиасты годами ранее собирали свои двухпроцессорные системы.

Более того, первые поколения двухъядерных CPU часто проигрывали однодерным системам в однозадачных сценариях — но удобство мультитаскинга сделало своё дело: будущее явно принадлежало многоядерным решениям.

Опередившие время. Вместо итога

Автор: Cathode Ray Dude (CC BY 4.0) Источник: youtu.be

Двухпроцессорные энтузиастские системы начала 2000-х можно смело назвать предвестниками современной многозадачности. Их создатели фактически предугадали то, как мы будем использовать компьютеры в будущем — с десятками открытых вкладок браузера, множеством фоновых процессов и параллельно запущенными приложениями.

Хотя технически такое решение оказалось временным, и даже его обладатели наверняка это понимали, оно позволило определённому кругу энтузиастов «пожить в будущем» на несколько лет раньше остальных. Они получили возможность работать так, как мы привыкли сегодня — не задумываясь о необходимости закрывать фоновые приложения или ждать завершения ресурсоёмких задач.

Вопреки мнению некоторых форумных критиков, двухпроцессорные системы того времени не были «бесполезными понтами». Они стали важной вехой в истории персональных компьютеров, наглядно продемонстрировав преимущества параллельных вычислений для обычных пользователей. Во многом благодаря этому опыту переход на многоядерные процессоры прошёл так естественно — пользователи уже знали, какие преимущества он может принести, даже если не могли позволить себе такую сборку.

Пусть сама технология оказалась тупиковой ветвью эволюции, идеи, стоявшие за ней, во многом определили развитие домашних компьютеров на годы вперёд.

P.S. Материал частично основан на ролике за авторством Cathode Ray Dude со свободной лицензией CC BY 4.0, пропущенном через призму собственного мнения и понимания истории вычислительной техники. Не могу не посоветовать к просмотру и оценке для интересующихся необычным ретро-железом.

Изображение в превью:
Автор: Cathode Ray Dude (CC BY 3.0)
Источник: youtu.be
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Наношу добро, причиняю пользу, благодарен за лайки и содержательные (дополняющие статьи) комментарии.

14 комментариев

M
Многопоточность на одном ядре? Не, не слышали. И компьютеры в те времена больше задыхались из за медленных дисков, чем из за отсутствия многоядерности.
LeVK
Да, не слышали. Многопоточность в контексте статьи — возможность одной программы задействовать несколько потоков (ядер/процессоров/виртуальных потоков). Что было редкостью и в эпоху «гиперпней», и на заре C2D.
M
Ну дык учите матчасть. Потокам могут выдаваться кванты времени, т.е. они могут работать на одном ядре поочередно. Это не критично даже для звука, т.к. звук выдается через DMA, а процессорное время нужно только в моменты перезагрузки буфера. Драйвер звука при этом скорее всего имеет более высокий приоритет, так что тормозов не будет. Только если данные успевают прогружаться с диска. У меня в компьютере сейчас 1200 потоков. А ядер всего 4. Как это интересно работает, если по вашей логике на один поток должно быть по 1 ядру? Мощный одноядерный процессор может быть эквивалентен паре слабых. Мощный одноядерный даже круче. Т.к. он способен быстро работать с задачами, которые не оптимизированы под параллельное выполнение. А это до сих пор так для многих приложений, в том числе и игр. Многоядерными процессоры стали делать вовсе не из за того, что так круче. Просто одно ядро уперлось в предел по производительности. Тут как с многорядными радиальными поршневыми двигателями. Вы вроде покупаете один двигатель, но на деле вам просто продают 4 на одном валу.
a
Тут говорили о винампе. К началу 2000 он превратился в жрущее процессор дерьмо.
M
Да это не важно. Звук от этого тормозить не будет. Я скажу так. Я сам долгое время это не знал, но производительность Windows всегда упиралась в пропускную способность диска. Дело в том, что в Windows уже очень давно есть система поднятия приоритета потоков переднего плана. По идее целью этой системы было повысить отзывчивость интерфейса. Но на деле это никогда не происходило. Действительно, во времена последних одноядерных процессоров, особенно когда появилась Vista, в которой было больше фоновых процессов, все жутко тормозило и вставало колом. Но это было не из за слабых процессоров. Дело было в том, что в Windows есть система буста потоков переднего плана, но нет системы приоритета на доступ к диску. В итоге фоновые процессы, которые вроде как имели более низкий приоритет, все равно сжирали всю пропускную способность диска. И интерфейс все равно вставал колом.
b
Ну не знаю, мне всегда не хватало именно вычислительной мощности и PSP памяти.
b
У меня был комп на VP6 и 550Mhz коппермайнах (не целеронах, полных P-III) разогнанных до 730Mhz, отличный был комп, но потом там потекли кондёры на матери и их перепаять не получилось, слишком многослойная мать, стабильность упала что я ни делал, даже съём разгона не помог.
Пришлось менять на богомерзкий P4 двухядерный (двухкристалльный).
X
Была у меня такая, да. Именно на BP6. :) И два Celeron'a 300, разогнанных до 550.
d
Бредятина отборная. На пентиум mmx даже в фоне винамп работал нормально. Про п2 вообще молчу. И с фотошопом, и 3д максом вместе.
Двухпроцовки ставили на тяжелые задачи, вроде крупной полиграфии, расчетов разных и т.д. Работал за дуальником п3 со скази дисками с гигом оперативы. В те годы это было как сегодня тредриппер какой-нибудь сегодня на 666 ядер. Да, там разница была — машинка гиговые тиффы крутила вподне терпимо, в отличие от бытовых компов.
stalinets
Мне кажется, в статье неверный посыл. В комментах правильно сказали, что тормоза винды времён до XP были из-за бутылочного горлышка жёсткого диска, а не из-за слабого CPU. Да и в условиях, когда 99,9% компьютеров однопроцессорные одноядерные однопоточные, сомневаюсь, что в винде был нормальный рабочий механизм разделения потоков системы и пользовательских приложений по разным CPU. Это появилось уже в WinXP, и то не сразу, а то ли в SP2, то ли в SP3, когда пошли Core2Duo, Athlon64 x2 и массовые P4 с гипертредингом. А так, кто побогаче, собирал себе RAID из двух жёстких дисков и специального контроллера. Вот это реально ускоряло систему. Но RAID-контроллеры тогда стоили дорого.
Для чего можно было собрать двухпроцессорный комп в 2001 году? Ну, наверное, для видеомонтажа, 3D-моделирования.
На ютубе есть интересные видео, где человек тестирует такую систему в современных задачах. Он поставил туда два максимальных Pentium 3 1400 Tualatin. Но работает это вовсе не так хорошо, как какой-нибудь ранний ультрабюджетный двухъядерный процессор или чем даже P4 с гипертредингом. Почти так же плохо, как и на одном P3 Tualatin. Дело в том, что межпроцессорное взаимодействие на этих старых двухпроцессорных материнках крайне медленное. Например, ютуб даже в 360p почти несмотрибелен.
А сегодня, если кто хочет, можно собрать двухпроцессорный домашний комп на материнке с Али с сокетами 2011v3. Ищется по запросам «x99 dual», «2011 v3 kit» и т.п. Максимум там можно получить 22*2 ядра, 44*2 потока если поставить топовые CPU «Xeon E5-2xxx v4», но топовые будут стоить дорого, а можно кратно дешевле взять что-то низкочастотное на 14-18 ядер. Но это Haswell/Broadwell, так что IPC будет невысоким (правда, и цена невысокая). Кому оно надо? Ну, для хостинга виртуалок, для того же видеомонтажа. Для игр и обычной работы за домашним компом оно вовсе не нужно, берите обычный одноядерный комп с процессором на 6-8 ядер.
A
У Абита была ABIT BX133-RAID с установленным контроллером, стоила в районе 100$, не так и дорого.
L
Топовые Xeon E5-2xxx v4 — это уже мусор по современным меркам.
d
NT с дуальными машинами работала вполне нормально. Задачи можно было ручками раскидывать по процам в случае необходимости.
3d не требовало особой мощи на этапе моделирования (да и сейчас не требует), вот рендер — да. Но уже тогда был сетевой рендер, и большие проекты раскидывали по сети на несколько машин. А в конце 90-х 3д вообще на PC только полулюбительское было, тогда sgi еще рулило в мире проф графики.
Ключевое слово к быстрым дискам в те годы было не «raid», а «scsi». Скази не тормозило проц, как ide, имело в разы большую пропускную. Но и цены были на контроллеры и диски — мое почтение.
2
А автор сам на компах того времени работал? Я что-то не помню, чтобы прямо вот винамп задыхался…

Добавить комментарий

Сейчас на главной

Новости

Публикации

3D печать с хитростями: установка магнитов в модели с помощью инструмента

Наверняка многие сталкивались с необходимостью размещения магнитов в отпечатанных 3D моделях. И если штучная установка вручную практически не занимает времени, то в случаях, когда магнитов...

Что важно знать перед покупкой капсульной кофемашины

Капсульные кофемашины за последние годы стали очень популярными. Они компактны, просты в использовании и позволяют приготовить чашку кофе буквально за минуту. Однако перед покупкой такой техники...

Свет заставили подчиняться законам твердых тел: как физики воссоздали квантовый эффект Холла в оптическом волокне

Развитие вычислительной техники и систем передачи данных неизбежно упирается в физические ограничения оптических компонентов. Свет, движущийся по оптоволокну или кремниевому волноводу микрочипа,...

Выращенный в лаборатории мозг подключили к симулятору: клетки успешно решили бенчмарк для искусственного интеллекта

Несмотря на колоссальный прогресс в развитии искусственного интеллекта, современные нейронные сети всё ещё сильно проигрывают биологическому мозгу в энергоэффективности. Чтобы обучить алгоритм...

World Models: следующая эволюция ИИ, которая научит нейросети «здравому смыслу» и физике

Знакомимся с совершенно новым классом архитектур нейросетей - World Models. Нейронка, которая не просто дописывает текст, а понимает физические процессы.

Обзор паяльника ALIENTEK T80: 100 Ватт в кармане и разогрев за 2.5 секунды

Портативные USB-паяльники за последние пару лет прошли путь от игрушки «ну и ладно, хоть что-то» до инструмента, которым реально удобно работать. Главные имена тут — Pinecil, TS101, и...