Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Частота использования таких задач на серверах колеблется внезапно в районе нуля.
Большая часть реальных задач — вёб-серверы разного рода с тяжёлой и не очень бизнес-логикой, базы данных, и преимущественно целочисленные вычисления…
Так я и говорю — да, это оно и есть. И крышки, как мы видим, у самого CPU нет :) Только кейсинг, закрывающий плату с процом и внешним L2.
Толку нету от этого контактирования. Это не припаянная хорошо проводящим припоем крышка, которая сама с большой теплопроводностью, это просто огромная металлическая дура. Бестолковая, см. выше. От слотов отказались не только по соображениям контакта, ещё и из-за невозможности от него тепло нормально отводить, не продувая внутренности.
—
На памяти — народ выдирал эти металлические бандуры и колхозил напрямую радиаторы на L2, и навесные кулеры с большим радиатором на CPU.
У меня самого кстати, каюсь, никогда K7 не было. Ни обычного, ни XP. Зато ни одного чужого Socket A не сколол, хоть и ставил народу орбы. Я на этот адешник с охлаждением посмотрел, и решил что нафиг, прыгнул с PIII и K6-III сразу на Athlon64. Который с крышечкой. Не из-за крышечки, конечно. Просто тогда уже и охлады нормальные появились.
Да, это как раз Slot A вариант, там кейсинг, а не крышка. Из-за того, что L2 выносной.
Крышки у самого проца нет, из вашего же фото видно — голый кристалл. Между процом и кейсингом — термосопли на минимальной площади. Это даже хуже, чем если бы просто радиатор прилегал. Потому, что два стыка, потому, что площадь одного из стыков никакущая, и потому, что стоячего воздуха внутри полно. Площадь контакта с радиатором вроде получается здоровая, а толку нету.
Первые Атлоны так-то в основном в 60-70W вписывались, если что. Просто охлаждение не успевало. Теплораспределительной крышки не было, тепловых трубок тоже.
А вот 800W (2x400) уже не шутка, это реально хоть и слабенький, но кипятильник.
Возможно, да, и L2 в спеках это ошибка.
L3 и 128К банки, 11-вариантная ассоциативность, per core, сходится.
Но блин количество вариантов размещения не из степени двойки — это треш и содомия...
Зачем самосбор? Dell и апгрейд киты чем не катят? :)
Ну и не совсем так, если честно. Когда сотни — начинает появляться всякий коммодити хлам, потому что де факто вообще становится фиолетово, на чём оно работает. Упало две ноды раз в год — куски сами по себе переехали на другие ноды, все довольны, никто не пострадал.
Ну вот смотри. Облако. С одним CPU влезало 10-15 клиентских VPS на платформу 1U, с двумя влезает 15-25, а где и больше. Как считаешь, оправдан апгрейд? :) Стоимость апгрейда CPU и RAM, потребления второго CPU, по сравнению с новой платформой копеечная, а профит растёт нехило.
Естественно, везде приходит время большого апгрейда. Следующий сеанс — многоядрёные EPYC в один сокет, у них консолидация сравнительно со скалейблами выше выходит.
Для такого случая есть «нужное вписать» :)
А у интела так. +4 ядра — +много к стоимости. Увы.
Ну и не забываем ещё про многосокетные системы.
У меня лично в 2/3 парка был один проц, стало два. И памяти x2.
С эпиком вышло бы попроще — можно вообще в один сокет уместиться.
И слотов памяти у него фигова туча, аж по 16 штук на проц в минималке.
Ага. Ради обновления CPU с 10 на 14 ядер (нужное количество вписать) или перехода с 64G на 128G памяти, или установки SSD будем покупать платформы целиком, и менять весь парк. Такое разве что госконторы, которые живут за чужой счёт, могут себе позволить, да и то не во всех странах...
Ну да, в самом деле. Заплатить ещё +100-1000% сверху за платформу, проблема тоже мне. Нет, когда полтора сервера на подвальчик — это может быть оправдано. А что делать когда их сотни? Ну или пусть даже три или четыре десятка всего допустим.
Большая часть реальных задач — вёб-серверы разного рода с тяжёлой и не очень бизнес-логикой, базы данных, и преимущественно целочисленные вычисления…
Толку нету от этого контактирования. Это не припаянная хорошо проводящим припоем крышка, которая сама с большой теплопроводностью, это просто огромная металлическая дура. Бестолковая, см. выше. От слотов отказались не только по соображениям контакта, ещё и из-за невозможности от него тепло нормально отводить, не продувая внутренности.
—
На памяти — народ выдирал эти металлические бандуры и колхозил напрямую радиаторы на L2, и навесные кулеры с большим радиатором на CPU.
У меня самого кстати, каюсь, никогда K7 не было. Ни обычного, ни XP. Зато ни одного чужого Socket A не сколол, хоть и ставил народу орбы. Я на этот адешник с охлаждением посмотрел, и решил что нафиг, прыгнул с PIII и K6-III сразу на Athlon64. Который с крышечкой. Не из-за крышечки, конечно. Просто тогда уже и охлады нормальные появились.
Крышки у самого проца нет, из вашего же фото видно — голый кристалл. Между процом и кейсингом — термосопли на минимальной площади. Это даже хуже, чем если бы просто радиатор прилегал. Потому, что два стыка, потому, что площадь одного из стыков никакущая, и потому, что стоячего воздуха внутри полно. Площадь контакта с радиатором вроде получается здоровая, а толку нету.
Потом был Socket A, там тоже крышки не было.
А вот 800W (2x400) уже не шутка, это реально хоть и слабенький, но кипятильник.
L3 и 128К банки, 11-вариантная ассоциативность, per core, сходится.
Но блин количество вариантов размещения не из степени двойки — это треш и содомия...
Ну и не совсем так, если честно. Когда сотни — начинает появляться всякий коммодити хлам, потому что де факто вообще становится фиолетово, на чём оно работает. Упало две ноды раз в год — куски сами по себе переехали на другие ноды, все довольны, никто не пострадал.
Естественно, везде приходит время большого апгрейда. Следующий сеанс — многоядрёные EPYC в один сокет, у них консолидация сравнительно со скалейблами выше выходит.
А у интела так. +4 ядра — +много к стоимости. Увы.
Ну и не забываем ещё про многосокетные системы.
У меня лично в 2/3 парка был один проц, стало два. И памяти x2.
С эпиком вышло бы попроще — можно вообще в один сокет уместиться.
И слотов памяти у него фигова туча, аж по 16 штук на проц в минималке.
А так согласен, штатный крепёж высоковат.
Текущие платформы свои возможности апгрейда почти исчерпали.
Страшно далеки они от народа ©
https://market.yandex.ru/search?cvredirect=2&text=LGA3647&local-offers-first=0
Ну и если вы про обновление — зачем так жёстко, аж сразу в розницу? Тот же Dell поставляет процы апгрейд китами отдельно.