Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ну это говорит только о том, что аппаратные рейды не особо-то и востребованы.
Хотя «не найдёшь в свободной продаже» — это вы лишнего написали, ЕМНИП все современные контроллеры у lsi умеют и nvme.
У вас какая-то каша в голове.
Резервируемая область, slc-кэш — это всё в nand, которая является энергонезависимой.
А plp нужен в первую очередь для защиты данных в dram. И да, там тоже кэш, но только в основном не для данных, а для транслятора. Любая запись на ssd обновляет таблицу транслятора. И если запись синхронная, то накопителю нужно сбросить во флеш не только открытые страницы (скорее всего незаполненные), но и все изменения в трансляторе. Это вызывает жуткий WA.
PLP же на DC накопителях позволяет избавиться от высокого WA при синхронной записи. И только. Но на некоторых нагрузках (например, базы данных) это важно.
Так и классические sata/sas устройства в серверах обычно подключаются такими же (или примерно такими же) кабелями, что и nvme. Точнее, кабели идёт не непосредственно на накопители, а в backplane, в который уже втыкаются корзины с hdd/ssd.
Например, на backplane может быть несколько разъёмов minisas hd, часть из которых используется для sas/sata, а часть — для nvme. Ну или tri-state hba, в которых один и тот же порт может работать как в режиме sas, так и в режиме nvme.
Гхм…
Теплопроводность меди ≈400, пасты mx-4 ≈8.5. То есть слой пасты толщиной 0.1мм по теплопроводности соответствует слою меди ≈4.7мм.
По мне толстая крышка для массового рынка — это отлично, она улучшает совместимость с кулерами с разными конфигурациями теплых трубок и т.п.
А мне сложно представить, что у вас за серверные задачи, если вам время случайного доступа не важно.
Все нагруженные базы данных, не помещающиеся в оперативную память, выигрывают от низкой латентности.
Я уже писал в соседнем комментарии, проблема даже не в том, что optane дорог, а в том, что он катастрофически дорог. Не так давно считал, терабайт памяти стоит чуть (менее, чем на 5%, по розничным ценам одного из московских магазинов) дороже, чем optane на 1.6ТБ (и если буквоедствовать, то памяти 1ТиБ, а объём optane 1.455ТиБ). Для баз в единицы терабайт очевидно выгоднее докупить памяти. Для баз в десятки/сотни терабайт нужно считать, в каких-то случаях optane и по сегодняшней цене может быть оправдан (за счёт того, что есть недорогие платформы, в которые можно поставить десятки nvme; а вот сотню модулей памяти разве что в какой-нибудь superdome вставишь, только цена вам не понравится), но это прямо-таки исключения.
Рул намбер уан: вся индексация должна влезать в озу.
ну да, только индексы зачастую занимают львиную долю на диске (это я молчу про ms sql, где данные обычно хранятся в индексах). И да, сервер с десятком терабайт памяти — это редкий уродец за кучу денег, в то время, как в одноюнитовую платформу за пару тысяч долларов можно напихать nvme optane на 30 с лишним терабайт
Ну и да, энергонезависимая память с низким временем доступа настолько не нужна в серверах, что отказавшись от optane intel сразу объявил о поддержке cxl в следующем поколении процессоров.
Для серверного сегмента за такую надёжность это была хорошая цена. Так им не нужно было тратить деньги на новые SSD, которых за это время пришлось бы купить много, а также на их замену каждый раз.
гхм, что за задачи у вас, что write-intensive nvme приходится постоянно менять? Или вы с дивана рассуждаете?
У них был свой клиент, они хорошо покупались, но в рамках Intel прибыль от этого подразделения незначительна
скорее не прибыль незначительна, а убытки значительны.
я так понимаю, снизить себестоимость производства optane не вышло, что время, как у nand цена за гигабайт постоянно падает; это и убило проект.
Что там искать?
Любая база данных, не помещающаяся в памяти.
Проблема с optane только в том, что его стоимость уже ближе к стоимости dram, чем nand, сейчас глянул в московском магазине — цена за гигабайт у p5800x на порядок (!!!) выше, чем у pm9a3.
А что с надежностью? Не считая багов в прошивке, не помню ни одного серверного накопителя intel с проблемами.
Со скоростью тоже понятно: время случайного чтения в разы лучше, чем у накопителей на nand, случайная запись примерно такая же, в последовательном доступе и синтетике с большой глубиной очереди может быть рекордов не ставит, но вполне прилично.
И температура… а вы хоть раз стояли около стойки с серверами? Гул вентиляторов стоит приличный. И слоты u.2 обычно расположены так, что забор воздуха идёт через них.
Хотя «не найдёшь в свободной продаже» — это вы лишнего написали, ЕМНИП все современные контроллеры у lsi умеют и nvme.
Резервируемая область, slc-кэш — это всё в nand, которая является энергонезависимой.
А plp нужен в первую очередь для защиты данных в dram. И да, там тоже кэш, но только в основном не для данных, а для транслятора. Любая запись на ssd обновляет таблицу транслятора. И если запись синхронная, то накопителю нужно сбросить во флеш не только открытые страницы (скорее всего незаполненные), но и все изменения в трансляторе. Это вызывает жуткий WA.
PLP же на DC накопителях позволяет избавиться от высокого WA при синхронной записи. И только. Но на некоторых нагрузках (например, базы данных) это важно.
Например, на backplane может быть несколько разъёмов minisas hd, часть из которых используется для sas/sata, а часть — для nvme. Ну или tri-state hba, в которых один и тот же порт может работать как в режиме sas, так и в режиме nvme.
Не обязательно.
В стандарте nvme 2.0 упоминаются hdd, о планах выпускать hdd с интерфейсом nvme писали давно.
Теплопроводность меди ≈400, пасты mx-4 ≈8.5. То есть слой пасты толщиной 0.1мм по теплопроводности соответствует слою меди ≈4.7мм.
По мне толстая крышка для массового рынка — это отлично, она улучшает совместимость с кулерами с разными конфигурациями теплых трубок и т.п.
Все нагруженные базы данных, не помещающиеся в оперативную память, выигрывают от низкой латентности.
Я уже писал в соседнем комментарии, проблема даже не в том, что optane дорог, а в том, что он катастрофически дорог. Не так давно считал, терабайт памяти стоит чуть (менее, чем на 5%, по розничным ценам одного из московских магазинов) дороже, чем optane на 1.6ТБ (и если буквоедствовать, то памяти 1ТиБ, а объём optane 1.455ТиБ). Для баз в единицы терабайт очевидно выгоднее докупить памяти. Для баз в десятки/сотни терабайт нужно считать, в каких-то случаях optane и по сегодняшней цене может быть оправдан (за счёт того, что есть недорогие платформы, в которые можно поставить десятки nvme; а вот сотню модулей памяти разве что в какой-нибудь superdome вставишь, только цена вам не понравится), но это прямо-таки исключения.
Ну и да, энергонезависимая память с низким временем доступа настолько не нужна в серверах, что отказавшись от optane intel сразу объявил о поддержке cxl в следующем поколении процессоров.
скорее не прибыль незначительна, а убытки значительны.
я так понимаю, снизить себестоимость производства optane не вышло, что время, как у nand цена за гигабайт постоянно падает; это и убило проект.
Любая база данных, не помещающаяся в памяти.
Проблема с optane только в том, что его стоимость уже ближе к стоимости dram, чем nand, сейчас глянул в московском магазине — цена за гигабайт у p5800x на порядок (!!!) выше, чем у pm9a3.
Со скоростью тоже понятно: время случайного чтения в разы лучше, чем у накопителей на nand, случайная запись примерно такая же, в последовательном доступе и синтетике с большой глубиной очереди может быть рекордов не ставит, но вполне прилично.
И температура… а вы хоть раз стояли около стойки с серверами? Гул вентиляторов стоит приличный. И слоты u.2 обычно расположены так, что забор воздуха идёт через них.
вообще-то optane в виде dimm подороже будет, чем тот же optane, но nvme )
но зачем?
уже понятно, что за vliw нет будущего, пора уже бросить этот чемодан без ручки