Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
В английским с этим проще — обычно говорят/пишут «latest launch» (а не «last launch») и всем понятно, что это именно последний в серии/на данный момент, а не то, что вообще совсем последний и больше их уже не будет.
C псевдоSLC угадали, впрочем как и большинство тут. Тут было не сложно совсем.
Но контроллером немного промахнулись. Как и с памятью уже сильнее. На TechPowerup интригу развеяли:
https://www.techpowerup.com/ssd-specs/gigabyte-ai-top-100e-2-tb.d2051
Контроллер Phison PS5018-E18, не самый свежий.
Память Kioxia BiCS5 HDR 112-layer переведенная в pSLC режим + выставленный высокий overprovisioning в 43%.
По ценам пока официальной информации нет, но думаю будет весьма и весьма дорого, раза так в 4 дороже обычных TLC накопителей приличного качества. Оно даже по себестоимости производства почти в 3 раза дороже TLC будет обходиться: просто за счет перевода в pSLC режим всей памяти + большого резерва под OP физически ячеек памяти нужно в с 3 с лишним раза больше использовать на тот же доступный пользователю объем по сравнению с обычным TLC диском. Ну контроллер и DRAM-кэш обычные в обычном количестве, но в таких объемных дисках на них небольшая часть себестоимости приходится, это в «мелкой таре» они существенно влияют. Так что себестоимость где-то 2.5-3х
+ «наценка за эксклюзив» от маркетологов сверху. Куда же без нее, по крайней мере в начале.
Маркетологи не причем (в данном случае). Косяк тут в местной новости, 2 ТБ/с вместо 2 ГБ/с ляпнули. Видимо глядя на 2 ТБ емкости машинально и 2 ТБ/с написал автор.
В первоисточнике все нормально.
Для обычного домашнего или офисного использования — определенно проще и выгоднее именно так и делать. Собственно поэтому подавляющее большинство «бытовых» (для дома/игр/офиса) SSD и делают на TLC или вообще даже на QLC памяти. Т.к. обычный потребитель предпочитает больше объема (или же меньше цену) высоким надежности и ресурсу. И в общем правильно делает — т.к. для конкретно своих задач и целей и этого хватает (обычно даже с «запасом»).
Но речь тут о специальных применениях, в частности для работы с и обучения больших нейронных моделей, когда из-за их объема (а они чем больше, тем «умнее») они не помещаются полностью в оперативной памяти и SSD используется как замена(дополнение) оперативке. Аналогично постоянному активному свопу на диск при нехватке памяти, только не короткими моментами, а постоянно как нормальный рабочий режим. Ну и не через своп ОС, а прямо через алгоритмы прикладного ПО.
Ну и в сервера под БД такие можно поставить. Но конкретно этот Gigabyte выкатила не для серверов, а в рамках комплекта железа для мощных рабочих станций для работы на них с большими нейросетевыми моделями.
В таком режиме, если взять обычный быстрый SSD, скажем далеко не самый дешманский Samsung 970 EVO на те же 2 ТБ объема. Или даже еще более дорогой Samsung 990 Pro. То в режиме постоянной записи 1 ГБ/с (что по скорости записи они вполне могут обеспечить в длительном режиме) они «кончатся» по гарантированному ресурсу на запись не через 2-3 года, а всего буквально через 2-3 недели активной работы (по 1200 ТБ ресурса записи у обоих для 2 ТБ моделей).
И вот тут уже чем условно бегать каждый месяц-два за новым недешевым SSD проще (и в разы выгоднее!) купить один вот такой «неубиваемый». И заплатив за него пусть и в несколько раз больше, но зато заплатить один раз и пользоваться им спокойно минимум несколько лет не меняя.
Потому что ячеек (физических) просто закладывается в 3 раза больше. Речь не о динамически выделяемом pSLC-кэше в работе TLC диска, когда часть ячеек временно переводится в другой режим работы для ускорения записи(а потом возвращается обратно в TLC режим фоновом режиме, когда нагрузки нет с неизбежной повторной перезаписью всей информации уже в другом режиме).
А именно об отдельной модели диска, который весь изначально работает в pSLC режиме. Естественно для обеспечения заявленного объема ему нужно в 3 раза больше физических ячеек и за счет этого такие модели намного дороже. В серверах такие решения уже встречались раньше. Особенно когда производители испугались (как оказалось по большей части — зря) конкуренции со стороны Intel Optane. Выкатили модели на pSLC в качестве «ответа» ему.
Потом правда когда стало ясно, что пугались в общем зря — то тихому, не привлекая внимания свернули их производство и продажи…
Получается, последние годы только так и делают, в т.ч. для серверов.
Перевод в псевдо-SLC режим не только во много раз (относительно TLC) ресурс по записи увеличивает, но и сроки сохранности данных тоже! Т.к. хотя физически скорость утечки электрического заряда из ячеек особо и не меняется (физически память та же самая, хотя тоже немного меньше «течет» за счет более щадящих режимов работы), но в разы увеличивается «расстояние» между уровнями заряда в ячейквх которые нужно различать для успешного считывания данных.
В TLC режиме это 8 разных уровней, которые надо уверенно различать друг от друга. А в pSLC как и в обычной SLC — всего 2 (есть заряд/нет заряда). Поэтому данные читаемы вплоть до момента пока вообще почти весь заряд из ячейки не утек (когда 1 уже сложно становится отличить от 0). В TLC же они перестают читаться намного раньше — когда из-за разной скорости утечки в разных ячейках начинают смешиваться соседние уровни.
Но и не серверный/энтерпрайз!
Это то, что раньше называли «просьюмерский» (от pro и consumer).
Если посмотреть, что там на презентации показывали помимо SSD, то это все не серверный комплект железа, а для мощных профессиональных(или «энтузиастов») рабочих станций под работу с большими ИИ моделями. Ну или любыми другими объемными данными
Материнки под 1 процессор из семейства Threadripper + поддержка больших объемов регистровой памяти и до 4х видеокарт и 4х скоростных SSD в одном системнике.
P.S.
А если без шуток, то во время мощной грозы (являющейся натуральным аналогом ЭМИ-ударов) сетевые порты могут выгорать от наведенных мощном ударом молнии в длинных Ethernet-кабелях высоковольтных импульсов не только в воздушных линиях между домами, а на любом более-менее длинном куске кабеля.
У меня дома за последние годы сетевые порты уже трижды так горели в сильные грозы, когда хорошая молния попадала даже не в мой дом непосредственно, а всего лишь в громоотвод соседнего (метров 100-150 до него) здания. Яркая вспышка, тут же просто оглушительный грохот, звенящие стекла, сработавшие сигналки на машинах на улице и… пропавший надолго интернет!
Хотя никаких воздушек нет, в дом приходит оптика, к тому же под землей. Но! Пара десятков метров Ethernet кабеля от моей квартиры идут по сначала по «стояку» и дальше по чердаку до соседнего подъезда, где стоит домовой роутер провайдера на который приходит магистральная оптика.
Я правда теперь в качестве защиты из разряда «дешево и сердито» использую просто дополнительный простейший дешевый и «тупой»(неуправляемый) свитч на входе в квартиру купленный когда-то за ~1к рублей. Последний раз пару лет назад он уже спас мое сетевое оборудование — входящий порт на нем выгорел, все остальное осталось цело. Забавно, что сам свитч тоже остался рабочим — выгорел именно один порт (из 5), остальные нормально работают. Поэтому я просто перевоткнул кабель(он кстати залип в порту! видимо разрядом «приварился» немного даже, по крайней мере выдирать с силой его прошлось) в соседний рабочий порт и все дальше так и работает.
Это был 3й раз. В самый первый, более 10 лет назад выбило порт на материнке и пришлось покупать и ставить отдельную сетевушку (чтобы довольно новую материнку не менять и весь комп не пересобирать). В те времена комп был один и кабель сразу шел в него. Во 2й раз, лет 5 назад примерно сгорел домашний роутер и пришлось покупать новый.
К 3му я уже был готов и подсунул под удар дешевый свитч, который не жалко :)
Не, воздушки конечно не актуальны. По крайней мене не для таких системы и не для скоростей в 10 Гбит/с на которых воздушка просто не заработает.
Это же защита от ЭМИ-оружия! Внутренности системника от него неплохо металлическим корпусом защищены, а вот по любым проложенным снаружи проводам может «прилететь».
Уже готовятся со скайнетом воевать. Ну или наоборот ему защиту подогнать.
Это смотря кто больше заплатит :)
Да, определенно запал.
Только не при печати оригинального пресс-релиза — такие заявленные характеристики надежности/выносливости в принципе вполне возможны для дорогих моделей серверного класса, где используют наиболее качественную флэш-память и используют при этом ее в SLC режиме. Т.е. 1 бит (=2 разных уровня записи) на ячейку, вместо TLC (3 бита/8 уровней) или QLC (4 бита/16 уровней) в потребительских девайсах.
А при составлении местной новости на Хоботе нули лишние набежали. Новостник iXBT аж на 3 с лишним порядка (3 лишних нуля) ошибся:
Пять лет по 17 часов в день беспрерывной записи данных на скорости 2 ТБ/с дают:
5*365*17*60*60*2 = 223 380 000 ТБ записанной на диск информации.
Заявленный же производителем ресурс «всего» 219 000 TBW, т.е. в 1000 с лишним раз меньше. И он кончился бы уже на 2й день работы в таком режиме.
Правда с учетом того, что скорость в 2 ТБ/с и близко недостижимы даже в теории (пиковая скорость самой быстрой линейной записи тут до 6 ГБ/с примерно), то это просто опечатка и имелось ввиду запись на средней скорости 2 ГБ/с вместо 2 ТБ/с.
Тогда да, действительно можно 5 лет почти по 17 часов ежедневно по 2 ГБ/с писать до исчерпания гарантийного ресурса.
И не только кухни. Я в такой родился и вырос — во всем доме (и всех в оруге таких 5-этажек в Петербурге сотни 1в1 по одному проекту) кроме кухни 5.5 м3, еще и санузел (совмещенный!) в 2.3 м2, прихожая 2м2 и одна из комнат (спальня) тоже около 5м2. Потом как смогли разъехаться она сразу в разряд кладовки из комнаты была разжалована…
Это уже было в Симпсонах «Пятом элементе» — когда они на космический лайнер загружаются. Все упаковываются по расположенным во много ярусов ящикам-ячейкам, а чтобы не было недовольства пассажиров от длительного лежания в неудобном тесном ящике сразу после размещения пассажиров и взлета суда в ячейки подается наркоз до момента прилета в пункт назначения…
А чтобы не задохнулись лежа Х часов утрамбованными в штабель, так и быть будем выдавать перед укладкой кислородные маски для подвода кислорода для дыхания.
P.S.
Где моя премия за «гуманизм»?
Ну это если сбой датчика температуры выглядит именно как отвал (обрыв) с полным отсутствием показаний. Он ведь может и по другому дохнуть — начать например выдавать совершенно левые значения, например процессор уже за 100гр ушел, скоро задымится, а датчик продолжает выдавать +30-50гр.
Материнка такая — опа? у нас же процессор совсем холодный (что конечно странно с учетом большущей мощности идущей на него, но вдруг там юзера фреонка? или он его азотом поливает?), а юзвер разрешил разгон, давайка я еще напряжения подкину!
P.S.
Вспомнил, что у меня кстати такое в реале было, правда в обратную сторону датчики подгоревшие переклинило и не на процессоре, а видеокарте старой. После многих лет работы, в какой-то момент что-то подгорело в области питальника, искра, щелчок, небольшой дымок и аварийное отключение от БП компа по КЗ или перегрузке. Открыл, внимательно осмотрел карту — выяснилось пара самых мелких SMD элементов (резисторов или кондеров — ХЗ, они же мелкие всего порядка 1х2 мм и никакой маркировки) выгорела и лак вокруг них обуглился. Думал, ну все карту в утиль придется отправить. Но смахнул обуглившиеся остатки этих элементов, на удачу включил — и оказывается карта работает! И даже тест на стабильность проходит. Единственное что изменилось — весь аппаратный мониторинг начал безбожно врать, выдавал и левые показатели напряжения на ядре (несколько вольт, вместо 1.хх), и сильно завышал температуру, в районе 120-130гр показывал, хотя в реальности там только 65-80гр было. Но благо карта старая, еще без всяких автобустов, автовольтажа и саморазгонов, работала на фиксированном напряжении и частоте. Еще почти 2 года потом нормально отработала с датчиками показывающими «погоду на Марсе».
Просто L3 кэш (а так же встроенный в процессор контроллер памяти и PCE-E) как раз и считаются SoC и запитывается его напряжением. То что раньше называлось unCore — физически часть процессора, но не относящаяся ни к одному его ядру и логически вообще процессором не являющаяся.
А точно не сбылось? Если и не сбылось, то где-то близко, вероятно в этом году.
TCO же это не стоимость устройства, и даже не «цена за 1 ТБ емкости».
Это общие расходы за весь срок эксплуатации диска в пересчете на 1 ТБ*год. Причем там конкретно речь шла для серверов/дата центров работающих 24/7.
А тут SSD дают дополнительную окупаемость за счет того, что потребляют меньше энергии и сами и на кондиционирование помещений и подводимые электрические мощности к ним. И удешевление стоек (с HDD там непростые конструкции призванные бороться с вибрациями и резонсами от десятков быстро вращающихся рядом с друг другом тяжеленьких пакетов блинов связанных механически друг с другом через общий корпус). Под SSD же годятся любые самые простейшие и дешевые стойки.
Конкретно по цене 1 ТБ емкости отдельно они там еще прогнозировали что она в 2022м будет оставаться еще почти в 4 раза выше у SSD против HDD и даже к в 2025м году прогнозируют, что остается еще минимум 2х кратной.
Но контроллером немного промахнулись. Как и с памятью уже сильнее. На TechPowerup интригу развеяли:
https://www.techpowerup.com/ssd-specs/gigabyte-ai-top-100e-2-tb.d2051
Контроллер Phison PS5018-E18, не самый свежий.
Память Kioxia BiCS5 HDR 112-layer переведенная в pSLC режим + выставленный высокий overprovisioning в 43%.
По ценам пока официальной информации нет, но думаю будет весьма и весьма дорого, раза так в 4 дороже обычных TLC накопителей приличного качества. Оно даже по себестоимости производства почти в 3 раза дороже TLC будет обходиться: просто за счет перевода в pSLC режим всей памяти + большого резерва под OP физически ячеек памяти нужно в с 3 с лишним раза больше использовать на тот же доступный пользователю объем по сравнению с обычным TLC диском. Ну контроллер и DRAM-кэш обычные в обычном количестве, но в таких объемных дисках на них небольшая часть себестоимости приходится, это в «мелкой таре» они существенно влияют. Так что себестоимость где-то 2.5-3х
+ «наценка за эксклюзив» от маркетологов сверху. Куда же без нее, по крайней мере в начале.
В первоисточнике все нормально.
Но речь тут о специальных применениях, в частности для работы с и обучения больших нейронных моделей, когда из-за их объема (а они чем больше, тем «умнее») они не помещаются полностью в оперативной памяти и SSD используется как замена(дополнение) оперативке. Аналогично постоянному активному свопу на диск при нехватке памяти, только не короткими моментами, а постоянно как нормальный рабочий режим. Ну и не через своп ОС, а прямо через алгоритмы прикладного ПО.
Ну и в сервера под БД такие можно поставить. Но конкретно этот Gigabyte выкатила не для серверов, а в рамках комплекта железа для мощных рабочих станций для работы на них с большими нейросетевыми моделями.
В таком режиме, если взять обычный быстрый SSD, скажем далеко не самый дешманский Samsung 970 EVO на те же 2 ТБ объема. Или даже еще более дорогой Samsung 990 Pro. То в режиме постоянной записи 1 ГБ/с (что по скорости записи они вполне могут обеспечить в длительном режиме) они «кончатся» по гарантированному ресурсу на запись не через 2-3 года, а всего буквально через 2-3 недели активной работы (по 1200 ТБ ресурса записи у обоих для 2 ТБ моделей).
И вот тут уже чем условно бегать каждый месяц-два за новым недешевым SSD проще (и в разы выгоднее!) купить один вот такой «неубиваемый». И заплатив за него пусть и в несколько раз больше, но зато заплатить один раз и пользоваться им спокойно минимум несколько лет не меняя.
А именно об отдельной модели диска, который весь изначально работает в pSLC режиме. Естественно для обеспечения заявленного объема ему нужно в 3 раза больше физических ячеек и за счет этого такие модели намного дороже. В серверах такие решения уже встречались раньше. Особенно когда производители испугались (как оказалось по большей части — зря) конкуренции со стороны Intel Optane. Выкатили модели на pSLC в качестве «ответа» ему.
Потом правда когда стало ясно, что пугались в общем зря — то тихому, не привлекая внимания свернули их производство и продажи…
Перевод в псевдо-SLC режим не только во много раз (относительно TLC) ресурс по записи увеличивает, но и сроки сохранности данных тоже! Т.к. хотя физически скорость утечки электрического заряда из ячеек особо и не меняется (физически память та же самая, хотя тоже немного меньше «течет» за счет более щадящих режимов работы), но в разы увеличивается «расстояние» между уровнями заряда в ячейквх которые нужно различать для успешного считывания данных.
В TLC режиме это 8 разных уровней, которые надо уверенно различать друг от друга. А в pSLC как и в обычной SLC — всего 2 (есть заряд/нет заряда). Поэтому данные читаемы вплоть до момента пока вообще почти весь заряд из ячейки не утек (когда 1 уже сложно становится отличить от 0). В TLC же они перестают читаться намного раньше — когда из-за разной скорости утечки в разных ячейках начинают смешиваться соседние уровни.
Это то, что раньше называли «просьюмерский» (от pro и consumer).
Если посмотреть, что там на презентации показывали помимо SSD, то это все не серверный комплект железа, а для мощных профессиональных(или «энтузиастов») рабочих станций под работу с большими ИИ моделями. Ну или любыми другими объемными данными
Материнки под 1 процессор из семейства Threadripper + поддержка больших объемов регистровой памяти и до 4х видеокарт и 4х скоростных SSD в одном системнике.
А если без шуток, то во время мощной грозы (являющейся натуральным аналогом ЭМИ-ударов) сетевые порты могут выгорать от наведенных мощном ударом молнии в длинных Ethernet-кабелях высоковольтных импульсов не только в воздушных линиях между домами, а на любом более-менее длинном куске кабеля.
У меня дома за последние годы сетевые порты уже трижды так горели в сильные грозы, когда хорошая молния попадала даже не в мой дом непосредственно, а всего лишь в громоотвод соседнего (метров 100-150 до него) здания. Яркая вспышка, тут же просто оглушительный грохот, звенящие стекла, сработавшие сигналки на машинах на улице и… пропавший надолго интернет!
Хотя никаких воздушек нет, в дом приходит оптика, к тому же под землей. Но! Пара десятков метров Ethernet кабеля от моей квартиры идут по сначала по «стояку» и дальше по чердаку до соседнего подъезда, где стоит домовой роутер провайдера на который приходит магистральная оптика.
Я правда теперь в качестве защиты из разряда «дешево и сердито» использую просто дополнительный простейший дешевый и «тупой»(неуправляемый) свитч на входе в квартиру купленный когда-то за ~1к рублей. Последний раз пару лет назад он уже спас мое сетевое оборудование — входящий порт на нем выгорел, все остальное осталось цело. Забавно, что сам свитч тоже остался рабочим — выгорел именно один порт (из 5), остальные нормально работают. Поэтому я просто перевоткнул кабель(он кстати залип в порту! видимо разрядом «приварился» немного даже, по крайней мере выдирать с силой его прошлось) в соседний рабочий порт и все дальше так и работает.
Это был 3й раз. В самый первый, более 10 лет назад выбило порт на материнке и пришлось покупать и ставить отдельную сетевушку (чтобы довольно новую материнку не менять и весь комп не пересобирать). В те времена комп был один и кабель сразу шел в него. Во 2й раз, лет 5 назад примерно сгорел домашний роутер и пришлось покупать новый.
К 3му я уже был готов и подсунул под удар дешевый свитч, который не жалко :)
Это же защита от ЭМИ-оружия! Внутренности системника от него неплохо металлическим корпусом защищены, а вот по любым проложенным снаружи проводам может «прилететь».
Уже готовятся со скайнетом воевать. Ну или наоборот ему защиту подогнать.
Это смотря кто больше заплатит :)
Только не при печати оригинального пресс-релиза — такие заявленные характеристики надежности/выносливости в принципе вполне возможны для дорогих моделей серверного класса, где используют наиболее качественную флэш-память и используют при этом ее в SLC режиме. Т.е. 1 бит (=2 разных уровня записи) на ячейку, вместо TLC (3 бита/8 уровней) или QLC (4 бита/16 уровней) в потребительских девайсах.
А при составлении местной новости на Хоботе нули лишние набежали. Новостник iXBT аж на 3 с лишним порядка (3 лишних нуля) ошибся:
Пять лет по 17 часов в день беспрерывной записи данных на скорости 2 ТБ/с дают:
5*365*17*60*60*2 = 223 380 000 ТБ записанной на диск информации.
Заявленный же производителем ресурс «всего» 219 000 TBW, т.е. в 1000 с лишним раз меньше. И он кончился бы уже на 2й день работы в таком режиме.
Правда с учетом того, что скорость в 2 ТБ/с и близко недостижимы даже в теории (пиковая скорость самой быстрой линейной записи тут до 6 ГБ/с примерно), то это просто опечатка и имелось ввиду запись на средней скорости 2 ГБ/с вместо 2 ТБ/с.
Тогда да, действительно можно 5 лет почти по 17 часов ежедневно по 2 ГБ/с писать до исчерпания гарантийного ресурса.
У верхних пассажиров, в качестве расплаты за доступ к свежему воздуху (в отличии от нижесидях).
Симпсонах«Пятом элементе» — когда они на космический лайнер загружаются. Все упаковываются по расположенным во много ярусов ящикам-ячейкам, а чтобы не было недовольства пассажиров от длительного лежания в неудобном тесном ящике сразу после размещения пассажиров и взлета суда в ячейки подается наркоз до момента прилета в пункт назначения…P.S.
Где моя премия за «гуманизм»?
Материнка такая — опа? у нас же процессор совсем холодный (что конечно странно с учетом большущей мощности идущей на него, но вдруг там юзера фреонка? или он его азотом поливает?), а юзвер разрешил разгон, давайка я еще напряжения подкину!
P.S.
Вспомнил, что у меня кстати такое в реале было, правда в обратную сторону датчики подгоревшие переклинило и не на процессоре, а видеокарте старой. После многих лет работы, в какой-то момент что-то подгорело в области питальника, искра, щелчок, небольшой дымок и аварийное отключение от БП компа по КЗ или перегрузке. Открыл, внимательно осмотрел карту — выяснилось пара самых мелких SMD элементов (резисторов или кондеров — ХЗ, они же мелкие всего порядка 1х2 мм и никакой маркировки) выгорела и лак вокруг них обуглился. Думал, ну все карту в утиль придется отправить. Но смахнул обуглившиеся остатки этих элементов, на удачу включил — и оказывается карта работает! И даже тест на стабильность проходит. Единственное что изменилось — весь аппаратный мониторинг начал безбожно врать, выдавал и левые показатели напряжения на ядре (несколько вольт, вместо 1.хх), и сильно завышал температуру, в районе 120-130гр показывал, хотя в реальности там только 65-80гр было. Но благо карта старая, еще без всяких автобустов, автовольтажа и саморазгонов, работала на фиксированном напряжении и частоте. Еще почти 2 года потом нормально отработала с датчиками показывающими «погоду на Марсе».
TCO же это не стоимость устройства, и даже не «цена за 1 ТБ емкости».
Это общие расходы за весь срок эксплуатации диска в пересчете на 1 ТБ*год. Причем там конкретно речь шла для серверов/дата центров работающих 24/7.
А тут SSD дают дополнительную окупаемость за счет того, что потребляют меньше энергии и сами и на кондиционирование помещений и подводимые электрические мощности к ним. И удешевление стоек (с HDD там непростые конструкции призванные бороться с вибрациями и резонсами от десятков быстро вращающихся рядом с друг другом тяжеленьких пакетов блинов связанных механически друг с другом через общий корпус). Под SSD же годятся любые самые простейшие и дешевые стойки.
Конкретно по цене 1 ТБ емкости отдельно они там еще прогнозировали что она в 2022м будет оставаться еще почти в 4 раза выше у SSD против HDD и даже к в 2025м году прогнозируют, что остается еще минимум 2х кратной.