Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Напоминаю, в режиме max str человека в полной амуниции отбрасывало на 10м, а хамви на 1,5-2 метра отшвыривало. Когда тебе в лицо прилетает 1кг со скоростью за 300км/ч мягкость выходит из чата где-то после 40. Т.ч. там уже без разницы курицей или бревном.
То что в ждалкете болванчики мрут от выстрела из гауса в мизинец на ноге не смущает, нормально играется или тоже «труп для дошкольников»?
Эти картонные пальмы, адекватно реагировали на взрывы и «распиливались» пулеметными очередями на бревнышки, которые так-же имели массу, которые можно было взять в руку и метнуть противнику в голову, убив последнего если кинуть в режиме max strength. Здания и предметы имели разрушаемость которой позавидует 99% текущих игр. Не знаю на каком калькулятор вы запускали игру, на топовом железе конца зимы 2007 игралось шикарно.
И если что — курицами до сих пор проверяют бронебойность стекл.
Умеют как, стесняюсь спросить?
RHEV до сих пор не сертифицировался на 4189, а в доступности уже 4677 и 9004 епики.
Citrix, умеет nvme raid1, но не в 10.
HyperV умеет даже в 10, но hotspare только global.
WM не умеет в nvme raid, зато понимает vroc на последней ревизии «из коробки»
В ХР nvme raid1 тоже можно кувалдой забить, только легче от этого не становится.
NVMe-oF мусолят уже года 3 и прогресса 0.
SAS-switch тоже не взлетели, но по меньшей мере у нас есть нормальные реализации sas-expander и кольцевых структур, а nvme до сих пор даже до возможностей sata не добрались по расширению, конфигурированию и доступности узлов для сборки.
LSI на реализации nvme массивов — тот-же vroc, только в профиль, со всеми теми-же ограничениями + парочка своих.
mdadm/zfs/etc работают на уровне гостевой оси, а требуется на уровне аппаратного хоста.
amd в nvme raid не умеет, только в jbod.
Очень криво они в них умеют, тот-же vroc, что и на камнях: с обоих ядер контроллера массив незагрузочный, по 2 диска на каждое ядро в стороке, для 8 nvme по 1 линии на каждый диск только прямое подключение, pci-e экспандеров не сыщешь вообще. RAID 6/50/60 — не, идите в sas за ними.
Только если на камень можно 12 дисков посадить, то на контроллер в составе системы — нет.
Ну химии в ручном варианте уйдет меньше, т.к. жидкие средства это 85% воды, и смывка происходит пенообразователем. В посудомойной химии пенообразователя нет и содержание влаги в таблетки на порядок меньше.
Это вы про двуместный вранглер с мягкой крышей, который на 60 переворачивается из-за высокого центра тяжести и ломает спины сидящим в салоне? Или про Джимни который при 80 мимо пролетевшей фурой сдувает?
Там и есть гарантия, на минимальный iops и линейные, так-же как и на кол-во записи. На функционал внутренних программно-аппаратных модулей ни какой гарантии нет.
Скажу больше, иногда даже заявленный на релизе функционал могут зарезать в очередной прошивке.
А где еще DC используют? Это обычный кеш можно запретить использовать ( и то, условно запретить, т.к. что там в прошивке сказано делать — только производителю и известно)
Притом, что нормальных, аппаратных решений под nvme массивы, как под sas/sata на данный момент нет. Понатыкать их не проблема — линий найдется без особых сложностей, заставить все это работать без костылей — проблема.
До 160 линий 4 версии на 7002 эпиках. По паре линий на накопитель — даже больше, чем на 48 хватит. Линейной все-равно столько не втянешь не через сетевые интерфейсы, не камни не обеспечат такой поток инфы на запись. Случайные и время доступа при полностью забитой очереди будут такие-же как и на pci-e 3x4 дисках.
Есть и будет, кондеры именно для того, чтоб данные из кеша, который по прежнему энергозависимый, не отлетели при пропадании питания. Объема кондеров хватает чтоб записать данные в постоянку, проверить, что записалось, и если что-то не то — записать и проверить еще раз.
А дальше тока софтварный рейд. Нужно много пси — берете пару epyc по 128 линий на камень и у вас есть 2U 48 дисковая платформа, у которой даже еще останется на карты расширения, а вот что делать с массивом и как организовывать отказоустойчивость и загрузку это уже отдельный квест.
То что в ждалкете болванчики мрут от выстрела из гауса в мизинец на ноге не смущает, нормально играется или тоже «труп для дошкольников»?
И если что — курицами до сих пор проверяют бронебойность стекл.
RHEV до сих пор не сертифицировался на 4189, а в доступности уже 4677 и 9004 епики.
Citrix, умеет nvme raid1, но не в 10.
HyperV умеет даже в 10, но hotspare только global.
WM не умеет в nvme raid, зато понимает vroc на последней ревизии «из коробки»
В ХР nvme raid1 тоже можно кувалдой забить, только легче от этого не становится.
NVMe-oF мусолят уже года 3 и прогресса 0.
SAS-switch тоже не взлетели, но по меньшей мере у нас есть нормальные реализации sas-expander и кольцевых структур, а nvme до сих пор даже до возможностей sata не добрались по расширению, конфигурированию и доступности узлов для сборки.
mdadm/zfs/etc работают на уровне гостевой оси, а требуется на уровне аппаратного хоста.
amd в nvme raid не умеет, только в jbod.
Только если на камень можно 12 дисков посадить, то на контроллер в составе системы — нет.
Скажу больше, иногда даже заявленный на релизе функционал могут зарезать в очередной прошивке.