Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Да, есть такая «особенность», что обычно публикуют цифры на таких конфигурациях, которые редко кто по факту использовать будет. Но вот те же SAS SSD были бы интересны с точки зрения SAS 12 Гбит/с.
Должен появиться HBA достаточно свежий. Можно будет попробовать. Все-таки использовать тот же 81605 в таком режиме несколько странно, хотя и возможно. И чем собирать RAID потом и под какой ОС?
Софт у этого продукта настолько странный (в том числе и реализация ONVIF), что я бы ни на что не рассчитывал, кроме трансляции картинки.Определение движения можно попробовать сделать на стороне видеорегистратора.
Ну это не серьезно… сравнивать цифры реальных тестов с «должны» и спецификациями от производителя :)
В статье по ссылке нет конфигурации из большого числа дисков.
Кроме того, замечу, что в обсуждаемом тесте использовался бекплейн SAS1, что тоже сказалось на результатах. Сейчас нашел SAS диски (хотя и не очень свежие) и SAS3 бекплейн.
Про процессор — нужны цифры. Да, конечно все работает на нем, но формально даже у X3430 память на 21 ГБ/с и DMI на 2,5 ГТ/с. Так что не очень понятно, как и насколько может влиять частота ядер в данном случае.
Кстати, еще бывает, что скорость лимитирует ЦП (несмотря на «аппаратный» RAID) — операции с диском идут на одном ядре, и если оно слабо по частоте, то это может влиять
Какие операции с диском идут на процессоре? Есть конкретные примеры? Сравнивал несколько Xeon, существенной разницы не заметил. Тут скорее может играть роль шина PCIe и правильное распределение прерываний от контроллера.
И еще: помимо random на 4K стоит добавить и Random на 64K (популярный размер блоков у многих приложений — по 4K пишут-читают только динозавры).
М… ну в общем случае хорошо бы конечно разные блоки смотреть, но вопрос выбора наиболее популярных размеров непростой. И надо еще учитывать, что между блочным устройством и приложениями есть еще файловая система. И тут тоже все очень непросто.
diskpart в Windows, на мой взгляд, меньше данных дает. Можно попробовать ориентироваться на номер устройства на контроллере (в «Конечный объект: 1» или «Путь к расположению: PCIROOT(0)#PCI(0600)#PCI(0000)#RAID(P04T01L00)», но хотелось бы более определенного идентификатора. А название тома здесь не показывается.
Да, конечно. Но это никак не связано с ОС. Да и посмотреть какие конкретно отсеки используются для тома можно через софт контроллера. Тут задача была именно соотнести том на контроллере и том в операционной системе.
Насколько я понимаю, Hitachi это только полка. SuperStorage на 48 3.5'' не встречал. Но в этой линейке хотя бы уже сервер можно собрать. И какие конфигурации массивов и какие контроллеры под такие объемы используются?
Именно 50-й, а почему не 60-й? Страшилки про большие диски в пятом и к 50-му относятся, если дисков в группе много.
И в чем смысл «тестировать» в «нерабочей» конфигурации 24 диска в RAID5?
По вашему опыту операция ребилда более «тяжелая», чем можно было бы нагрузить массив синтетикой? Или там одновременно с ребилдом еще что-то запускается? И в чем смысл для задачи «протестировать» использовать ребилд не на максимальном приоритете? И в итоге какие конифигурации собираются из дисков такого объема?
15 SATA 7200 RPM дисков 8 ТБ в RAID6 на 7-м Adaptec с приоритетом задач High — восстановление на HotSpare за 29 часов. Правда он после установки нового диска еще решил CopyBack делать. И потратил на это два с половиной дня :)
надеюсь, что никто не интересуется. Кроме того, некоторые современные контроллеры не дают больше 16-ти дисков ставить в RAID5/6.
Нагрузка всегда может быть высокой. Не думаю, что для дисков критична разница между «работа в штатном режиме» и «восстановление четности».
Не вопрос, что с 10-м спокойнее. Но стоимость…
Думаю что в этом случае можно получить рост в случайной записи от замены контроллера на более современный. На случайном чтении результаты мало от контроллера зависят. Хотя тут конечно вопрос все-таки не в показателях «сырого тома», а в работе с файлами. И это уже немного другая история.
Не просто «должен», а именно так и делает. Причем можно иметь несколько дисков в RAID, а несколько в RAW одновременно.Просто все сразу в одной статье не перетестировать.
В статье по ссылке нет конфигурации из большого числа дисков.
Кроме того, замечу, что в обсуждаемом тесте использовался бекплейн SAS1, что тоже сказалось на результатах. Сейчас нашел SAS диски (хотя и не очень свежие) и SAS3 бекплейн.
Про процессор — нужны цифры. Да, конечно все работает на нем, но формально даже у X3430 память на 21 ГБ/с и DMI на 2,5 ГТ/с. Так что не очень понятно, как и насколько может влиять частота ядер в данном случае.
Ответ Alex Karabuto на комментарий
— конкретные цифры есть?
Ответ Alex Karabuto на комментарий
Какие операции с диском идут на процессоре? Есть конкретные примеры? Сравнивал несколько Xeon, существенной разницы не заметил. Тут скорее может играть роль шина PCIe и правильное распределение прерываний от контроллера.
Ответ Alex Karabuto на комментарий
М… ну в общем случае хорошо бы конечно разные блоки смотреть, но вопрос выбора наиболее популярных размеров непростой. И надо еще учитывать, что между блочным устройством и приложениями есть еще файловая система. И тут тоже все очень непросто.
И в чем смысл «тестировать» в «нерабочей» конфигурации 24 диска в RAID5?
Нагрузка всегда может быть высокой. Не думаю, что для дисков критична разница между «работа в штатном режиме» и «восстановление четности».
Не вопрос, что с 10-м спокойнее. Но стоимость…