Mellanox связала GPU суперкомпьютерных кластеров с помощью FDR InfiniBand, минуя CPU и системную память

Разработка Mellanox использует возможности технологии Nvidia GPUDirect RDMA

Компания Mellanox Technologies на конференции по суперкомпьютерам похвалилась достижением в области взаимодействия нескольких GPU. Речь идет об использовании соединения FDR InfiniBand с поддержкой технологии удаленного прямого доступа к памяти (remote direct memory access, RDMA) Nvidia GPUDirect.

Технология Nvidia GPUDirect дает возможность повысить производительность суперкомпьютерных кластеров, в конфигурацию которых входят ускорители на базе GPU. Она существенно ускоряет обмен между GPU по соединениям «точка-точка», используемым для обмена данными между адаптерами Mellanox HPC и GPU Nvidia.

Это приводит к уменьшению задержки в соединении GPU-GPU и полностью освобождает CPU и подсистему системной памяти от манипуляций по передаче данных между GPU по сети. По словам производителя, на практике зафиксировано уменьшение задержки MPI на 69%, с 19,78 до 6,12 микросекунд; пропускная способность в отношении коротких сообщений утроилась, а в отношении длинных сообщений — увеличилась на 26%.

Пока доступна альфа-версия программного обеспечения MVAPICH2-GDR, включающего указанную функциональность на адаптерах Mellanox ConnectX и Connect-IB. Появление окончательной версии ожидается в четвертом квартале.

Источник: Mellanox

19 июня 2013 в 15:33

Автор:

Все новости за сегодня

Календарь

июнь
Пн
Вт
Ср
Чт
Пт
Сб
Вс