Компания NVIDIA представила набор ПО Magnum IO, которое позволяет исследователям в области ИИ и HPC обрабатывать большие объемы данных за считаные минуты вместо нескольких часов. Magnum IO устраняет узкие места при хранении и передаче данных, ускоряя до 20 раз обработку массивов данных в многосерверных мульти-GPU вычислительных узлах и позволяя быстро выполнять финансовый анализ, моделирование климата и другие HPC-задачи.

Новое решение разработано NVIDIA IO в сотрудничестве с лидерами индустрии в сегменте передачи и хранения данных, включая DataDirect Networks, Excelero, IBM, Mellanox и WekaIO.

В основе Magnum IO лежит технология GPUDirect, позволяющая данным обходить CPU и перемещаться по магистралям, созданным графическими процессорами, накопителями и сетевыми устройствами. GPUDirect совместима с широким спектром интерфейсов и API, включая NVIDIA NVLink и NCCL, а также OpenMPI и UCX, и состоит из одноранговых (peer-to-peer) и RDMA элементов. Новейшим элементом в решении является GPUDirect Storage, позволяющий в обход CPU получать доступ к хранимым файлам для моделирования, анализа и визуализации.

Как комментируют в NVIDIA, в основе всего, что связано с ИИ, лежит обработка больших объемов собранных или смоделированных данных. По мере экспоненциального увеличения объемов и скорости поступления данных их обработка становится одной из крайне затратных задач для ЦОД. Для экстремальных вычислений нужны экстремально быстрые интерфейсы, и именно это обеспечивает ПО Magnum IO, применяя GPU-ускорение, кардинально изменившее вычисления, к передаче и хранению данных.

ПО NVIDIA Magnum IO уже доступно, за исключением GPUDirect Storage, к которому пока открыт только ранний доступ. Широкая доступность GPUDirect Storage запланирована на первое полугодие 2020 г.