В связи с распространением многоядерных компьютерных систем возросла потребность в более мощных межблочных соединениях для крупных серверов и разнообразных хранилищ информации. Многие коммуникационные системы, работающие на скоростях 10–20 Гбит/с, часто уже не способны обеспечить необходимую производительность при обмене данными. В компании Mellanox Technologies, чья деятельность направлена на разработку новых типов межблочной связи, предлагают решение на основе технологии InfiniBand. По оценке экспертов IDC, объем глобального рынка InfiniBand HCA в ближайшие годы будет стремительно расти и достигнет к 2011 г. 780 тыс. единиц готовой продукции (в прошлом году было выпущено менее 20 тыс. таких адаптеров). Стоит отметить, что основанная в 1999 г. Mellanox Technologies — ветеран рынка InfiniBand, ее решения поставляются уже несколько лет, а микросхемы применяются и в InfiniBand-устройствах других фирм. Компания предлагает комплексные решения, включающие коммутаторы и адаптеры для серверных систем, коммуникационного оборудования, а также систем хранения данных и встроенных компонентов. Mellanox Technologies поставила в общей сложности более 200 тыс. портов InfiniBand трех поколений устройств 10 Gb/s InfiniBand, включая семейства InfiniBridge, InfiniScale и InfiniHost. Современные решения Mellanox InfiniBand обеспечивают в несколько раз большую производительность, чем Ethernet.

В прошлом году Mellanox Technologies выпустила двухпортовый адаптер ConnectX IB 40 Gb/s (QDR) InfiniBand Host Channel Adapter (HCA). По словам представителей компании, на момент выпуска это был самый высокопроизводительный в отрасли адаптер для серверов, хранилищ и встраиваемых систем. Новинка превосходила другие стандартные адаптеры для шины PCI Express по скорости обмена и имела меньшее время задержки. Устройства рассчитаны на установку в разъемы PCI Express 2.0, при этом высокая пропускная способность этой шины (5 млрд транзакций в секунду) позволяет достичь скорости двухстороннего обмена в приложениях MPI (Message Passing Interface) на уровне 6460 Мбайт/с (по одному порту с задержкой не более 1 мс).

Mellanox Technologies в своих адаптерах реализовала на аппаратном уровне множественную рассылку (multicast), контроль перегруженности, а также «гранулярное» управление качеством сервиса. ConnectX InfiniBand оборудованы встроенным механизмом обработки трафика TCP/IP, который освобождает от выполнения этой функции центральные процессоры сервера и обеспечивает виртуализацию каналов ввода-вывода, позволяющую гибко управлять соединениями виртуальных машин в кластерах и инфраструктурах SOA. Кроме того, HCA-адаптеры ConnectX поддерживают технологию Virtual Protocol Interconnect (VPI), автоматически определяя, к коммутатору Infiniband или Ethernet они подключены. Способность ConnectX работать напрямую как собственно с Infiniband, так и с Ethernet-инфраструктурой обеспечивает беспрецедентные возможности коммуникаций не только в этих средах, но и с Fibre Channel.

Адаптеры ConnectX InfiniBand позиционируются для использования в серверах, предназначенных для построения корпоративных центров обработки данных (ЦОД), суперкомпьютерных кластеров, grid-структур, высокопроизводительных систем хранения и виртуализованных инфраструктур, а также во встроенных системах.

В феврале 2009 г. Mellanox Technologies предложила для оснащения ЦОД новые шлюзы BridgeX, которые наряду с поддержкой InfiniBand способны обмениваться данными через интерфейсы Ethernet и Fibre Channel со скоростью соответственно 10 и 8 Гбит/с. Благодаря поддержке технологий Fibre Channel over Ethernet (FCoE) и Fibre Channel over InfiniBand (FCoIB), оборудование SAN и NAS теперь можно подключать либо к сети Ethernet с пропускной способностью 10 Гбит/с, либо к коммутатору InfiniBand с пропускной способностью 40 Гбит/с. В частности, в компании полагают, что BridgeX оптимально использовать с блейд-серверами, где он будет работать на пару с 10Gb коммутаторами Ethernet и InfiniBand для связи с сетевым хранилищем SAN по вышеназванным протоколам. Шлюзы BridgeX могут работать совместно с серверными сетевыми адаптерами ConnectX InfiniBand. В результате обеспечивается сочетание возможностей технологии InfiniBand с пропускной способностью 40 Гбит/с и Ethernet с пропускной способностью 10 Гбит/с, а также, например, поддержка виртуализации ввода-вывода на основе ПО VMware. Эксперты IDC особо подчеркивают тот факт, что новое решение позволяет сохранить унаследованные коммутаторы Ethernet и Fibre Channel, используя коммутаторы InfiniBand для построения высокопроизводительных каналов с минимальным временем задержки между серверами и формирования объединенной структуры ввода-вывода.

Модель BridgeX BX4000 была впервые продемонстрирована на конференции VMworld Europe в Каннах. Одними из первых пользователей нового шлюза стали ученые из Национальной лаборатории им. Лоуренса в США.