MCX556A-EDAT ConnectX®-5 Ex VPadapter card, EDR IB 100Gb/s and 100GbE, dual-port QSFP28, PCIe4.0 x16, tall bracket

103125 Р
MCX556A-EDAT
В наличии
+
Отложить

Сетевая карта Mellanox MCX556A-EDAT ConnectX-5 Ex VPI

Высокопроизводительный сетевой адаптер для центров обработки данных и высокопроизводительных вычислений (HPC). Поддерживает работу в режимах InfiniBand EDR и Ethernet 100GbE, обеспечивая максимальную гибкость развертывания и низкие задержки. Предназначен для серверных платформ с поддержкой PCI Express 4.0.

Наименование характеристики Значение Комментарий
Модель адаптера ConnectX-5 Ex Архитектура VPI (Virtual Protocol Interconnect)
Код производителя MCX556A-EDAT Полное наименование для заказа
Скорость интерфейса 100 Гбит/с на порт Максимальная агрегированная пропускная способность 200 Гбит/с
Поддерживаемые протоколы InfiniBand EDR, 100GbE Двойной режим работы (VPI)
Количество портов 2 Двухпортовый адаптер
Тип трансивера QSFP28 Для подключения оптических или медных кабелей
Интерфейс хоста PCI Express 4.0 x16 Обеспечивает достаточную пропускную способность для двух портов 100 Гбит/с
Комплектация Высокий кронштейн (Tall Bracket) Для установки в серверные шасси стандартной высоты
Технологии ускорения RoCE, GPUDirect, NVMe over Fabrics Аппаратное ускорение для задач HPC, AI и хранилищ

Преимущества технологии ConnectX-5 VPI

Архитектура Virtual Protocol Interconnect (VPI) позволяет адаптеру работать как в сетях InfiniBand, так и в сетях Ethernet с одного физического порта. Это обеспечивает инвестиционную защищенность и универсальность. Чип ConnectX-5 оснащен аппаратными механизмами ускорения, такими как технология GPUDirect RDMA для прямого доступа к памяти GPU, что критически важно для приложений искусственного интеллекта и машинного обучения. Поддержка PCIe 4.0 минимизирует задержки и устраняет узкие места на шине.

Особенности модели MCX556A-EDAT

  • Двухпортовая конфигурация с независимым управлением каждым портом в режиме InfiniBand или Ethernet.
  • Полная поддержка стандарта Ethernet 100GBASE-SR4 и других, а также InfiniBand EDR.
  • Аппаратная реализация протоколов RoCE v2 и NVMe over Fabrics для создания высокопроизводительных программно-определяемых хранилищ (SDS).
  • В комплекте поставляется высокий кронштейн, совместимый с большинством серверных корпусов 1U/2U и выше.
  • Оптимизированное энергопотребление и развитые функции управления потоком данных.

Совет по использованию

Для достижения максимальной производительности в режиме 100GbE рекомендуется использовать сетевое оборудование, поддерживающее технологию RoCE (RDMA over Converged Ethernet) и соответствующую настройку сети для обеспечения потери пакетов (Lossless Ethernet). При построении кластеров HPC на базе InfiniBand обязательна установка совместимых драйверов и ПО управления от Mellanox (ныне NVIDIA). Перед развертыванием проверьте совместимость версии прошивки адаптера с целевой операционной системой и серверной платформой.