Сетевая карта Mellanox MCX556A-EDAT ConnectX-5 Ex VPI
Высокопроизводительный сетевой адаптер для центров обработки данных и высокопроизводительных вычислений (HPC). Поддерживает работу в режимах InfiniBand EDR и Ethernet 100GbE, обеспечивая максимальную гибкость развертывания и низкие задержки. Предназначен для серверных платформ с поддержкой PCI Express 4.0.
| Наименование характеристики | Значение | Комментарий |
| Модель адаптера | ConnectX-5 Ex | Архитектура VPI (Virtual Protocol Interconnect) |
| Код производителя | MCX556A-EDAT | Полное наименование для заказа |
| Скорость интерфейса | 100 Гбит/с на порт | Максимальная агрегированная пропускная способность 200 Гбит/с |
| Поддерживаемые протоколы | InfiniBand EDR, 100GbE | Двойной режим работы (VPI) |
| Количество портов | 2 | Двухпортовый адаптер |
| Тип трансивера | QSFP28 | Для подключения оптических или медных кабелей |
| Интерфейс хоста | PCI Express 4.0 x16 | Обеспечивает достаточную пропускную способность для двух портов 100 Гбит/с |
| Комплектация | Высокий кронштейн (Tall Bracket) | Для установки в серверные шасси стандартной высоты |
| Технологии ускорения | RoCE, GPUDirect, NVMe over Fabrics | Аппаратное ускорение для задач HPC, AI и хранилищ |
Преимущества технологии ConnectX-5 VPI
Архитектура Virtual Protocol Interconnect (VPI) позволяет адаптеру работать как в сетях InfiniBand, так и в сетях Ethernet с одного физического порта. Это обеспечивает инвестиционную защищенность и универсальность. Чип ConnectX-5 оснащен аппаратными механизмами ускорения, такими как технология GPUDirect RDMA для прямого доступа к памяти GPU, что критически важно для приложений искусственного интеллекта и машинного обучения. Поддержка PCIe 4.0 минимизирует задержки и устраняет узкие места на шине.
Особенности модели MCX556A-EDAT
- Двухпортовая конфигурация с независимым управлением каждым портом в режиме InfiniBand или Ethernet.
- Полная поддержка стандарта Ethernet 100GBASE-SR4 и других, а также InfiniBand EDR.
- Аппаратная реализация протоколов RoCE v2 и NVMe over Fabrics для создания высокопроизводительных программно-определяемых хранилищ (SDS).
- В комплекте поставляется высокий кронштейн, совместимый с большинством серверных корпусов 1U/2U и выше.
- Оптимизированное энергопотребление и развитые функции управления потоком данных.
Совет по использованию
Для достижения максимальной производительности в режиме 100GbE рекомендуется использовать сетевое оборудование, поддерживающее технологию RoCE (RDMA over Converged Ethernet) и соответствующую настройку сети для обеспечения потери пакетов (Lossless Ethernet). При построении кластеров HPC на базе InfiniBand обязательна установка совместимых драйверов и ПО управления от Mellanox (ныне NVIDIA). Перед развертыванием проверьте совместимость версии прошивки адаптера с целевой операционной системой и серверной платформой.