Сетевая карта Mellanox ConnectX-6 HDR100/100GbE QSFP56 2-Port PCIe VPI, 100GbE Pci Express 4.0 X16
Код производителя: 01PG721. Предназначена для высокопроизводительных вычислений (HPC), центров обработки данных, систем хранения данных и машинного обучения, где критичны минимальные задержки и высокая пропускная способность.
Основные технические характеристики
| Наименование характеристики | Значение | Комментарий |
|---|---|---|
| Код производителя | 01PG721 | Уникальный идентификатор продукта |
| Интерфейс подключения | PCI Express 4.0 x16 | Обеспечивает высокую пропускную способность шины для передачи данных без узких мест |
| Скорость порта | 100 Гбит/с на порт | Поддерживает стандарты InfiniBand HDR100 и Ethernet 100GbE |
| Количество портов | 2 | Два независимых порта QSFP56 для построения отказоустойчивых или агрегированных соединений |
| Тип трансивера | QSFP56 | Форм-фактор, предназначенный для скоростей 100 и 200 Гбит/с, обеспечивает обратную совместимость с QSFP28 |
| Поддерживаемые протоколы | VPI (Virtual Protocol Interconnect) | Позволяет адаптеру работать как в сетях InfiniBand HDR, так и в сетях Ethernet (100GbE) на одном аппаратном уровне |
| Пропускная способность | До 200 Гбит/с (агрегированная) | Суммарная пропускная способность при одновременной загрузке двух портов |
| Задержка (латентность) | Крайне низкая | Оптимизирована для задач HPC, финансовых транзакций и других приложений, чувствительных к задержкам |
| Поддержка технологий | RDMA, RoCE, SR-IOV, NVMe over Fabrics | Ключевые функции для современных ЦОД и ускорения приложений |
Преимущества технологий и особенности модели
- Технология VPI (Virtual Protocol Interconnect): Обеспечивает гибкость развертывания, позволяя выбирать между высокопроизводительной сетью InfiniBand и универсальным Ethernet на одном и том же адаптере, что снижает затраты на инфраструктуру.
- RDMA (Remote Direct Memory Access) и RoCE (RDMA over Converged Ethernet): Позволяют приложениям напрямую обращаться к памяти удаленного узла, минуя CPU и операционную систему. Это резко снижает задержку и нагрузку на процессор, что критически важно для HPC, машинного обучения и систем хранения.
- SR-IOV (Single Root I/O Virtualization): Создает несколько виртуальных интерфейсов на одном физическом адаптере, обеспечивая изолированное и производительное сетевое подключение для виртуальных машин без потерь в скорости.
- NVMe over Fabrics (NVMe-oF): Позволяет создавать сети хранения данных с крайне низкой задержкой, предоставляя удаленный доступ к NVMe-накопителям как к локальным, что существенно ускоряет работу СХД.
- Низкая латентность и высокая пропускная способность: Адаптер оптимизирован для работы на пределе возможностей шины PCIe 4.0, обеспечивая максимальную эффективность в задачах передачи больших объемов данных с минимальными задержками.
Рекомендации по использованию
Для раскрытия полной производительности адаптера необходимо использовать серверную платформу с поддержкой PCI Express 4.0. При построении сетей 100GbE рекомендуется применение совместимых оптических трансиверов и кабелей QSFP56. Для снижения нагрузки на ЦП и достижения минимальной задержки следует задействовать технологию RDMA (например, RoCE v2). Перед развертыванием проверьте наличие актуальных драйверов и firmware на сайте производителя.
Практический совет: При настройке в среде Ethernet активируйте поддержку RoCE в сетевых коммутаторах для обеспечения корректной работы RDMA. В среде InfiniBand убедитесь в совместимости и правильной конфигурации субнет-менеджера.