Сетвевая карта Mellanox ConnectX-6 HDR100/100GbE QSFP56 2-Port PCIe VPI, 100GbE Pci Express 4.0 X16

63753 Р
01PG721
В наличии
+
Отложить

Сетевая карта Mellanox ConnectX-6 HDR100/100GbE QSFP56 2-Port PCIe VPI, 100GbE Pci Express 4.0 X16

Код производителя: 01PG721. Предназначена для высокопроизводительных вычислений (HPC), центров обработки данных, систем хранения данных и машинного обучения, где критичны минимальные задержки и высокая пропускная способность.

Основные технические характеристики

Наименование характеристики Значение Комментарий
Код производителя 01PG721 Уникальный идентификатор продукта
Интерфейс подключения PCI Express 4.0 x16 Обеспечивает высокую пропускную способность шины для передачи данных без узких мест
Скорость порта 100 Гбит/с на порт Поддерживает стандарты InfiniBand HDR100 и Ethernet 100GbE
Количество портов 2 Два независимых порта QSFP56 для построения отказоустойчивых или агрегированных соединений
Тип трансивера QSFP56 Форм-фактор, предназначенный для скоростей 100 и 200 Гбит/с, обеспечивает обратную совместимость с QSFP28
Поддерживаемые протоколы VPI (Virtual Protocol Interconnect) Позволяет адаптеру работать как в сетях InfiniBand HDR, так и в сетях Ethernet (100GbE) на одном аппаратном уровне
Пропускная способность До 200 Гбит/с (агрегированная) Суммарная пропускная способность при одновременной загрузке двух портов
Задержка (латентность) Крайне низкая Оптимизирована для задач HPC, финансовых транзакций и других приложений, чувствительных к задержкам
Поддержка технологий RDMA, RoCE, SR-IOV, NVMe over Fabrics Ключевые функции для современных ЦОД и ускорения приложений

Преимущества технологий и особенности модели

  • Технология VPI (Virtual Protocol Interconnect): Обеспечивает гибкость развертывания, позволяя выбирать между высокопроизводительной сетью InfiniBand и универсальным Ethernet на одном и том же адаптере, что снижает затраты на инфраструктуру.
  • RDMA (Remote Direct Memory Access) и RoCE (RDMA over Converged Ethernet): Позволяют приложениям напрямую обращаться к памяти удаленного узла, минуя CPU и операционную систему. Это резко снижает задержку и нагрузку на процессор, что критически важно для HPC, машинного обучения и систем хранения.
  • SR-IOV (Single Root I/O Virtualization): Создает несколько виртуальных интерфейсов на одном физическом адаптере, обеспечивая изолированное и производительное сетевое подключение для виртуальных машин без потерь в скорости.
  • NVMe over Fabrics (NVMe-oF): Позволяет создавать сети хранения данных с крайне низкой задержкой, предоставляя удаленный доступ к NVMe-накопителям как к локальным, что существенно ускоряет работу СХД.
  • Низкая латентность и высокая пропускная способность: Адаптер оптимизирован для работы на пределе возможностей шины PCIe 4.0, обеспечивая максимальную эффективность в задачах передачи больших объемов данных с минимальными задержками.

Рекомендации по использованию

Для раскрытия полной производительности адаптера необходимо использовать серверную платформу с поддержкой PCI Express 4.0. При построении сетей 100GbE рекомендуется применение совместимых оптических трансиверов и кабелей QSFP56. Для снижения нагрузки на ЦП и достижения минимальной задержки следует задействовать технологию RDMA (например, RoCE v2). Перед развертыванием проверьте наличие актуальных драйверов и firmware на сайте производителя.

Практический совет: При настройке в среде Ethernet активируйте поддержку RoCE в сетевых коммутаторах для обеспечения корректной работы RDMA. В среде InfiniBand убедитесь в совместимости и правильной конфигурации субнет-менеджера.