Mellanox2 고성능 네트워크 연결 기술 - InfiniBand AI모델 학습을 위한 고성능 컴퓨팅 기능에 대해서 연재를 하려고 합니다. HPC라고 하는 영역에서 고성능을 내기위해서는 다양한 기술들이 받쳐줘야 합니다. CPU, GPU, 메모리, 저장장치 그리고, 오늘 얘기하려는 네트워크 기술입니다. AI환경에서는 NVIDIA가 주도하면서 InfiniBand를 권장하고 있습니다. InfiniBand는 AI 및 기계 학습 워크로드에 사용되는 것을 포함하여 고성능 컴퓨팅(HPC) 환경에서 자주 사용되는 고속 상호 연결 기술입니다. InfiniBand가 이더넷 또는 파이버 채널과 같은 다른 상호 연결 기술보다 선호되는 몇 가지 이유가 있습니다. - 높은 대역폭: InfiniBand는 방향당 포트당 최대 200Gbps의 속도를 지원하는 최신 세대의 InfiniBand(HDR).. 2023. 2. 26. Mellanox Adapters - Comparison Table This is a clone page. The original page => Link Class Feature ConnectX-3 ConnectX-3 Pro ConnectX-4 ConnectX-4 Lx ConnectX-5 ConnectX-6 Interface Port/Speed options 2 ports of 10/40/56GbE 2 ports of 10/40/56GbE 2 ports of 100/56/50/40/25/10GbE 2 ports of 10/25GbE 1 port of 40/50GbE 2 ports of 100/56/50/40/25/10GbE 2 ports of 200/100/56/50/40/25/10GbE Interface PCIe x8 Gen3 x8 Gen3 x8, x16 Gen3 x8.. 2022. 1. 20. 이전 1 다음 반응형