다양한 분야에서 인공지능이 지속적으로 발전하면서 강력한 컴퓨팅 파워에 대한 필요성이 높아지고 있습니다. AI 연구 및 개발의 경우 성능과 확장성에 관한 한 NVIDIA DGX H200을 능가하는 것은 없습니다. 이 기사에서는 DGX H200의 특징과 기능을 살펴보고, DGX HXNUMX이 다른 시스템과 비교하여 OpenAI에 전략적으로 어떻게 전달되었는지 살펴봅니다. 우리는 아키텍처 향상, 성능 지표 및 AI 워크로드 속도 향상에 미치는 영향을 분석할 것입니다. 따라서 AI의 광범위한 발전에서 이 공급망이 중요한 이유를 보여줍니다.
NVIDIA DGX H200이란 무엇입니까?

NVIDIA DGX H200 사양 살펴보기
NVIDIA가 만든 슈퍼 인공지능 컴퓨터는 DGX H200입니다. 모든 종류의 딥 러닝 및 집중적인 머신 러닝 워크로드에 대처할 수 있도록 설계되었습니다. 많은 NVIDIA H100 Tensor Core GPU가 설계에 사용되어 눈 깜짝할 사이에 대규모 신경망을 훈련할 수 있습니다. 제작자는 또한 이 시스템이 데이터 전송을 통해 GPU를 통해 더 빠른 계산을 위한 고속 NVLink 상호 연결 기술을 갖추고 있는지 확인했습니다. 또한 복잡한 데이터 세트 처리 지원 외에도 DGX H200 아키텍처의 견고성은 대규모 메모리 대역폭 및 스토리지 용량 구현에서도 나타납니다. 첨단 액체 냉각 기술을 통해 최소한의 전기를 사용하면서 성능을 최대로 유지할 수 있어 환경 친화적이므로 에너지 절약에 대한 걱정이 없습니다! 사양만 놓고 보면 조직은 지금까지 가능했던 한계를 넘어서 AI 기능을 활용하고자 할 때마다 DGXH200을 가장 귀중한 자산으로 간주해야 합니다!
DGX H200은 H100과 어떻게 비교됩니까?
NVIDIA DGX H200은 H100 Tensor Core GPU의 아키텍처 기반을 기반으로 하지만 AI 중심 워크로드에서 더 나은 성능을 발휘하는 데 도움이 되는 여러 가지 조정 사항이 있습니다. H100이 다양한 종류의 인공지능 작업에 최적화된 하나의 GPU인 반면, H200은 여러 개의 H100 GPU를 주변의 정교한 아키텍처와 결합한 시스템입니다. 이를 통해 병렬 처리가 가능해 대규모 계산 처리량이 크게 가속화됩니다. 또한 DGX H200은 고급 NVLink 연결성과 더 많은 메모리 대역폭을 자랑하여 함께 작업하는 동안 GPU 간 통신은 물론 데이터 처리 속도도 향상시킵니다. 반면, 과도한 작업 부하를 처리할 때 확장할 수 있는 능력에 비해 이 단일 장치만으로는 이러한 부하를 효과적으로 관리하는 데 충분하지 않아 때로는 예상보다 유용성이 떨어질 수 있습니다. 결론적으로 DGXH200은 조직 내에서 리소스를 요구하는 프로젝트를 위해 특별히 설계되었기 때문에 전반적으로 성능 측면에서 볼 때 현재 사용 가능한 다른 AI 플랫폼보다 더 강력하고 효율적이라고 말할 수 있습니다.
AI 연구에서 DGX H200의 차별점은 무엇입니까?
NVIDIA DGX H200의 AI 연구는 그 무엇보다 대규모 데이터 세트와 복잡한 모델에 빠르게 대처할 수 있다는 점에서 특별합니다. 모듈형 설계를 기반으로 연구 성장이 필요함에 따라 쉽게 확장할 수 있는 아키텍처를 갖추고 있어 NVIDIA AI 엔터프라이즈 솔루션을 사용하는 기관에 적합합니다. 또한 딥러닝에 최적화된 고성능 Tensor Core GPU를 통합하여 모델 훈련 시간을 획기적으로 단축합니다. 또한 이러한 통합 덕분에 추론 시간도 훨씬 빨라졌습니다. 이러한 점 외에도 이 시스템에 포함된 다른 정교한 소프트웨어 중 NVIDIA의 AI 소프트웨어 스택과 같은 소프트웨어 측면도 무시할 수 없습니다. 이는 사용자 친화성을 향상시키는 동시에 데이터와 같은 인공 지능을 사용하여 연구를 수행하는 것과 관련된 다양한 단계에 대한 성능을 최적화합니다. 준비 또는 기능 엔지니어링. 따라서 DGX H200은 이러한 유형의 환경을 사용하여 데이터 분석 및 실험을 통해 현재 이해의 한계를 뛰어넘고 원하는 기계 학습 분야의 모든 연구자에게 강력할 뿐만 아니라 사용하기 쉬운 도구입니다. 최단 시간 내에 결과를 얻을 수 있으므로 효율성이 떨어지는 시스템으로 작업하는 사람들이 필요로 하는 새 장비 구입에 소비되는 돈과 같은 귀중한 자원을 절약할 수 있습니다.
DGX H200은 AI 개발을 어떻게 개선합니까?

DGX H200으로 AI 워크로드 가속화
NVIDIA DGX H200은 최신 GPU 설계를 사용하고 데이터 처리 능력을 최적화하므로 AI 작업 부하를 가속화할 수 있습니다. 높은 메모리 대역폭과 NVLink를 통한 GPU 간 통신을 통해 지연 시간을 줄여 GPU 간 정보 전송 속도를 높여 모델 훈련 속도를 높입니다. 이를 통해 특히 DGX H200 GPU의 기능을 사용할 때 인공 지능 작업에 필요한 복잡한 계산 중에 작업이 빠르게 수행될 수 있습니다. 또한, NVIDIA 자체 소프트웨어 스택과의 통합을 통해 워크플로우 자동화가 단순화되므로 더 많은 혁신을 원하는 연구원과 개발자가 알고리즘 개선에 집중할 수 있습니다. 결과적으로 AI 솔루션 배포에 소요되는 시간을 단축할 뿐만 아니라 AI 개발 환경 내 전반적인 효율성도 향상시킨다.
H200 Tensor Core GPU의 역할
NVIDIA DGX H200의 Tensor Core GPU는 딥 러닝 최적화를 향상합니다. 신경망 훈련에 필요한 행렬 기능의 속도를 높이는 텐서 처리용으로 만들어졌습니다. H200 Tensor Core GPU의 효율성, 정확성 및 처리량을 향상시키기 위해 혼합 정밀도 계산을 수행하므로 연구자는 더 큰 데이터 세트는 물론 더 복잡한 모델로 작업할 수 있습니다. 그 외에도 여러 정보 채널에 대한 동시 작업을 통해 모델 수렴 속도가 빨라져 훈련 기간이 크게 단축되고 AI 애플리케이션 생성 주기가 전반적으로 빨라집니다. 이 새로운 기능은 DGX H200이라는 고급 AI 연구 도구로서의 위상을 더욱 확고히 합니다.
DGX H200으로 생성 AI 프로젝트 향상
생성적 AI 프로젝트는 고성능 하드웨어 및 소프트웨어 에코시스템을 기반으로 구축된 NVIDIA DGX H200에 의해 크게 향상되어 집약적인 계산 작업을 수행합니다. GAN(생성적 적대 신경망)과 같은 생성적 모델의 빠른 학습은 대량의 고차원 데이터를 효율적으로 처리하는 고급 Tensor Core GPU를 통해 가능합니다. 시스템의 다중 GPU 구성을 통해 병렬 처리 기능이 향상되어 학습 주기가 단축되고 모델 최적화가 강화됩니다. 게다가 RAPIDS 및 CUDA와 같은 NVIDIA 소프트웨어 도구의 원활한 통합은 개발자에게 데이터 준비 및 모델 배포를 위한 원활한 워크플로를 제공합니다. 따라서 DGX H200은 창의적인 AI 솔루션의 개발을 가속화할 뿐만 아니라 보다 복잡한 실험과 미세 조정을 위한 여지를 열어 이 분야에서 획기적인 진전을 이룹니다.
OpenAI가 NVIDIA DGX H200을 선택한 이유는 무엇입니까?

고급 AI 연구를 위한 OpenAI의 요구 사항
OpenAI의 고급 AI 연구에는 높은 컴퓨팅 성능, 유연한 모델 교육 및 배포 옵션, 효율적인 데이터 처리 기능이 필요합니다. 그들은 대규모 데이터 세트를 처리할 수 있고 최첨단 알고리즘으로 실험을 신속하게 수행할 수 있는 시스템을 원합니다. 따라서 NVIDIA가 제공하는 DGX H200 GPU와 같은 장치가 필요합니다. 이 지점을 넘어서는 처리가 병렬로 수행될 수 있도록 여러 GPU에서 작동하여 데이터 세트에서 통찰력을 찾으려고 할 때 시간을 절약할 수 있어야 합니다. 하지만 그들이 가장 중요하게 생각하는 것은 모든 것을 긴밀하게 통합하여 관련된 모든 소프트웨어 프레임워크 간에 격차가 없도록 하는 것입니다. 이는 동일한 환경에서 데이터 준비부터 모델 교육까지 모든 작업을 수행하므로 시간과 노력이 모두 절약된다는 의미입니다. 간소화된 워크플로우와 결합된 이러한 엄격한 계산 요구는 OpenAI의 AI 우수성을 위한 필수 동인을 나타냅니다.
OpenAI의 AI 모델에 DGX H200이 미치는 영향
OpenAI의 AI 모델은 비교할 수 없는 컴퓨팅 성능을 갖춘 NVIDIA DGX H200에 의해 크게 향상되었습니다. 이 시스템을 사용하면 이전보다 더 크고 복잡한 모델을 훈련할 수 있습니다. DGX H200의 고급 다중 GPU 아키텍처를 사용하면 OpenAI를 통해 방대한 데이터 세트를 보다 효율적으로 처리할 수 있습니다. 이는 광범위한 병렬 훈련 작업을 허용하고 결과적으로 모델 반복 주기를 단축하기 때문에 가능합니다. 따라서 다양한 신경 아키텍처와 최적화를 더 빠르게 실험할 수 있으므로 결과적으로 모델 성능과 견고성이 향상됩니다. DGX H200은 NVIDIA의 소프트웨어 생태계와 호환되는 것 외에도 데이터 관리를 쉽게 하고 최첨단 기계 학습 프레임워크를 효과적으로 구현할 수 있는 간소화된 워크플로우를 갖추고 있습니다. DGX H200을 통합하면 혁신이 촉진됩니다. 이는 다양한 AI 애플리케이션 전반에 걸쳐 획기적인 발전을 가져오며, 인공 지능 연구 및 개발의 최전선에서 OpenAI의 입지를 더욱 공고히 합니다.
NVIDIA DGX H200의 핵심 기능은 무엇입니까?

호퍼 아키텍처 이해
호퍼 아키텍처는 고성능과 인공지능을 갖춘 컴퓨팅에 최적화된 그래픽 처리 장치 설계에 있어서 큰 도약이다. 더 나은 메모리 대역폭으로 인해 더 빠른 데이터 액세스 및 조작과 같은 몇 가지 새로운 기능이 있습니다. Hopper 아키텍처는 GPU(MIG)의 여러 인스턴스를 허용하므로 리소스를 여러 머신 간에 나누고 AI 훈련 작업에 맞게 확장할 수 있습니다. 또한 이 디자인에는 무엇보다도 딥 러닝 속도를 높이는 데 중요한 혼합 정밀도 계산을 개선하는 업데이트된 텐서 코어가 있습니다. 또한 Hoppers는 이를 통해 정보를 처리하는 동안 정보를 보호할 뿐만 아니라 무결성을 보장하기 위해 강화된 보안 조치를 취했습니다. 이러한 개선 사항은 다양한 환경이나 입력에 따라 AI가 수행할 수 있는 작업에 대해 자세히 알아보고자 하는 연구원과 개발자 모두에게 광범위한 기회를 제공하여 이전에는 볼 수 없었던 복잡한 워크로드에서 획기적인 성능 수준을 제공합니다.
대역폭 및 GPU 메모리 기능
인공 지능과 고성능 컴퓨팅 프로그램은 NVIDIA DGX H200을 기반으로 합니다. 뛰어난 성능 수준을 달성하기 위해 고급 대역폭과 GPU 메모리를 사용합니다. 메모리 대역폭이 크게 증가한 최신 HBM2E 메모리는 더 빠른 데이터 전송과 더 나은 처리 속도를 제공합니다. 이 고대역폭 메모리 아키텍처는 작업량이 많은 딥 러닝 및 데이터 중심 계산을 위해 구축되었습니다. 따라서 기존 스토리지 시스템에서 흔히 발생하는 병목 현상을 제거합니다.
또한 DGX H200의 GPU 간 통신은 NVIDIA의 NVLink 기술로 가속화되어 GPU 간에 더 큰 처리량을 제공함으로써 이 분야를 개선합니다. 이 기능을 통해 AI 모델은 대규모 신경망을 훈련하는 것과 같은 작업에서 여러 GPU를 활용하므로 효과적으로 확장할 수 있습니다. 방대한 양의 메모리 대역폭과 효율적인 상호 연결을 결합하면 최신 AI 애플리케이션에서 발견되는 더 큰 크기의 데이터와 증가된 복잡성을 처리할 수 있는 강력한 플랫폼이 생성되어 더 빠른 통찰력과 혁신으로 이어집니다.
NVIDIA Base Command의 이점
NVIDIA Base Command는 분산 컴퓨팅 환경에서 AI 워크로드를 관리하고 지시하기 위한 단순화된 플랫폼입니다. 장점 중에는 여러 작업을 동시에 처리하여 리소스를 효과적으로 할당하여 생산성을 높이는 동시에 운영 비용을 최소화하는 데 도움이 되는 자동화된 교육 작업 조정이 있습니다. 이 외에도 시스템 성능 지표 가시성을 중앙 집중화하여 팀이 실시간으로 워크플로를 모니터링할 수 있도록 하여 특히 DGX H200 GPU를 사용하여 리소스 활용도를 더 효과적으로 최적화할 수 있습니다. 이러한 기술 감독을 통해 연구자는 병목 현상이 있는 위치를 쉽게 감지하고 필요한 구성 변경을 수행할 수 있으므로 통찰력을 얻기까지 소요되는 시간이 줄어듭니다.
또한 널리 사용되는 데이터 프레임워크 및 도구와 연결되어 데이터 과학자 및 이를 사용하는 개발자 간의 협력 분위기를 조성합니다. 이 외에도 NVIDIA 클라우드 서비스의 Base Command를 통해 대량의 컴퓨팅 성능에 쉽게 액세스할 수 있지만 그렇지 않으면 더 많은 노력이 필요했던 복잡한 모델이나 대규모 데이터 세트에도 충분히 사용자 친화적으로 유지됩니다. 이러한 기능이 결합되어 NVIDIA Base Command는 주어진 지침 프롬프트에 따라 AI 기능을 효율적으로 향상시키려는 조직에 필수적인 도구가 됩니다.
세계 최초의 DGX H200은 언제 OpenAI에 제공되었습니까?

제공 및 통합 일정
전 세계 최초의 DGX H200 시스템은 2023년 OpenAI에 도입되었으며 곧 통합 프로세스가 시작되었습니다. OpenAI의 인프라에서 최적의 성능을 발휘할 수 있도록 이러한 사항이 전달된 후 많은 설정과 교정이 수행되었습니다. 2023년 봄 동안 OpenAI는 NVIDIA 엔지니어와 협력하여 DGX H200을 현재 AI 프레임워크에 통합하여 원활한 데이터 처리 및 교육 기능을 지원했습니다. 2023년 중반까지 OpenAI에서 완전히 작동하게 되었고, 컴퓨팅 전력 효율성이 크게 향상되었으며, 이로 인해 NVIDIA에서 제공한 내용에 따라 이 조직에서 더 많은 연구 사업이 추진되었습니다. 이는 업계 내 다른 누구도 정한 한계를 넘어 인공 지능 기술을 발전시키려는 두 회사의 헌신을 보여주기 때문에 두 회사 간의 협력을 위한 중요한 단계입니다.
NVIDIA CEO Jensen Huang의 성명서
NVIDIA의 CEO인 Jensen Huang은 최근 성명에서 AI 연구 및 개발에 대한 DGX H200의 혁신적인 중요성을 높이 평가했습니다. 그는 "DGX H200은 인공 지능에 슈퍼컴퓨팅 성능을 사용하려는 모든 기업을 위한 게임 체인저"라고 주장했습니다. 회사 대표는 기계 학습과 관련된 프로세스 속도를 높이고 과학자들이 AI의 새로운 지평을 보다 효율적으로 탐색할 수 있도록 성능 지표를 개선하는 등 이 시스템의 기능에 주목했습니다. 또한, 그는 많은 선도적인 AI 기업 중 하나인 OpenAI와 같은 조직과의 협력이 혁신을 향한 공동 노력을 보여줄 뿐만 아니라 추가적인 업계 혁신을 위한 기반을 마련하는 동시에 이에 대한 NVIDIA의 헌신도 강조한다고 강조했습니다. Jensen Huang에 따르면, 이러한 혼합은 다른 기술에 대한 기술적 우월성을 보여줄 뿐만 아니라 인공 지능을 중심으로 미래 풍경을 형성하려는 의지를 드러낸다고 Jensen Huang은 말했습니다. 그는 이 문제에 대해 연설하면서 직접 말했습니다.
DGX H200을 통한 OpenAI의 미래에 대한 Greg Brockman의 비전
OpenAI의 Greg Brockman 회장은 NVIDIA의 DGX H200이 인공지능 연구 및 응용 분야에서 가장 중요한 역할을 할 것이라고 생각합니다. 그는 이전에는 어떤 종류의 모델을 만드는 것이 너무 비싸고 어려웠지만, 이 컴퓨터를 사용하면 쉽게 만들 수 있기 때문에 이와 같은 강력한 컴퓨터가 더 강력해지면 과학자들이 이전보다 훨씬 더 발전된 시스템을 개발할 수 있을 것이라고 믿습니다. 전에. 또한 이러한 업그레이드는 로봇 공학, 자연어 처리(NLP), 컴퓨터 비전 등 AI의 여러 분야에서 발전을 가속화할 것으로 예상됩니다. 그에 따르면 OpenAI는 혁신을 가속화할 뿐만 아니라 안전도 보장해야 합니다. 인류를 위한 강력한 기술 기반을 갖춘 관리인이 됩니다.
참조 출처
자주 묻는 질문

Q: NVIDIA DGX H200이 무엇인가요?
A: NVIDIA DGX H200은 다음을 갖춘 초고급 AI 컴퓨터 시스템입니다. 엔비디아 H200 딥 러닝 및 인공 지능 애플리케이션을 위한 탁월한 성능을 제공하는 Tensor Core GPU.
Q: NVIDIA DGX H200은 언제 OpenAI에 제공되었나요?
답변: 2024년 NVIDIA DGX H200이 OpenAI에 출시되면서 AI 컴퓨팅 성능이 크게 향상되었습니다.
Q: DGX H200은 이전 모델인 DGX H100과 어떻게 비교됩니까?
A: 새로운 NVIDIA H200 Tensor Core GPU와 향상된 NVIDIA 호퍼 아키텍처가 구성된 DGX H200은 이전 제품인 DGX H100에 비해 AI 및 딥 러닝 기능을 크게 향상시킵니다.
Q: NVIDIA DGX H200을 세계에서 가장 강력한 GPU로 만드는 이유는 무엇입니까?
답변: 이 정도 규모의 컴퓨팅 성능은 이전에는 볼 수 없었던 NVIDIA의 최신 그래픽 처리 장치(GPU)인 NVidia dgx h2200을 통해 오늘날 지구상에서 사용 가능한 다른 어떤 그래픽 카드보다 강력할 정도로 강력해졌습니다. 또한 Grace Hooper Architecture와의 통합을 통해 다른 어떤 모델보다 뛰어난 AI 성능을 자랑합니다.
Q: 누가 Nvidia dgx h2oo를 출시했다고 발표했나요?
A: Jensen Huang CEO는 자신의 회사가 Openai 연구소에서 신제품인 NVidia dgx h2200을 납품했다고 발표했습니다. 이는 이 두 조직이 최근 얼마나 협력해 왔는지, 그리고 향후 사용을 위해 기술을 발전시키겠다는 의지를 보여줍니다.
Q: DGX H200이 OpenAI의 AI 연구에 어떤 영향을 미칠까요?
A: DGX H200의 활용으로 OpenAI의 인공지능 연구가 크게 성장할 것으로 예상할 수 있습니다. 이는 범용 AI의 획기적인 발전과 ChatGPT 및 기타 시스템과 같은 모델의 개선으로 이어질 것입니다.
Q: DGX H200이 AI 비즈니스의 게임 체인저로 간주되는 이유는 무엇입니까?
A: DGX H200은 비교할 수 없는 기능을 갖추고 있어 기업이 이전보다 더 정교한 AI 모델을 빠르게 훈련할 수 있어 인공지능 분야의 효율적인 혁신을 이끌 수 있기 때문에 AI 비즈니스의 판도를 바꾸는 것으로 간주됩니다.
Q: NVIDIA DGX H200의 주목할만한 기능은 무엇입니까?
답변: NVIDIA DGX H200의 주목할만한 기능으로는 강력한 NVIDIA H200 Tensor Core GPU, Grace Hopper 통합, NVIDIA 호퍼 아키텍처, 대규모 AI 및 딥 러닝 워크로드 처리 능력 등이 있습니다.
Q: OpenAI 외에 어떤 조직이 이 제품을 사용하여 이점을 얻을 수 있습니까?
A: DGX H200의 큰 혜택을 받을 수 있는 조직은 AI 기술과 관련된 기업 중 Meta AI와 같은 최첨단 연구 개발에 종사하는 조직입니다.
Q: 이 장치는 인공지능의 향후 발전을 어떤 방식으로 지원합니까?
A: DGX H200이 제공하는 컴퓨팅 성능을 통해 개발자는 차세대 모델 및 앱을 만들 수 있으며 딥 러닝 등을 통해 AGI 발전을 지원하는 것으로 볼 수 있습니다.
관련 상품:
-
NVIDIA MMA4Z00-NS400 호환 400G OSFP SR4 플랫 탑 PAM4 850nm 30m on OM3/50m on OM4 MTP/MPO-12 다중 모드 FEC 광 트랜시버 모듈 $650.00
-
NVIDIA MMA4Z00-NS-FLT 호환 800Gb/s 트윈 포트 OSFP 2x400G SR8 PAM4 850nm 100m DOM 듀얼 MPO-12 MMF 광 트랜시버 모듈 $850.00
-
NVIDIA MMA4Z00-NS 호환 800Gb/s 트윈 포트 OSFP 2x400G SR8 PAM4 850nm 100m DOM 듀얼 MPO-12 MMF 광 트랜시버 모듈 $750.00
-
NVIDIA MMS4X00-NM 호환 800Gb/s 트윈 포트 OSFP 2x400G PAM4 1310nm 500m DOM 듀얼 MTP/MPO-12 SMF 광 트랜시버 모듈 $1100.00
-
NVIDIA MMS4X00-NM-FLT 호환 800G 트윈 포트 OSFP 2x400G 플랫 탑 PAM4 1310nm 500m DOM 듀얼 MTP/MPO-12 SMF 광 트랜시버 모듈 $1200.00
-
NVIDIA MMS4X00-NS400 호환 400G OSFP DR4 플랫 탑 PAM4 1310nm MTP/MPO-12 500m SMF FEC 광 트랜시버 모듈 $800.00
-
Mellanox MMA1T00-HS 호환 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 광 트랜시버 모듈 $200.00
-
NVIDIA MFP7E10-N010 호환 10m(33ft) 8 섬유 낮은 삽입 손실 암-암 MPO 트렁크 케이블 극성 B APC-APC LSZH 다중 모드 OM3 50/125 $47.00
-
NVIDIA MCP7Y00-N003-FLT 호환 3m(10피트) 800G 트윈 포트 OSFP - 2x400G 플랫 탑 OSFP InfiniBand NDR 브레이크아웃 DAC $275.00
-
NVIDIA MCP7Y70-H002 호환 2m(7피트) 400G 트윈 포트 2x200G OSFP - 4x100G QSFP56 패시브 브레이크아웃 직접 연결 구리 케이블 $155.00
-
NVIDIA MCA4J80-N003-FTF 호환 3m(10피트) 800G 트윈 포트 2x400G OSFP - 2x400G OSFP InfiniBand NDR 활성 구리 케이블, 한쪽 끝은 평면 상단, 다른 쪽 끝은 핀형 상단 $600.00
-
NVIDIA MCP7Y10-N002 호환 가능한 2m(7피트) 800G InfiniBand NDR 트윈 포트 OSFP - 2x400G QSFP112 브레이크아웃 DAC $200.00