전 세계가 여전히 NVIDIA H100 칩에 집착하고 AI 컴퓨팅 성능에 대한 증가하는 수요를 충족하기 위해 이를 미친 듯이 구매하는 동안, 월요일 현지 시간에 NVIDIA는 대규모 AI 모델 훈련을 위한 최신 AI 칩 H200을 조용히 출시했습니다. 비교. 이전 세대 제품인 H100에 비해 H200의 성능이 약 60~90% 향상되었습니다.
H200은 H100과 같은 Hopper 아키텍처를 기반으로 하는 업그레이드 버전입니다. 주요 업그레이드에는 141GB의 HBM3e 비디오 메모리가 포함됩니다. 비디오 메모리 대역폭은 H100의 3.35TB/s에서 4.8TB/s로 증가했습니다. NVIDIA 공식 웹사이트에 따르면 H200은 HBM3e 메모리를 사용하는 회사 최초의 칩이기도 합니다. 이 메모리는 더 빠르고 용량이 크기 때문에 대규모 언어 모델에 더 적합합니다. NVIDIA는 "HBM3e를 통해 NVIDIA H200은 초당 4.8TB의 141GB 메모리를 제공합니다. 이는 A100에 비해 거의 2배의 용량과 2.4배의 대역폭 을 제공합니다." 공식 사진에 따르면 H200의 대형 모델 Llama 2와 GPT-3.5의 출력 속도는 각각 H100의 1.9배, 1.6배
이며, 고성능 컴퓨팅 HPC에서의 속도는 듀얼 코어의 110배에 달합니다. x86 CPU 시간.H200은 내년 2분기에 출시될 것으로 예상되며 엔비디아는 아직 가격을 발표하지 않았습니다.
그러나 H100 및 기타 AI 칩과 마찬가지로 Nvidia는 H200 칩을 중국 제조업체에 공급하지 않습니다.올해 10월 17일, 미국 상무부는 칩에 대한 새로운 수출 통제 규정
을 발표했습니다. 특히 고성능 AI 칩에 대한 통제가 더욱 엄격해졌습니다. 매우 중요한 새로운 규정 중 하나는 고급 컴퓨팅 칩에 대한 제한된 표준을 조정하고 새로운 "성능 밀도 임계값"을 매개변수로 설정하는 것입니다. 새로운 규정에 따라 NVIDIA China의 '스페셜 에디션' H800 및 A800의 중국 수출이 제한되었습니다.최첨단 AI 칩이 부족하면 단기적으로는 국내 AI 산업 발전에 몇 가지 어려움이 따르겠지만 기회도 있습니다.
첫째, Baidu의 최근 1,600개의 Huawei Ascend 910B 칩 주문과 같은 국내 컴퓨팅 전원 칩을 교체할 수 있는 기회
가 있습니다. 두 번째로, 수요와 공급의 불일치로 인해컴퓨팅 전원 임대 가격 상승이 컴퓨팅 전원 임대에 도움이 될 것입니다. 기업. 휴이나테크놀로지는 엔비디아 A100 칩이 내장된 고성능 컴퓨팅 서버의 컴퓨팅 파워 서비스 요금을 100% 인상한다고 14일 밝혔다. 첨단 공정 생산 능력 부족 문제로 인해 개발이 가속화될 것으로 예상됩니다. 그렇다면 Huawei Shengteng 외에 국내 컴퓨팅 능력을 갖춘 또 누가 배너를 들고 다닐 수 있을까요? 산업 체인과 관련된 회사는 무엇입니까? 간접적으로 이익을 얻을 것으로 예상되는 다른 방향은 무엇입니까? 국내 AI 컴퓨팅 파워 독립통제의 4대 혜택 방향과 대표 기업들이 "AI 컴퓨팅 파워를 독립적으로 관리하는 것이 필수입니다
"라는 특별 주제를 제작했습니다. 도움이 필요한 친구들은 아래 QR 코드를 스캔하거나 WeChat 보조자(hzkyxjyy)를 추가하세요. 무료로 다운로드하거나 친구 서클에서 읽어보세요. 추가가 성공적으로 완료되면 모든 과거 보고서와 향후 각 특별 보고서를 무료로 읽을 수 있습니다.
위 내용은 NVIDIA는 새로운 AI 칩 H200을 출시하여 성능이 90% 향상되었습니다! 중국의 컴퓨팅 파워가 자주적인 돌파를 달성했습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!