>  기사  >  기술 주변기기  >  메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터

메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터

王林
王林앞으로
2023-05-25 22:04:041466검색

메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터

리수이칭

편집됨 |

편집 | 신 위안

Zhixixi 뉴스 5월 18일 현지 시간으로 Meta는 공식 홈페이지를 통해 향후 10년간 급증하는 AI 컴퓨팅 성능에 대응하기 위한 대규모 계획을 실행한다고 발표했습니다. AI 시설의 차세대 기반.

Meta는 AI 모델 실행을 위한 최초의 맞춤형 칩, AI에 최적화된 새로운 데이터 센터 설계, 최초의 비디오 트랜스코딩 ASIC, 16,000개의 GPU 통합, AI 슈퍼컴퓨터 RSC 등 AI를 위한 차세대 인프라 구축의 최신 진행 상황을 발표했습니다. AI 훈련 등을 가속화하는 데 사용됩니다.

메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터

▲메타 공식 홈페이지 AI 인프라 상세 공개

Meta는 AI를 회사의 핵심 인프라로 간주합니다. 2010년 Meta가 첫 번째 데이터 센터를 착공한 이후 AI는 매일 Meta 애플리케이션 제품군을 사용하는 30억 명 이상의 사람들의 엔진이 되었습니다. 2015년 Big Sur 하드웨어부터 PyTorch 개발, 지난해 Meta의 AI 슈퍼컴퓨터 최초 배포까지 Meta는 현재 이러한 인프라를 더욱 업그레이드하고 발전시키고 있습니다.

1. Meta의 1세대 AI 추론 가속기, 7nm 공정, 102.4TOPS 컴퓨팅 성능

MTIA(Meta Training and Inference Accelerator)는 추론 워크로드를 위한 Meta 최초의 사내 맞춤형 가속기 칩 시리즈입니다.

AI 워크로드는 Meta의 비즈니스 어디에나 존재하며 콘텐츠 이해, 정보 흐름, 생성 AI 및 광고 순위를 포함한 광범위한 응용 프로젝트의 기반입니다. AI 모델의 크기와 복잡성이 증가함에 따라 기본 하드웨어 시스템은 효율성을 유지하면서 메모리와 계산을 기하급수적으로 증가시켜야 합니다. 그러나 Meta는 CPU가 규모에 따라 요구되는 효율성 수준 요구 사항을 충족하기 어렵다는 사실을 발견하고 이러한 문제를 해결하기 위해 Meta가 자체 개발한 교육 및 추론 가속기 MTIA ASIC 시리즈를 설계했습니다.

2020년부터 Meta는 내부 워크로드를 위해 1세대 MTIA ASIC을 설계했습니다. 가속기는 TSMC의 7nm 프로세스를 사용하고 800MHz에서 실행되며 INT8 정밀도에서 102.4TOPS 컴퓨팅 성능, FP16 정밀도에서 51.2TFLOPS 컴퓨팅 성능을 제공합니다. 열 설계 전력(TDP)은 25W입니다.

보고서에 따르면 MTIA는 MTIA 칩과 GPU를 동시에 배포함으로써 각 워크로드에 대해 더 나은 성능, 더 낮은 대기 시간 및 더 높은 효율성을 제공합니다.

2. 차세대 데이터 센터 구축 및 최초의 비디오 트랜스코딩 ASIC 개발

Meta의 차세대 데이터 센터 설계는 현재 제품을 지원하는 동시에 차세대 AI 하드웨어에 대한 교육 및 추론을 지원합니다. 이 새로운 데이터 센터는 AI에 최적화되어 수냉식 AI 하드웨어와 데이터 센터 규모의 AI 훈련 클러스터를 위해 수천 개의 AI 칩을 연결하는 고성능 AI 네트워크를 지원합니다.

공식 웹사이트에 따르면 Meta의 차세대 데이터 센터는 더욱 빠르고 비용 효율적으로 구축될 것이며 Meta의 성장하는 비디오를 지원하도록 설계된 Meta의 첫 번째 내부 개발 ASIC 솔루션인 MSVP와 같은 다른 새로운 하드웨어로 보완될 것입니다. 작업 부하는 전력을 제공합니다.

제너레이티브 AI 등 신기술 콘텐츠의 등장으로 영상 인프라에 대한 사람들의 수요가 더욱 강화되면서 메타는 확장 가능한 영상 프로세서 MSVP를 출시하게 되었습니다.

MSVP는 Meta가 자체 개발한 최초의 비디오 트랜스코딩용 ASIC입니다. MSVP는 프로그래밍 가능하고 확장 가능하며 온디맨드에 필요한 고품질 트랜스코딩은 물론 라이브 스트리밍에 필요한 짧은 대기 시간과 빠른 처리 시간을 효율적으로 지원하도록 구성할 수 있습니다. 앞으로 MSVP는 또한 AI 생성 콘텐츠는 물론 VR(가상 현실) 및 AR(증강 현실) 콘텐츠를 포함하여 Meta 응용 프로그램 제품군의 모든 구성원에게 새로운 형태의 비디오 콘텐츠를 제공하는 데 도움을 줄 것입니다.

메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터

▲MSVP 아키텍처 다이어그램

3. AI 슈퍼컴퓨터는 16,000개의 GPU를 통합하고 LLaMA 대형 모델을 지원하여 훈련 반복을 가속화합니다

Meta의 발표에 따르면 RSC(AI 슈퍼컴퓨터)는 세계에서 가장 빠른 인공지능 슈퍼컴퓨터 중 하나입니다. 이는 차세대 대규모 AI 모델을 훈련하고 새로운 AR 도구, 콘텐츠 이해 시스템에 대한 성능을 제공하도록 설계되었습니다. , 실시간 번역 기술 등 .

Meta RSC는 16,000개의 GPU를 갖추고 있으며 모두 3단계 Clos 네트워크 구조를 통해 액세스할 수 있으며 2,000개의 교육 시스템 각각에 전체 대역폭을 제공합니다. 작년에 RSC는 LLaMA와 같은 연구 프로젝트를 추진해 왔습니다.

LLaMA는 올해 초 Meta에서 구축하고 오픈소스로 제공한 대규모 언어 모델로, 650억 개의 매개변수 규모를 갖습니다. Meta는 연구원들이 상당한 하드웨어 없이도 특정 작업을 연구하고 미세 조정할 수 있는 더 작고 더 높은 성능의 모델을 제공하는 것이 목표라고 말합니다.

Meta는 1조 4천억 개의 토큰을 기반으로 LLaMA 65B와 더 작은 LLaMA 33B를 훈련했습니다. 가장 작은 모델인 LLaMA 7B도 훈련에 1조 개의 토큰을 사용합니다. 대규모 실행 기능을 통해 Meta는 교육 및 조정 반복을 가속화하고 다른 비즈니스보다 더 빠르게 모델을 출시할 수 있습니다.

결론: 대규모 모델 기술의 적용으로 인해 주요 제조업체는 인프라 구축을 가속화했습니다

Meta는 물리적 계층부터 소프트웨어 계층, 실제 사용자 경험까지 엔드투엔드 경험을 최적화할 수 있기 때문에 대부분의 인프라를 맞춤 설계합니다. 스택은 위에서 아래로 제어되므로 특정 요구 사항에 맞게 사용자 정의할 수 있습니다. 이러한 인프라는 더 크고 복잡한 AI 모델을 개발하고 배포하는 데 있어 Meta를 지원할 것입니다.

향후 몇 년 동안 우리는 칩 설계의 전문화 및 맞춤화, 전문화된 워크로드별 AI 인프라, 새로운 시스템 및 도구, 제품 및 설계 지원의 효율성 향상을 보게 될 것입니다. 이를 통해 최신 연구를 바탕으로 점점 더 정교한 모델과 제품이 제공되어 전 세계 사람들이 이 새로운 기술을 사용할 수 있게 될 것입니다.

출처: 메타 공식 홈페이지

위 내용은 메타는 계속해서 AI를 던져 궁극의 움직임을 가속화한다! 최초의 AI 추론 칩, 대형 모델 훈련을 위해 특별히 설계된 AI 슈퍼컴퓨터의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 sohu.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제