ChatGPT가 인기를 얻은 후 Google과 Microsoft라는 두 거대 기업 간의 AI 전쟁이 새로운 필드 서버 칩으로 불타올랐습니다.
요즘 AI와 클라우드 컴퓨팅은 전쟁터가 되었고, 칩 역시 비용 절감과 비즈니스 고객 확보의 핵심이 되었습니다.
원래는 Amazon, Microsoft, Google과 같은 대기업이 소프트웨어로 유명했지만 지금은 칩 개발과 생산에 수십억 달러를 지출했습니다.
주요 기술 대기업이 개발한 AI 칩
외신의 보도에 따르면 이러한 정보는 3개의 주요 제조업체는 현재 내부 제품 개발, 클라우드 서버 임대 또는 둘 다를 위해 8개의 서버와 AI 칩을 출시했거나 출시할 계획입니다.
“AI에 최적화된 실리콘을 만들 수 있다면 큰 승리를 거둘 수 있을 것입니다.”라고 리서치 회사인 Forrester의 글렌 오도넬 이사는 말했습니다.
이런 엄청난 노력이 반드시 결실을 맺을 수 있을까요?
답은 반드시 그런 것은 아닙니다.
Intel, AMD, Nvidia는 규모의 경제로 이익을 얻을 수 있지만 거대 기술 기업의 경우에는 그렇지 않습니다.
또한 칩 디자이너를 고용하고 개발자가 맞춤형 칩을 사용하여 애플리케이션을 구축하도록 설득하는 등 까다로운 과제에 직면해 있습니다.
그러나 주요 제조업체는 이 분야에서 인상적인 발전을 이루었습니다.
공개된 성능 데이터에 따르면 Amazon의 Graviton 서버 칩은 물론 Amazon과 Google이 출시한 AI 전용 칩은 성능 면에서 이미 기존 칩 제조업체와 비교할 수 있습니다.
Amazon, Microsoft 및 Google이 데이터 센터용으로 개발한 칩에는 두 가지 주요 유형이 있습니다. 표준 컴퓨팅 칩과 기계 학습 모델을 훈련하고 실행하는 데 사용되는 특수 칩입니다. ChatGPT와 같은 대규모 언어 모델을 지원하는 것은 후자입니다.
이전에 Apple은 iPhone, iPad 및 Mac용 칩을 성공적으로 개발하여 일부 AI 작업 처리를 개선했습니다. 이러한 대규모 제조업체는 Apple로부터 영감을 얻었을 수도 있습니다.
3대 제조업체 중 서버에 두 가지 유형의 칩을 제공하는 유일한 클라우드 서비스 제공업체는 Amazon입니다. 2015년 인수한 이스라엘 칩 설계업체 Annapurna Labs가 이러한 노력의 기반을 마련했습니다.
Google은 2015년 AI 워크로드용 칩을 출시했으며 Google Cloud의 서버 성능을 향상시키기 위한 표준 서버 칩을 개발하고 있습니다.
반면에 Microsoft의 칩 연구 및 개발은 상대적으로 늦게 시작되어 2019년에 출시되었습니다. 최근 Microsoft는 LLM용으로 특별히 설계된 AI 칩 출시 일정을 가속화했습니다.
ChatGPT의 인기는 전 세계 사용자들 사이에서 AI에 대한 흥미를 불러일으켰습니다. 이는 3개 주요 제조업체의 전략적 변화를 더욱 촉진했습니다.
ChatGPT는 Microsoft의 Azure 클라우드에서 실행되며 수만 대의 Nvidia A100을 사용합니다. Bing에 통합된 ChatGPT와 기타 OpenAI 소프트웨어 및 다양한 프로그램에는 너무 많은 컴퓨팅 성능이 필요하므로 Microsoft는 AI를 개발하는 내부 팀에 서버 하드웨어를 할당했습니다.
Amazon의 최고 재무 책임자(CFO)인 Brian Olsavsky는 지난 주 실적 발표에서 투자자들에게 Amazon이 ChatGPT를 지원하는 데 필요한 인프라에 부분적으로 투자하기 위해 소매 사업에서 AWS로 지출을 전환할 계획이라고 말했습니다.
Google에서는 Tensor 처리 장치 구축을 담당하는 엔지니어링팀이 Google Cloud로 이전되었습니다. 클라우드 조직은 이제 클라우드 고객이 더 많은 TPU 기반 서버를 임대할 수 있기를 희망하면서 TPU 및 TPU에서 실행되는 소프트웨어에 대한 로드맵을 개발할 수 있다고 보고되었습니다.
이르면 2020년 초 Google은 자체 데이터 센터에 당시 가장 강력한 AI 칩인 TPU v4를 배포했습니다.
그러나 올해 4월 4일이 되어서야 Google은 이 AI 슈퍼컴퓨터의 기술적 세부 사항을 처음으로 발표했습니다.
TPU v3에 비해 TPU v4의 성능은 2.1배 향상되었으며, 4096개의 칩을 통합한 후 슈퍼컴퓨팅 성능이 10배 향상되었습니다.
동시에 Google은 자체 칩이 NVIDIA A100보다 빠르고 에너지 효율적이라고 주장합니다. 비슷한 크기의 시스템의 경우 TPU v4는 NVIDIA A100보다 1.7배 더 나은 성능을 제공하는 동시에 에너지 효율성도 1.9배 향상시킬 수 있습니다.
비슷한 크기의 시스템에서 TPU v4는 BERT의 A100보다 1.15배 빠르며 IPU보다 약 4.3배 빠릅니다. ResNet의 경우 TPU v4는 각각 1.67배, 약 4.5배 더 빠릅니다.
이와 별도로 Google은 Nvidia H100과 경쟁할 새로운 TPU를 개발 중임을 암시했습니다. Google 연구원인 Jouppi는 Reuters와의 인터뷰에서 Google이 "미래 칩을 위한 생산 라인"을 보유하고 있다고 말했습니다.
무슨 일이 있어도 Microsoft는 여전히 이 칩 분쟁을 시도하고 싶어합니다.
이전에는 Microsoft가 비밀리에 구성한 300명으로 구성된 팀이 2019년에 "Athena"라는 맞춤형 칩을 개발하기 시작했다는 소식이 전해졌습니다.
원래 계획에 따르면 "Athena"는 TSMC의 5nm 공정을 사용하여 제작될 예정이며, 이는 각 칩의 비용을 1/3로 줄일 것으로 예상됩니다.
내년에 대규모로 구현될 수 있다면 Microsoft 내부 팀과 OpenAI 팀은 "Athena"를 사용하여 모델 훈련과 추론을 동시에 완료할 수 있습니다.
이런 방식으로 전용 컴퓨터 부족 현상을 크게 완화할 수 있습니다.
지난 주 Bloomberg는 Microsoft의 칩 사업부가 AMD와 협력하여 Athena 칩을 개발했다고 보도했으며 이로 인해 목요일 AMD의 주가가 6.5% 상승했습니다.
그러나 한 관계자에 따르면 AMD는 관여하지 않고 엔비디아와 경쟁하기 위해 자체 GPU를 개발하고 있으며, AMD는 이 GPU를 마이크로소프트가 구매할 것으로 예상되기 때문에 마이크로소프트와 칩 설계를 논의해 왔다고 합니다.
Microsoft, Google과의 칩 경쟁에서는 Amazon이 선두를 달리고 있는 것 같습니다.
지난 10년 동안 Amazon은 더 발전된 기술과 저렴한 가격을 제공함으로써 클라우드 컴퓨팅 서비스에서 Microsoft 및 Google에 비해 경쟁 우위를 유지해 왔습니다.
향후 10년에도 Amazon은 자체 개발한 서버 칩인 Graviton을 통해 경쟁 우위를 계속 유지할 것으로 예상됩니다.
최신 세대 프로세서인 AWS Graviton3은 이전 세대에 비해 컴퓨팅 성능을 최대 25% 향상하고 부동 소수점 성능을 최대 2배 향상시킵니다. 또한 DDR4 메모리에 비해 대역폭이 50% 증가한 DDR5 메모리도 지원합니다.
기계 학습 워크로드의 경우 AWS Graviton3은 이전 세대보다 최대 3배 향상된 성능을 제공하고 bfloat16을 지원합니다.
Graviton 3 칩을 기반으로 한 클라우드 서비스는 일부 지역에서 큰 인기를 끌며 수요를 초과하는 공급 상태에 이르렀습니다.
Amazon의 또 다른 장점은 현재 표준 컴퓨팅 칩(Graviton)과 AI 전용 칩(Inferentia 및 Trainium)을 서버에 제공하는 유일한 클라우드 제공업체라는 것입니다.
아마존은 2019년 초 자체 AI 추론 칩인 Inferentia를 출시했습니다.
고객은 이미지 인식, 음성 인식, 자연어 처리, 개인화, 사기 탐지 등 대규모 기계 학습 추론 애플리케이션을 클라우드에서 저렴한 비용으로 실행할 수 있습니다.
최신 Inferentia 2는 컴퓨팅 성능을 3배 향상시켰고, 총 가속기 메모리는 4배 확장되었으며, 처리량은 4배 증가했으며, 대기 시간은 1/10로 감소했습니다.
원래 Inferentia 출시 후 Amazon은 주로 AI 훈련용으로 설계된 맞춤형 칩인 Trainium을 출시했습니다.
이미지 분류, 의미 검색, 번역, 음성 인식, 자연어 처리 및 추천 엔진 등을 포함한 딥 러닝 훈련 워크로드에 최적화되어 있습니다.
어떤 경우에는 칩 맞춤화를 통해 비용을 대폭 절감하고 에너지 소비를 1/10로 줄일 수 있을 뿐만 아니라 이러한 맞춤형 솔루션을 통해 고객에게 더 짧은 대기 시간으로 더 나은 서비스를 제공할 수 있습니다.
그러나 지금까지 대부분의 AI 워크로드는 여전히 GPU에서 실행되며 NVIDIA는 대부분의 칩을 생산합니다.
이전 보고서에 따르면 Nvidia의 자체 GPU 시장 점유율은 80%에 달하고, 고급 GPU 시장 점유율은 90%에 달합니다.
20년 동안 AI를 실행하는 전 세계 클라우드 컴퓨팅 및 데이터 센터의 80.6%가 NVIDIA GPU로 구동되었습니다. 2021년 NVIDIA는 세계 상위 500대 슈퍼컴퓨터 중 약 70%가 자체 칩으로 구동된다고 밝혔습니다.
그리고 이제 ChatGPT를 실행하는 Microsoft 데이터 센터에서도 수만 개의 NVIDIA A100 GPU를 사용합니다.
오랜 기간 동안 최고 수준의 ChatGPT이든 Bard 및 Stable Diffusion과 같은 모델이든 각각 US$10,000 정도의 가치가 있는 NVIDIA A100 칩에서 컴퓨팅 성능을 제공했습니다.
이뿐만 아니라 A100은 이제 인공지능 전문가들의 '주된 일꾼'이 되었습니다. 2022년 인공지능 현황 보고서에는 A100 슈퍼컴퓨터를 사용하는 일부 회사도 나열되어 있습니다.
NVIDIA가 글로벌 컴퓨팅 파워를 독점하고 자체 칩으로 세계를 지배하고 있는 것은 분명합니다.
업계에 따르면 아마존, 구글, 마이크로소프트가 개발 중인 ASIC(Application-Specific Integrated Circuit) 칩은 범용 칩에 비해 머신러닝 작업을 더 빠르게 수행하고 전력 소모도 더 적다고 합니다.
O'Donnell 감독은 GPU와 ASIC을 비교할 때 이 비교를 사용했습니다. "일상 주행에는 프리우스를 사용할 수 있지만 산에서 4륜 구동을 사용해야 한다면 지프 랭글러가 더 적합할 것입니다."
그러나 모든 노력에도 불구하고 Amazon, Google 및 Microsoft는 모두 도전에 직면해 있습니다. 개발자가 이러한 AI 칩을 사용하도록 설득하는 방법은 무엇입니까?
이제 NVIDIA의 GPU가 지배적이며 개발자는 GPU 기반 애플리케이션을 만들기 위한 독점 프로그래밍 언어 CUDA에 이미 익숙합니다.
Amazon, Google 또는 Microsoft의 맞춤형 칩으로 전환하는 경우 새로운 소프트웨어 언어를 배워야 합니까?
위 내용은 엔비디아의 지배 시대는 끝났는가? ChatGPT는 Google과 Microsoft 간의 칩 전쟁을 시작하고 Amazon도 전투에 합류합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!