ChatGPT가 준비되어 있으며 모든 질문에 답할 수 있습니다.
알다시피, 모든 대화의 계산 비용은 정말 놀랍습니다.
이전에 분석가들은 ChatGPT가 한 번 응답하는 데 2센트가 든다고 말했습니다.
인공지능 챗봇에 필요한 컴퓨팅 파워는 GPU에서 나온다는 사실을 꼭 아셔야 합니다.
이것은 NVIDIA와 같은 칩 회사가 돈을 벌게 만듭니다.
2월 23일 Nvidia의 주가는 급등하여 시장 가치가 700억 달러 이상 증가했으며, 전체 시장 가치는 Intel의 약 5배인 5,800억 달러를 넘어섰습니다.
AMD는 NVIDIA를 제외하고 약 20%의 시장 점유율로 그래픽 프로세서 업계에서 두 번째로 큰 제조업체라고 할 수 있습니다.
그리고 인텔은 시장 점유율이 1% 미만입니다.
ChatGPT가 잠재적인 적용 사례를 밝혀내면서 이는 인공 지능 애플리케이션에 또 다른 변곡점을 가져올 수 있습니다.
왜 그런 말을 하는 걸까요?
구글의 모회사인 알파벳의 존 헤네시 회장은 로이터와의 인터뷰에서 대규모 언어 모델과 같은 인공지능과의 대화 비용이 기존 검색 엔진의 10배 이상이 될 수 있다고 말했습니다.
모건 스탠리 분석에 따르면 Google은 지난해 총 3조 3천억 건의 검색을 수행했으며 각 검색에 드는 비용은 0.2센트에 불과했습니다.
Google의 챗봇 Bard를 검색 엔진에 도입하여 답변당 50단어를 기준으로 Google 검색 및 질문의 절반을 처리하는 데 사용된다면 2024년 회사의 가능한 비용은 60억 달러 증가한다.
마찬가지로 칩 기술 전문 컨설팅 회사인 세미애널리시스(SemiAnalytics)는 텐서 프로세싱 유닛(Tensor Process Units)과 같은 구글 내부 칩의 영향으로 인해 검색 엔진에 챗봇을 추가하면 구글에 30억 달러의 추가 비용이 발생할 수 있다고 밝혔다.
그는 구글이 그러한 인공지능의 운영 비용을 줄여야 한다고 믿지만, 이 과정은 쉽지 않고 최악의 경우 몇 년이 걸릴 것입니다.
이것이 AI 언어 모델을 통한 검색이 기존 검색보다 더 많은 컴퓨팅 성능을 요구하는 이유입니다.
분석가들은 향후 몇 년 안에 추가 비용이 수십억 달러에 이를 수 있다고 말합니다.
가트너는 데이터센터에 사용되는 GPU 등 전문 칩의 점유율이 2020년 3% 미만에서 2026년 15% 이상 증가할 것으로 예상하고 있다.
현재 Nvidia의 AI 수익이 얼마나 되는지를 정확하게 파악하기는 어렵지만, 거대 기술 기업이 유사한 AI 애플리케이션을 개발하기 위해 경쟁함에 따라 기하급수적으로 성장할 잠재력이 있습니다.
수요일에 Nvidia는 인공 지능 클라우드 서비스도 발표했으며 Oracle, Microsoft 및 Google과 협력하여 간단한 브라우저 액세스로 인공 지능 처리를 위해 Nvidia GTX를 사용할 수 있는 기능을 제공하기로 약속했습니다.
이 새로운 플랫폼은 다른 클라우드 서비스 제공업체에서 제공되며 인프라가 없는 기술 회사가 자체 플랫폼을 구축하는 데 도움이 될 것입니다.
Huang Renxun은 "ChatGPT에 대한 사람들의 열정을 통해 비즈니스 리더들은 인공 지능의 힘을 볼 수 있었습니다. 그러나 이제는 주로 범용 소프트웨어입니다. 진정한 가치의 실현"이라고 말했습니다. "
New Street Research에서는 NVIDIA가 그래픽 프로세서 시장의 95%를 점유하고 있다고 밝혔습니다. 공유하다.
필라델피아 증권 거래소 반도체 지수에서 Nvidia 주가는 올해 42% 상승했으며 최고의 성과를 거두었습니다.
ChatGPT와 같은 인공 지능 시스템에 대한 수요가 회사 제품에 대한 주문을 증가시켜 다시 한번 세계에서 가장 가치 있는 칩 제조업체로 만들 것이라고 투자자들이 Nvidia에 쏟아졌습니다.
오랜 기간 동안 최고의 ChatGPT이든 Bard 및 Stable Diffusion과 같은 모델이든 약 US$10,000 상당의 칩 Nvidia A100에서 컴퓨팅 성능을 제공합니다.
NVIDIA A100은 여러 가지 간단한 계산을 동시에 수행할 수 있는데, 이는 신경망 모델을 훈련하고 사용하는 데 매우 중요합니다.
A100의 기술은 원래 게임에서 복잡한 3D 그래픽을 렌더링하는 데 사용되었습니다. 이제 목표는 기계 학습 작업을 처리하고 데이터 센터에서 실행하는 것입니다.
투자자 Nathan Benaich는 A100이 이제 인공지능 전문가들의 '주된 일꾼'이 되었다고 말했습니다. 그의 보고서에는 A100 슈퍼컴퓨터를 사용하는 일부 회사도 나열되어 있습니다.
기계 학습 작업은 때로는 몇 시간 또는 며칠 동안 전체 컴퓨터의 처리 능력을 소모할 수 있습니다.
이는 베스트셀러 AI 제품을 보유한 회사가 최대 액세스 기간에 대처하거나 모델을 개선하기 위해 더 많은 GPU를 구매해야 하는 경우가 많다는 것을 의미합니다.
기존 서버에 연결할 수 있는 카드의 단일 A100 외에도 많은 데이터 센터에서는 8개의 A100 GPU 시스템을 사용합니다.
이 시스템은 Nvidia DGX A100이며, 단일 시스템은 최대 200,000달러에 판매됩니다.
Nvidia는 수요일에 DGX 시스템에 대한 클라우드 액세스를 직접 판매하여 잠재적으로 연구원의 진입 비용을 낮출 것이라고 말했습니다.
Bing의 새 버전을 실행하는 데 드는 비용은 얼마인가요?
New Street Research의 평가에 따르면 Bing 검색의 OpenAI 기반 ChatGPT 모델은 1초 이내에 질문에 대한 답변을 제공하기 위해 8개의 GPU가 필요할 수 있습니다.
이런 추세라면 Microsoft가 이 모델을 모든 사람의 손에 배포하려면 20,000개 이상의 8-GPU 서버가 필요합니다.
그러면 Microsoft는 인프라 지출에 40억 달러를 지출할 수 있습니다.
이것은 단지 Microsoft입니다. 매일 80억~90억 개의 쿼리를 제공하는 Google의 일일 쿼리 규모에 도달하려면 800억 달러를 지출해야 합니다.
또 다른 예를 들어, Stable Diffusion의 최신 버전은 256개의 A100 그래픽 프로세서 또는 32개의 DGX A100에서 200,000시간의 계산을 수행합니다.
Stability AI의 CEO인 Mostaque는 시장 가격을 기준으로 모델을 훈련시키는 데만 600,000달러가 소요될 것이라고 말했습니다. 가격은 경쟁사에 비해 매우 저렴합니다. 여기에는 모델을 추론하거나 배포하는 비용은 포함되지 않습니다.
Huang Renxun은 인터뷰에서
이러한 유형의 모델에 필요한 계산량 측면에서 Stability AI의 제품은 실제로 비싸지 않다고 말했습니다.
우리는 CPU를 실행하는 데 10억 달러가 드는 데이터 센터를 1억 달러 규모의 데이터 센터로 축소했습니다. 이제 이 1억 달러 규모의 데이터 센터를 클라우드에 배치하고 100개 회사가 공유한다면 그것은 아무것도 아닙니다.
NVIDIA GPU를 사용하면 스타트업이 더 저렴한 비용으로 모델을 훈련할 수 있습니다. 이제 약 천만~2천만 달러에 GPT와 같은 대규모 언어 모델을 구축할 수 있습니다. 정말 저렴합니다.
2022년 인공 지능 현황 보고서에 따르면 2022년 12월 현재 21,000개 이상의 오픈 소스 AI 논문이 NVIDIA 칩을 사용하고 있습니다.
State of AI Compute Index의 대부분의 연구자들은 2017년에 출시된 NVIDIA 칩 V100을 사용하지만, A100은 2022년에 빠르게 성장하여 칩 중 세 번째로 가장 많이 사용되는 칩이 될 것입니다.
A100의 가장 치열한 경쟁은 2022년 출시 예정이며 양산에 들어간 후속작인 H100일 것이다. 실제로 엔비디아는 지난 수요일 1월에 끝난 분기에 H100의 매출이 A100의 매출을 넘어섰다고 밝혔습니다.
현재 엔비디아는 AI라는 급행열차를 타고 '돈'을 향해 질주하고 있습니다.
위 내용은 5,800억 달러 이상! 마이크로소프트와 구글의 싸움으로 엔비디아의 시장 가치는 인텔의 약 5배로 급등했다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!