>기술 주변기기 >일체 포함 >ChatGPT 열풍에 대한 냉담한 생각: 2025년 AI 에너지 소비는 인간의 에너지 소비를 초과할 수 있으며, AI 컴퓨팅은 품질과 효율성을 향상해야 합니다.

ChatGPT 열풍에 대한 냉담한 생각: 2025년 AI 에너지 소비는 인간의 에너지 소비를 초과할 수 있으며, AI 컴퓨팅은 품질과 효율성을 향상해야 합니다.

PHPz
PHPz앞으로
2023-04-12 09:43:021429검색

수년간의 개발 끝에 OpenAI가 출시한 DALL-E 및 GPT-3 생성 AI 시스템은 전 세계적으로 인기를 얻었으며 현재 놀라운 응용 잠재력을 부각시키고 있습니다. 그러나 이러한 생성 AI의 폭발적인 증가에는 문제가 있습니다. DALL-E가 이미지를 생성하거나 GPT-3가 다음 단어를 예측할 때마다 여러 추론 계산이 필요하므로 많은 리소스를 차지하고 더 많은 전력을 소비합니다. 현재 GPU 및 CPU 아키텍처는 임박한 컴퓨팅 요구를 충족하기 위해 효율적으로 작동할 수 없으므로 하이퍼스케일 데이터 센터 운영자에게 큰 과제를 안겨줍니다.

ChatGPT 열풍에 대한 냉담한 생각: 2025년 AI 에너지 소비는 인간의 에너지 소비를 초과할 수 있으며, AI 컴퓨팅은 품질과 효율성을 향상해야 합니다.

연구 기관에서는 데이터 센터가 2017년부터 2025년까지 전체 전력 소비량의 3%에서 4.5%를 차지하면서 세계 최대의 에너지 소비자가 될 것으로 예측합니다. 중국을 예로 들면, 전국적으로 운영되는 데이터센터의 전력 소비량은 2030년 4000억kWh를 넘어 중국 전체 전력 소비량의 4%를 차지할 것으로 예상된다.

클라우드 컴퓨팅 제공업체도 자사의 데이터 센터가 많은 양의 전기를 사용한다는 점을 인식하고 재생 가능 에너지와 자연 냉각 조건을 활용하기 위해 북극에 데이터 센터를 구축 및 운영하는 등 효율성을 향상하기 위한 조치를 취했습니다. 그러나 이는 AI 애플리케이션의 폭발적인 성장을 충족시키기에는 충분하지 않습니다.

미국 로렌스 버클리 국립 연구소(Lawrence Berkeley National Laboratory)는 지난 20년 동안 데이터 센터 효율성의 향상이 에너지 소비 증가를 통제해 왔다는 연구 결과를 발견했지만, 연구에 따르면 현재의 에너지 효율성 조치로는 미래의 데이터 센터를 충족시키기에 충분하지 않을 수 있습니다. 필요하므로 더 나은 접근 방식이 필요합니다.

데이터 전송은 치명적인 병목 현상입니다.

효율성의 근원은 GPU와 CPU의 작동 방식에 있으며, 특히 AI 추론 모델과 훈련 모델을 실행할 때 더욱 그렇습니다. 많은 사람들은 "무어의 법칙 너머"와 더 큰 칩 크기에 더 많은 트랜지스터를 포장하는 물리적 한계를 이해합니다. 더 발전된 칩이 이러한 문제를 해결하는 데 도움이 되지만, 현재 솔루션에는 AI 추론과 관련하여 중요한 약점이 있습니다. 즉, 랜덤 액세스 메모리에서 데이터를 전송할 수 있는 속도가 크게 감소한다는 것입니다.

전통적으로는 프로세서와 메모리 칩을 분리하는 것이 더 저렴했으며 프로세서 클럭 속도는 수년 동안 컴퓨터 성능의 주요 제한 요소였습니다. 오늘날 발전을 방해하는 것은 칩 간의 상호 연결입니다.

미국 국립표준기술연구소(NIST) 연구원 제프 셰인라인(Jeff Shainline)은 “메모리와 프로세서가 분리되면 두 도메인을 연결하는 통신 링크가 시스템의 주요 병목 현상이 된다”고 설명했다. Jack Dongarra 교수는 다음과 같이 간결하게 표현했습니다. "오늘날 컴퓨터의 성능을 살펴보면 데이터 전송이 치명적인 병목 현상이라는 것을 알 수 있습니다."

AI 추론 대 AI 훈련

예측을 위해 AI 모델을 사용하는 것과 비교하면, AI 시스템은 AI 모델을 훈련할 때 다양한 유형의 계산을 사용합니다. AI 훈련은 수만 개의 이미지 또는 텍스트 샘플을 Transformer 기반 모델에 참조로 로드한 후 처리를 시작합니다. GPU에 있는 수천 개의 코어는 이미지나 비디오와 같은 크고 풍부한 데이터 세트를 매우 효율적으로 처리하며 더 빠른 결과가 필요한 경우 더 많은 클라우드 기반 GPU를 임대할 수 있습니다.

ChatGPT 열풍에 대한 냉담한 생각: 2025년 AI 에너지 소비는 인간의 에너지 소비를 초과할 수 있으며, AI 컴퓨팅은 품질과 효율성을 향상해야 합니다.

AI 추론은 계산을 수행하는 데 더 적은 에너지가 필요하지만 수억 명의 사용자를 자동으로 완성하는 경우 다음 단어가 무엇인지 결정하는 데 많은 계산과 예측이 필요하므로 장기 훈련보다 비용이 많이 듭니다. 많은 에너지.

예를 들어, Facebook의 AI 시스템은 매일 데이터 센터에서 수조 건의 추론을 관찰하는데, 이는 지난 3년 동안 두 배 이상 증가한 수치입니다. 연구에 따르면 대규모 언어 모델(LLM)에서 언어 번역 추론을 실행하면 초기 학습보다 2~3배 더 많은 에너지가 소비되는 것으로 나타났습니다.

수요 급증은 컴퓨팅 효율성 테스트

ChatGPT는 작년 말 전 세계적으로 인기를 얻었으며 GPT-4는 더욱 인상적입니다. 보다 에너지 효율적인 방법을 채택할 수 있다면 AI 추론은 더 넓은 범위의 장치로 확장되고 새로운 컴퓨팅 방식을 창출할 수 있습니다.

예를 들어 Microsoft의 하이브리드 루프는 클라우드 컴퓨팅 및 에지 장치를 동적으로 활용하는 AI 환경을 구축하도록 설계되었습니다. 이를 통해 개발자는 Azure 클라우드 플랫폼, 로컬 클라이언트 컴퓨터 또는 모바일 장치에서 AI 추론을 실행할 때 늦은 결정을 내릴 수 있습니다. 효율성을 극대화합니다. Facebook은 사용자가 런타임 시 추론을 계산할 위치를 효율적으로 결정할 수 있도록 AutoScale을 도입했습니다.

효율성을 높이기 위해서는 AI 발전을 방해하는 장애물을 극복하고 효과적인 방법을 찾는 것이 필요합니다.

샘플링과 파이프라이닝은 처리되는 데이터 양을 줄여 딥러닝 속도를 높일 수 있습니다. SALIENT(샘플링, 슬라이싱 및 데이터 이동용)는 MIT와 IBM의 연구원들이 중요한 병목 현상을 해결하기 위해 개발한 새로운 접근 방식입니다. 이 접근 방식은 1억 개의 노드와 10억 개의 에지를 포함하는 대규모 데이터 세트에서 신경망을 실행할 필요성을 크게 줄일 수 있습니다. 그러나 이는 정확성과 정밀도에도 영향을 미칩니다. 이는 다음에 표시할 소셜 게시물을 선택하는 데는 허용되지만 작업 현장에서 거의 실시간으로 안전하지 않은 조건을 식별하려는 경우에는 허용되지 않습니다.

Apple, Nvidia, Intel 및 AMD와 같은 기술 회사는 전용 AI 엔진을 프로세서에 통합한다고 발표했으며 AWS는 새로운 Inferentia 2 프로세서도 개발하고 있습니다. 그러나 이러한 솔루션은 여전히 ​​전통적인 폰 노이만 프로세서 아키텍처, 통합 SRAM 및 외부 DRAM 메모리를 사용합니다. 이 모든 것에는 데이터를 메모리 안팎으로 이동하는 데 더 많은 전력이 필요합니다.

인메모리 컴퓨팅이 해결책이 될 수 있습니다.

또한 연구원들은 컴퓨팅을 메모리에 더 가깝게 만드는 "메모리 벽"을 깨는 또 다른 방법을 발견했습니다.

메모리 벽은 메모리에 들어오고 나가는 데이터의 속도를 제한하는 물리적 장벽을 의미합니다. 이는 전통적인 아키텍처의 기본적인 한계입니다. 인메모리 컴퓨팅(IMC)은 메모리 모듈에서 직접 AI 매트릭스 계산을 실행하여 메모리 버스를 통해 데이터를 전송하는 오버헤드를 방지함으로써 이러한 문제를 해결합니다.

IMC는 상대적으로 정적이지만 반복적으로 액세스할 수 있는 대규모 가중치 데이터 세트를 포함하기 때문에 AI 추론에 적합합니다. 항상 일부 데이터 입력과 출력이 있지만 AI는 데이터를 동일한 물리적 단위에 유지하여 여러 계산에 효율적으로 사용하고 재사용할 수 있도록 함으로써 에너지 전송 비용과 데이터 이동 지연 시간을 상당 부분 제거합니다.

이 접근 방식은 칩 설계와 잘 작동하므로 확장성을 향상시킵니다. 새로운 칩을 사용하면 AI 추론 기술을 개발자의 컴퓨터에서 테스트한 후 데이터 센터를 통해 생산 환경에 배포할 수 있습니다. 데이터 센터는 많은 칩 프로세서가 탑재된 대규모 장비를 사용하여 엔터프라이즈 수준 AI 모델을 효율적으로 실행할 수 있습니다.

시간이 지남에 따라 IMC는 AI 추론 사용 사례의 지배적인 아키텍처가 될 것으로 예상됩니다. 이는 사용자가 대규모 데이터 세트와 수조 건의 계산을 처리할 때 완벽하게 이해됩니다. 메모리 벽 간에 데이터를 전송하는 데 더 이상 리소스가 낭비되지 않기 때문에 이 접근 방식은 장기적인 요구 사항을 충족하도록 쉽게 확장할 수 있습니다.

요약:

AI 산업은 이제 흥미로운 전환점을 맞이하고 있습니다. 생성 AI, 이미지 인식, 데이터 분석의 기술 발전으로 인해 머신러닝의 고유한 연결과 용도가 드러나고 있지만, 먼저 이러한 요구 사항을 충족할 수 있는 기술 솔루션을 구축해야 합니다. Gartner의 예측에 따르면 지금 더 지속 가능한 옵션이 제공되지 않는 한 AI는 2025년까지 인간 활동보다 더 많은 에너지를 소비할 것이기 때문입니다. 이런 일이 발생하기 전에 더 나은 방법을 찾아야 합니다!

위 내용은 ChatGPT 열풍에 대한 냉담한 생각: 2025년 AI 에너지 소비는 인간의 에너지 소비를 초과할 수 있으며, AI 컴퓨팅은 품질과 효율성을 향상해야 합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제