>기술 주변기기 >일체 포함 >GPU 성능을 극대화하는 방법

GPU 성능을 극대화하는 방법

WBOY
WBOY앞으로
2023-08-31 17:09:091330검색

AI 프로젝트를 가속화하는 기본 방법은 GPU 클러스터의 크기를 늘리는 것입니다. 그러나 GPU 공급이 점점 부족해지면서 비용도 점점 더 높아지고 있습니다. 많은 AI 회사가 조달된 자본의 80% 이상을 컴퓨팅 리소스에 지출하는 것은 이해할 수 있습니다. GPU는 AI 인프라의 핵심이므로 최대한 많은 예산을 할당해야 합니다. 그러나 이러한 높은 비용 외에도 GPU 성능을 향상시키기 위해 고려해야 할 다른 방법이 있으며, 이는 점점 더 시급해지고 있습니다

GPU 성능을 극대화하는 방법

GPU 클러스터를 확장하는 것은 쉬운 작업이 아닙니다. 특히 생성 인공지능의 급격한 확장은 GPU 부족 현상으로 이어진다. NVIDIA A100 GPU는 영향을 받은 최초의 GPU 중 하나였으며 현재는 극히 드물며 일부 버전의 리드 타임은 최대 1년입니다. 이러한 공급망 문제로 인해 많은 사람들이 고급형 H100을 대안으로 고려하게 되었지만 가격은 분명히 더 높습니다. 업계를 위한 차세대 생성 AI 솔루션을 만들기 위해 자체 인프라에 투자하는 기업가의 경우 기존 GPU의 효율성을 한 방울도 남김없이 짜내야 합니다.

기업이 네트워크 수정을 제안할 수 있는 방법을 살펴보겠습니다. 더 많은 컴퓨팅 투자를 얻기 위한 AI 인프라의 스토리지 설계

데이터 문제

기존 컴퓨팅 인프라의 활용도를 최적화하는 것이 중요한 접근 방식입니다. GPU 활용도를 극대화하려면 느린 데이터 전송 속도 문제를 해결하여 GPU가 높은 부하에서도 계속 실행되도록 해야 합니다. 일부 사용자는 GPU 사용률이 20%에 불과하며 이는 용납할 수 없는 수준입니다. 결과적으로 AI 팀은 AI 투자 수익을 극대화할 수 있는 최선의 방법을 찾고 있습니다.

GPU는 AI의 엔진입니다. 자동차 엔진이 작동하려면 휘발유가 필요한 것처럼 GPU도 작업을 수행하려면 데이터가 필요합니다. 데이터 흐름을 제한하면 GPU 성능도 제한됩니다. GPU의 효율성이 50%에 불과하면 AI 팀의 생산성이 감소하고, 프로젝트를 완료하는 데 걸리는 시간은 두 배가 되며, 투자 수익은 절반으로 줄어듭니다. 따라서 인프라 설계에서는 GPU가 최대 효율로 작동하고 예상되는 컴퓨팅 성능을 제공할 수 있는지 확인하는 것이 중요합니다

DGX A100 및 H100 서버 모두 최대 30TB의 내부 스토리지를 갖추고 있다는 점에 유의하는 것이 중요합니다. 용량. 하지만 평균 모델 크기가 약 150TB인 것을 고려하면 대부분의 딥러닝 모델에는 이 용량이 부족합니다. 따라서 GPU에 데이터를 제공하려면 추가 외부 데이터 저장소가 필요합니다.

저장소 성능

AI 저장소는 일반적으로 서버, NVMe SSD 및 저장소 소프트웨어로 구성되며 일반적으로 간단한 장치에 패키지됩니다. GPU가 수만 개의 코어로 대용량 데이터를 병렬 처리하도록 최적화된 것처럼 스토리지도 고성능이 필요합니다. 인공 지능에서 스토리지에 대한 기본 요구 사항은 전체 데이터 세트를 저장하고 데이터를 라인 속도(즉, 네트워크가 허용하는 가장 빠른 속도)로 GPU에 전송하여 GPU가 효율적이고 포화 상태로 실행되도록 하는 것입니다. 그보다 적은 것은 매우 비싸고 귀중한 GPU 리소스의 낭비를 초래합니다.

최고 속도로 실행되는 10개 또는 15개 GPU 서버 클러스터를 따라갈 수 있는 속도로 데이터를 제공하여 GPU 리소스를 최적화하고 전반적인 환경을 개선하는 데 도움을 줍니다. 예산을 최대한 활용하여 전체 인프라를 최대한 활용하세요

실제로 AI에 최적화되지 않은 스토리지 공급업체는 스토리지에서 전체 성능을 추출하기 위해 많은 클라이언트 컴퓨팅 노드가 필요하다는 것이 과제입니다. . 하나의 GPU 서버로 시작하는 경우 단일 GPU 서버를 프로비저닝하는 성능을 달성하려면 많은 스토리지 노드가 필요합니다.

재작성된 콘텐츠: 모든 벤치마크 결과를 신뢰하지 마십시오. 여러 GPU 서버를 사용할 때 쉽게 더 많은 대역폭을 얻을 수 있지만 AI는 스토리지에 의존하며 필요할 때마다 모든 성능을 버립니다. 단일 GPU 노드에 제공됩니다. . 필요한 초고성능을 제공할 수 있는 스토리지를 선택하되 단일 스토리지 노드에서 수행하고 이 성능을 단일 GPU 노드에 제공할 수 있어야 합니다. 이는 시장 도달 범위를 제한할 수 있지만 AI 프로젝트 여정을 시작할 때 우선순위입니다

네트워크 대역폭

점점 더 강력해지는 컴퓨팅 성능으로 인해 기타 인공 지능 인프라에 대한 수요가 증가하고 있습니다. 대역폭 요구 사항이 새로운 수준에 도달하여 스토리지 장치에서 네트워크를 통해 전송되고 매초 GPU에서 처리되는 막대한 양의 데이터를 관리할 수 있게 되었습니다. 저장 장치의 네트워크 어댑터(NIC)는 GPU 서버 내부의 어댑터에 연결되는 네트워크의 스위치에 연결됩니다. NIC는 올바르게 구성된 경우 병목 현상 없이 1개 또는 2개의 GPU 서버의 NIC에 직접 스토리지를 연결할 수 있으며, 대역폭이 일정 기간 동안 스토리지에서 GPU로 최대 데이터 로드를 전달할 만큼 충분히 높도록 보장합니다. 포화 상태를 유지하는 것이 핵심이며 많은 경우 이를 수행하지 못하면 GPU 사용률이 낮아집니다.

GPU 오케스트레이션

인프라가 구축되면 GPU 오케스트레이션 및 할당 도구는 팀이 리소스를 보다 효율적으로 조립 및 할당하고, GPU 사용량을 이해하고, 더 높은 수준의 리소스 제어를 제공하고, 병목 현상을 줄이고 개선하는 데 큰 도움이 됩니다. 이용. 이러한 도구는 기본 인프라가 올바른 데이터 흐름을 보장할 수 있는 경우에만 예상대로 이러한 모든 작업을 수행할 수 있습니다.

인공 지능 분야에서는 데이터가 핵심 입력입니다. 따라서 기존 엔터프라이즈 플래시는 엔터프라이즈 미션 크리티컬 애플리케이션(예: 재고 관리 데이터베이스 서버, 이메일 서버, 백업 서버)에 사용될 때 AI와 관련이 없습니다. 이러한 솔루션은 레거시 프로토콜을 사용하여 구축되었으며 AI용으로 용도가 변경되었지만 이러한 레거시 기반은 GPU 및 AI 워크로드에 대한 성능을 제한하고 가격을 높이며 지나치게 비싸고 불필요한 기능에 돈을 낭비합니다

현재 글로벌 환경에서는 GPU 부족과 인공 지능 산업의 급속한 발전으로 인해 GPU 성능을 극대화하는 방법을 찾는 것이 그 어느 때보다 중요해졌습니다. 특히 단기적으로는 더욱 그렇습니다. 딥 러닝 프로젝트가 번창함에 따라 이러한 방법은 비용을 절감하고 성과를 향상시키는 몇 가지 주요 방법이 됩니다

위 내용은 GPU 성능을 극대화하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제