>  기사  >  기술 주변기기  >  DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

PHPz
PHPz앞으로
2023-04-11 09:51:021144검색

​DPU 개발은 빠른 속도로 진입할 것으로 예상됩니다. DPU(데이터 처리 장치)는 CPU, GPU에 이어 "세 번째 메인 칩"으로 간주됩니다. 스마트 네트워크 카드 솔루션의 점진적인 성숙화, 글로벌 서버 출하량의 꾸준한 성장, L3 이상 스마트 드라이빙 차량의 기술 구현, 산업 제어 분야의 수요 증가로 인해 글로벌 및 국내 DPU 산업은 다음과 같은 목표를 달성할 것으로 예상됩니다. 급속 성장. .

글로벌 DPU 시장은 계속해서 호황을 누리고 있으며, 국내 DPU 시장도 이를 따라잡기 위해 가속도를 붙이고 있습니다. CCID Consulting의 "​​중국 DPU 산업 발전 백서​​"에 따르면, 글로벌 DPU 산업 시장 규모는 2020년 30억 5천만 달러에 달할 것으로 예상됩니다. 2025년에는 글로벌 DPU 산업 시장 규모가 245억 3천만 달러를 넘어설 것으로 예상됩니다. , 복합 성장률은 5.173%%입니다.

중국의 DPU 산업 시장 규모는 2020년에 3억 9천만 위안에 달했습니다. 2025년까지 중국의 DPU 산업 시장 규모는 170.6%의 복합 성장률로 565억 9천만 위안을 초과할 것으로 예상됩니다.

DPU 산업 체인 분석:

DPU 미드스트림 링크(DPU 칩 제조업체): 해외 거대 기업이 일시적으로 선두에 있고 국내 제조업체가 갈 준비가 되어 있습니다. Toubao 연구소의 데이터에 따르면 2020년 국내 DPU 시장에서 3대 국제 거대 기업인 NVIDIA, Broadcom 및 Intel의 점유율은 각각 55%, 36%, 9%에 달했습니다. 국내 제조사 중에는 화웨이, 알리바바, 바이두, 텐센트 등도 최근 자체 서버용 DPU를 자체 개발해 아웃소싱하는 등 주요 기능은 데이터, 스토리지, 보안이다.

DPU 업스트림 링크: EDA, IP 등은 모두 연구 개발의 중요한 기반입니다. 국내 EDA 시장은 오랫동안 해외 3대 기업이 장악해 왔으며 앞으로 돌파구가 마련될 것으로 예상된다. 수요와 공급이 함께 작용하여 IP 핵심 산업을 육성하고, 미래 수요는 새로운 채널을 열어줄 것입니다. 반도체 국산화는 계속 진화하고 있으며, 캠브리안, 베리실리콘 등 국내 IP 공급업체가 희소가치 높은 입지를 점유하게 될 전망이다.

DPU 다운스트림 애플리케이션: 다양한 꽃이 피고 미래 전망이 밝습니다. 핵심 DPU 시장은 서버를 하드웨어 캐리어로 사용하는 데이터 센터를 중심으로 이루어지며 다운스트림 시나리오는 클라우드 컴퓨팅, 고성능 컴퓨팅, 네트워크 보안, 엣지 컴퓨팅 및 기타 분야를 포괄합니다. 우리나라 관점에서는 첨단기술과 신기술, 디지털 변혁, 단말 소비 등 다양한 컴퓨팅 파워 수요 시나리오가 지속적으로 등장하고 있으며, 컴퓨팅 파워 강화 효과가 두드러진다.

ChatGPT 등 AI 기술의 전반적인 발전 추세에 따라 컴퓨팅 파워에 대한 수요가 두드러지고 있으며, DPU는 황금 발전 시기를 맞이할 것으로 예상됩니다. 글로벌 및 국내 DPU 산업 시장 규모는 해마다 증가하는 추세를 보이고 있습니다. 올해, 핵심 기업은 산업 발전 추세의 혜택을 누릴 것으로 예상됩니다.

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

DPU는 "세 번째 메인 칩"이 될 것으로 예상됩니다.

DPU(데이터 처리 칩 데이터 처리 장치)는 CPU, GPU에 이어 "세 번째 메인 칩"으로 간주됩니다. DPU(데이터 처리 장치)는 새로 개발된 특수 목적 프로세서입니다. 엔비디아가 2020년 발표한 DPU 제품 전략에서는 CPU, GPU에 이어 데이터센터 '세 번째 메인 칩'으로 자리매김했다. 칩 산업의 제조 공정이 지속적으로 개선되고 AI 등 디지털 기술이 발전하면서 칩 산업은 계속 혁신을 거듭하고 있습니다. 새로운 유형의 칩인 DPU의 출현은 이기종 컴퓨팅의 획기적인 사건입니다.

1. 컴퓨팅 성능 향상과 데이터 성장 사이에는 시저스 갭이 있으며, DPU에 대한 수요가 부각되고 있습니다

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

DPU는 데이터 처리를 핵심으로 하는 전용 데이터 처리 장치입니다. 기존 컴퓨팅 리소스의 네트워크, 보안 및 저장을 위한 것입니다. 기존 데이터 센터는 CPU를 주요 데이터 처리 장치로 사용하며, 대규모 인프라의 운영은 일반적으로 CPU 코어의 상당 부분을 차지하므로 데이터 처리 작업에 큰 어려움을 초래합니다.

DPU는 실제로 네트워크 프로토콜 처리의 초기 오프로드부터 후속 네트워크, 스토리지, 가상화의 오프로딩까지 업계에 오랫동안 존재해 왔습니다.

대관람차 데이터에 따르면 Amazon의 AWS는 2013년 초에 모든 데이터 센터 오버헤드(가상 머신을 위한 원격 리소스 제공, 암호화 및 암호 해독, 오류 추적, 보안 정책 및 기타 서비스 프로그램)를 전용 가속기에 투입하는 Nitro 제품을 개발했습니다. 실행을 위해. Nitro 아키텍처는 경량 하이퍼바이저와 맞춤형 하드웨어를 사용하여 가상 머신의 컴퓨팅(주로 CPU 및 메모리)과 I/O(주로 네트워크 및 스토리지) 하위 시스템을 분리하고 이를 PCIe 버스를 통해 연결하여 CPU 리소스를 30% 절약합니다.

2016~2017년 Alibaba Cloud는 X-Dragon 시스템 아키텍처를 제안했습니다. 이 아키텍처의 핵심은 MOC 카드이며 컴퓨팅 리소스, 스토리지 리소스 및 네트워크 리소스를 포함하여 상대적으로 풍부한 외부 인터페이스를 갖추고 있습니다. MOC 카드의 핵심인 X-Dragon SOC는 네트워크, I/O, 스토리지 및 주변 장치의 가상화를 균일하게 지원하고 가상 머신, 베어 메탈 및 컨테이너 클라우드에 대한 통합 리소스 풀을 제공합니다.

NetEase와 Xinxixi의 데이터에 따르면 2019년 미국 스타트업 기업인 Fungible은 DPU 개념을 최초로 제안한 F1DPU 제품을 출시했습니다. 2020년 10월 NVIDIA는 Mellanox 솔루션 DPU를 기반으로 Smart NIC라는 이름을 지정하여 DPU의 개념을 재정의했습니다. 2020년 엔비디아가 발표한 DPU 제품 전략은 이를 데이터센터에서 CPU, GPU에 이어 '세 번째 메인 칩'으로 자리매김하며 업계 열풍을 일으켰다.

2. DPU는 비용 절감과 효율성 향상을 목표로 업계의 Pain Point를 직접 해결합니다

DPU가 해결하고자 하는 핵심 문제는 인프라의 "비용 절감과 효율성 향상"입니다. "CPU 처리 효율이 낮아 GPU가 처리할 수 없는" 부하를 전용 DPU로 오프로드하여 전체 컴퓨팅 시스템의 효율성을 높이고 전체 시스템의 총 소유 비용(TCO)을 줄입니다.

과도한 CPU 리소스 로드는 업계의 문제점이며, Smart NIC는 DPU의 전신입니다. 통신 분야에서는 5G 시대의 도래, 클라우드 네트워크 통합, 가상 스위칭 등의 기술 도입으로 인해 서버 기반 네트워크 데이터 평면의 복잡성이 급격히 증가했습니다. 대규모 데이터 전송 작업은 CPU에서 수행되므로 네트워크 인터페이스 대역폭이 급격히 증가하고 CPU 리소스 로드가 과도해지며, 이는 호스트 CPU의 처리 성능을 향상시키기 위해 CPU가 컴퓨팅 성능을 애플리케이션에 방출하는 능력에 큰 영향을 미칩니다. 스마트 NIC(지능형 네트워크 카드)는 CPU의 일부 네트워크 기능(예: IP 단편화, TCP 분할 등)이 계산 가속화를 위해 네트워크 카드 하드웨어로 이전된 DPU의 전신이라고 볼 수 있습니다. . 차세대 DPU의 장점은 컴퓨팅 가속 엔진 역할을 할 수 있을 뿐만 아니라 네트워크 가상화, I/O 가상화, 스토리지 등의 작업을 보다 효율적으로 완료할 수 있는 컨트롤 플레인 기능도 갖추고 있다는 것입니다. 가상화하고 CPU의 컴퓨팅 성능을 완전히 활용하여 애플리케이션에 출시합니다.

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

기능면에서 DPU는 기본 서비스 통합, 네트워크 데이터 가속, 제로 트러스트 보호, 컴퓨팅과 스토리지 분리 등 다양한 기능을 가지고 있습니다. 현재 CPU 컴퓨팅 성능이 애플리케이션에 완전히 적용되지 못하는 현상, 느린 데이터 처리 속도, 신용으로 인한 데이터 유출, 스토리지 솔루션의 호환성 저하 등 많은 문제를 효과적으로 해결할 수 있습니다. 구체적으로:

1. DPU는 비즈니스와 인프라의 운영 분리를 실현합니다. DPU는 인프라 작업을 CPU에서 DPU로 전송하여 CPU 리소스를 확보하므로 더 많은 서버 CPU 코어를 사용하여 애플리케이션을 실행하고 비즈니스 계산을 완료할 수 있으므로 서버와 데이터 센터의 효율성이 향상됩니다.

2.DPU는 네트워크 데이터를 오프로드하여 성능을 향상시킵니다. DPU는 클라우드 네이티브 환경에 최적화되어 데이터 센터 수준의 소프트웨어 정의 및 하드웨어 가속 네트워킹, 스토리지, 보안 및 관리 서비스를 제공합니다. Programmer Inn 데이터에 따르면 Red Hat의 컨테이너화된 클라우드 플랫폼 서비스(PaaS) 0penShift는 DPU를 사용하여 데이터 센터 리소스 활용도를 최적화하고 네트워크 관련 데이터 처리(예: VxLan 및 IPSec 등)를 DPU로 오프로드하여 실행을 가속화합니다. 25Gb/s 네트워크 조건에서 Open Shift는 가속화를 위해 DPU를 배포하고 CPU 사용량의 1/3만으로 25Gb/s 성능을 달성할 수 있는 반면, 100Gb/s 네트워크 조건에서는 DPU를 배포하지 않는 시나리오는 100Gb 미만에 도달합니다. /s 네트워크 회선 속도, DPU는 10배의 성능 이점을 가져올 수 있습니다.

3.DPU는 제로 트러스트 보안 보호를 제공할 수 있습니다. 제로 트러스트는 기업이 내부 또는 외부에 기본 신뢰 옵션을 부여해서는 안 된다는 생각을 바탕으로 한 보안 중심 모델입니다. 제로 트러스트는 데이터 유출을 줄이고 무단 접근을 거부할 수 있으므로 데이터 보안에 있어 큰 가치를 갖습니다.

방법: DPU는 호스트에서 DPU로 제어 평면을 분산시켜 호스트 비즈니스와 제어 평면을 완전히 격리함으로써 기업에 제로 트러스트 보호를 제공하며, 데이터가 침투할 수 없어 보안이 보장됩니다.

DPU의 출현은 독립적이고 안전한 인프라 서비스를 제공하고 서버 애플리케이션 도메인으로부터 안전하게 격리하기 위해 각 서버에 "컴퓨터 앞에 컴퓨터"를 장착하는 것과 같습니다. 호스트가 손상되면 보안 제어 에이전트와 손상된 호스트 사이의 DPU 격리 계층이 공격이 데이터 센터 전체로 확산되는 것을 방지합니다. 이러한 방식으로 DPU는 기업이 컴퓨팅 플랫폼에 보안 에이전트를 직접 배포하기를 꺼리는 상황을 해결합니다. 애플리케이션 도메인과 완전히 격리된 DPU에 보안 에이전트를 배포함으로써 기업은 애플리케이션 워크로드에 대한 가시성을 확보하고 인프라 전반에 걸쳐 일관된 보안 정책을 시행합니다.

4. DPU는 "컴퓨팅과 스토리지 분리"를 실현합니다. BlueField SNAP 기술 솔루션은 서버 시스템의 데이터 입구에 컴퓨팅 리소스를 도입하고 DPU에서 애플리케이션 요구 사항을 충족하는 스토리지 솔루션을 독립적으로 구현하여 스토리지 제조업체가 데이터 비용을 절감할 수 있도록 지원합니다. 센터. 기존 소프트웨어 스택을 변경하지 않고도 고급 스토리지 프로토콜을 유연하게 배포하고 업그레이드할 수 있습니다. 스토리지 제조업체는 다양한 산업 애플리케이션을 위해 자체 팀에서 개발한 개방형 시스템 직접 연결 스토리지(DAS), 수직 확장(Scale-up), 수평 확장(Scale-out), 하이퍼컨버지드 아키텍처(Hyperconverged) 및 기타 스토리지 솔루션을 사용할 수 있습니다. 오버헤드 없이 다양한 애플리케이션 분야의 기존 비즈니스 처리 플랫폼과 데이터센터 인프라로 확장할 수 있으며, 보안 암호화, 데이터 압축, 로드 밸런싱 등 복잡하고 필요한 모든 기능은 DPU에 의해 완전히 투명하게 오프로드됩니다. 스토리지 업계의 혁신적인 알고리즘과 구현은 서버 운영 체제와 관계없이 DPU 아키텍처에 배포될 수 있습니다. DPU 기술은 스토리지 제조업체가 진정한 "컴퓨팅 및 스토리지 분리"를 달성하고 자체 제품의 기술적 이점을 최대한 활용하며 애플리케이션 요구 사항을 가장 효율적으로 충족할 수 있는 채널을 열 수 있도록 지원합니다.

3. 스마트 네트워크 카드를 기반으로 하는 FPGA 및 하이브리드 아키텍처 경로가 주류입니다. 스마트 NIC는 다중 CPU 코어 기반 ASIC과 FPGA 기반 스마트 네트워크 카드를 포함하여 DPU의 전신이라고 볼 수 있습니다. 기술이 발전함에 따라 FPGA, ASIC 및 SoC가 서로 병합되고 이들 사이의 경계가 점점 흐려지고 있습니다. 예를 들어, FPGA가 개발되면서 이제 많은 FPGA에 하드 코어가 통합되었습니다. 이 하드 코어는 하드웨어 프로그래밍의 관점에서 보면 ASIC이며, SoC는 FPGA의 반대이며 여기서는 ASIC으로 간주할 수 있습니다. 주로 특정 기능 칩이 아닌 프로그래밍이 불가능한 하드웨어를 의미합니다.

NIC는 네트워크 인터페이스 카드를 의미합니다. 기본적으로 NIC는 서버나 스토리지 박스에 연결하여 이더넷 네트워크에 연결하는 PCIe 카드입니다. DPU 기반 스마트 NIC는 단순한 연결을 넘어 기본 NIC의 경우 CPU가 NIC에서 수행해야 하는 네트워크 트래픽 처리를 구현합니다.

DPU 기반 스마트 NIC는 ASIC, FPGA 및 SoC 기반이 될 수 있습니다. 비용, 프로그래밍 용이성 및 유연성 측면에서 이러한 다양한 경로 간에는 다양한 장단점이 있습니다. 1) ASIC은 비용 효율적이고 최고의 가격/성능을 ​​제공할 수 있지만 유연성이 제한됩니다. NVIDIA ConnectX-5와 같은 ASIC 기반 NIC는 상대적으로 간단한 프로그래밍 가능 데이터 경로를 가질 수 있습니다. 궁극적으로 ASIC에 정의된 기능에 따라 기능이 제한되며, 이로 인해 특정 워크로드에 대한 지원이 불가능할 수 있습니다. 2) 이와 대조적으로 FPGA NIC(예: NVIDIA Innova-2 Flex)는 프로그래밍 가능성이 높습니다. 충분한 시간과 노력이 주어지면 사용 가능한 게이트의 제약 내에서 거의 모든 기능을 상대적으로 효율적으로 지원할 수 있습니다. 그러나 FPGA는 프로그래밍하기 어렵고 비용도 많이 듭니다. 3) 더 복잡한 사용 사례의 경우 Mellanox BlueField DPU – 프로그래밍 가능 스마트 NIC와 같은 SOC는 최고의 DPU 기반 스마트 NIC 구현으로 보이는 것을 제공합니다.

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

4. DPU의 핵심 가치는 컴퓨팅 성능의 오프로딩, 출시 및 확장에 있습니다. 이기종 컴퓨팅 성능의 상호 연결은 여러 분야에서 DPU의 급속한 발전을 촉진합니다

1. 즉, DPU를 사용하여 데이터 처리의 일부 기본 기능을 통합한 다음 이러한 기능을 CPU에서 오프로드하여 일부 애플리케이션에 대한 CPU의 컴퓨팅 성능을 향상시킵니다. DPU 가치의 일부는 컴퓨팅 성능의 이 부분을 절약하는 비용, 즉 DPU 자체의 비용에 반영됩니다. 따라서 DPU가 절약하는 컴퓨팅 파워가 많을수록, 또는 DPU 비용이 낮을수록 그 가치는 높아집니다. 동시에 DPU의 전문화로 인해 DPU가 네트워크, 스토리지, 보안 및 관리와 관련된 일부 제어 기능을 오프로드한 후 비즈니스 성능이 향상됩니다. 따라서 DPU의 또 다른 가치는 다음과 같습니다. 비즈니스와 사용자 경험을 위해 시간을 절약할 수 있습니다.

Technology Neighbor 데이터에 따르면 대규모 데이터 센터 시나리오에서 DPU의 컴퓨팅 전력 오프로드 기능을 사용하여 데이터 센터 세금을 줄일 수 있습니다. 데이터센터에서 처리되는 트래픽이 컴퓨팅 리소스의 30%를 차지하기 때문에 AWS는 비즈니스 프로그램을 실행하기 전 네트워크 데이터에 접근해 차지하게 되는 이러한 컴퓨팅 리소스를 '데이터센터세'라고 부른다.

데이터 보안 시나리오에서 DPU는 독립적이고 안전한 아키텍처로 인해 DPU 하드웨어의 암호화 및 복호화 알고리즘의 일부를 강화하여 물리적으로 격리된 방식으로 대용량 데이터에 대한 사용자의 데이터 보안 문제를 해결하고 외부에 서비스를 제공할 수 있습니다. 네트워크 서비스는 테넌트 간에 추가 보안 계층을 제공합니다.

DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?

2. 중국 정보 통신 기술 아카데미의 데이터에 따르면 컴퓨팅 파워 릴리스: 컴퓨팅 파워 릴리스는 메모리 및 주변 장치에 여러 번 액세스하기 위해 CPU 개입이 필요하지 않으며 불필요한 데이터 전송, 복사 및 컨텍스트 전환을 방지하고 데이터를 직접 완성합니다. 네트워크 카드 하드웨어에서 처리하여 최종적으로 데이터를 소비하는 애플리케이션에 전달됩니다. 기존의 CPU 중심 컴퓨터 아키텍처는 데이터 처리 중에 커널과 애플리케이션 간에 여러 번 데이터를 복사하고 액세스해야 하므로 엄청난 성능 손실이 발생합니다. 데이터 중심 DPU 아키텍처는 데이터 처리에 CPU가 과도하게 관여하는 문제를 효과적으로 개선할 수 있습니다. CPU는 데이터 처리 프로세스에 참여할 필요가 없으며 데이터는 애플리케이션, 관련 GPU 또는 저장 장치로 직접 전송됩니다. 과도한 CPU 로드로 인한 성능 병목 현상과 예외를 효과적으로 방지합니다.

DPU 아키텍처 및 기술을 사용하면 서버에서 실행되는 비즈니스 애플리케이션 및 운영 체제 커널이 간단한 로컬 스토리지 액세스 API를 사용하여 분산, 하이퍼 컨버지드 또는 소프트웨어 정의 스토리지 시스템에 효율적이고 투명하게 액세스할 수 있습니다. 스토리지 제조업체는 다양한 산업 애플리케이션을 위해 개발된 DAS(직접 연결 스토리지), 수직 확장(Scale-up), 수평 확장(Scale-out), 하이퍼컨버지드 아키텍처(Hyperconverged) 및 기타 스토리지 솔루션을 기존 비즈니스에서 무료로 홍보할 수 있습니다. 다양한 애플리케이션 분야의 처리 플랫폼과 데이터 센터 인프라, 보안 암호화, 데이터 압축, 로드 밸런싱 등 복잡하고 필요한 모든 기능은 DPU에 의해 완전히 투명하게 오프로드됩니다. 스토리지 업계의 혁신적인 알고리즘과 구현은 DPU 아키텍처에서 서버 운영 체제와 독립적으로 배포될 수 있습니다.

DPU 기술은 스토리지 제조업체가 진정한 "컴퓨팅과 스토리지의 분리"를 달성하고 자체 제품의 기술적 이점을 최대한 활용하며 애플리케이션 요구 사항을 충족하는 가장 효율적인 방법을 열도록 도와줍니다.

3. 컴퓨팅 파워 확장: 컴퓨팅 파워 확장은 혼잡을 효과적으로 방지하고, 분산 애플리케이션 작업 주기에서 시간이 많이 소요되는 통신 비율을 크게 줄이고, 전체 컴퓨팅 클러스터를 대규모로 개선하여 노드 간 네트워크 통신 병목 현상을 제거합니다. 클러스터 차원. 컴퓨팅 성능을 향상시키기 위해 업계는 다양한 경로를 통해 계속해서 발전하고 있습니다. 범용 CPU가 싱글 코어와 싱글 스레드 성능을 향상하고 온칩 멀티 코어를 확장해 컴퓨팅 성능을 지속적으로 크게 높이는 것은 어렵습니다. 단일 코어 칩 프로세스가 3nm로 업그레이드된 후 여러 코어를 중첩하여 컴퓨팅 성능을 높임으로써 개발 속도가 느려졌습니다. 코어 수가 증가하면 단위 컴퓨팅 성능당 전력 소비도 크게 증가합니다. 256개 코어, 총 컴퓨팅 파워 수준은 선형적으로 향상될 수 없습니다. 컴퓨팅 장치의 프로세스 진화는 대규모 컴퓨팅 성능에 대한 수요를 충족하기 위해 컴퓨팅 클러스터의 규모를 확장하고 네트워크 대역폭을 늘리며 분산 시스템을 통해 네트워크 대기 시간을 줄이는 것이 컴퓨팅 성능을 향상시키는 주요 수단이 되었습니다. 데이터 센터 클러스터의 수입니다.

5. DPU는 이기종 컴퓨팅 성능 상호 연결을 주도하며 애플리케이션 시장은 첨단 산업의 다양한 분야를 포괄합니다.

이기종 컴퓨팅 성능 상호 연결은 GPU, FPGA, ASIC 또는 기타 가속기 카드와 CPU 간의 데이터 연결입니다. CPU와 가속기 카드 사이는 물론 가속기 카드 사이에 형성된 칩 상호 연결 기술이 점점 더 많이 채택되고 있습니다. PCIe는 매우 일반적인 표준화된 설계를 가지고 있지만 제한된 대역폭으로 인해 병목 현상이 발생합니다. CXL, Gen-Z 등 차세대 인터커넥트 기술은 다양한 고속 인터커넥트 프로토콜 통합을 위한 샌드박스로서 '메모리'를 채택하고 확장함으로써 유연한 고속 인터커넥트 캐리어가 되기에 가장 적합합니다. -centric" 상호 연결 프로토콜은 단일 섀시 외부에서 마이크로초 미만의 대기 시간 기술을 확장할 수 있는 기회를 제공하여 차세대 컴퓨팅 아키텍처 혁신의 가능성을 창출합니다.

정보화 구축 및 응용이 심화됨에 따라 시장은 계속해서 성장하고 있으며 통신, 인터넷, 스마트 드라이빙, AI 서버 및 기타 산업 분야의 DPU 산업 응용에 대한 수요는 계속 증가하고 있습니다.

1) 통신 분야에서는 3대 통신사가 적극적으로 배치, 제품 검증을 추진하고 있으며, DPU 산업 발전을 촉진하기 위해 산업 체인의 제조업체와 협력할 의향이 있습니다.

2) 인터넷 분야에서는 클라우드 컴퓨팅, 클라우드 네이티브 및 기타 비즈니스 시나리오의 개발 요구에 따라 데이터 센터 진화의 초점인 DPU가 주요 클라우드 공급업체로부터 광범위한 관심을 받았습니다. 선도적인 제조업체는 비용을 절감하고 효율성을 높여 이익을 극대화하기 위해 자체 연구 또는 전략적 협력에 자원을 투자했습니다.

3) 지능형 주행 분야에서는 국내외 칩 제조업체들이 지능형 주행 도입을 가속화하고, 지속적으로 연구 개발 효율성을 향상시키며, DPU 시장 발전의 기반을 마련하고 있습니다.

4) AI 서버 등 분야에서는 디지털 경제, '동쪽 번호 매기기, 서쪽 컴퓨팅' 등 정책의 영향으로 중국의 AI 서버, 금융, 터미널 정부 및 기업 등 분야가 지속적으로 성장하고 있다. 빠르게 발전하고 컴퓨팅 성능에 대한 수요가 계속 증가함에 따라 기존 기술은 더 이상 현재 비즈니스 개발 요구 사항을 충족할 수 없습니다. DPU는 성숙한 하드웨어 가속 솔루션을 제공하고 전체 시스템의 효율성을 향상하며 AI 개발을 위한 기술 지원을 제공할 수 있습니다. 서버, 금융 및 기타 분야에서 DPU 산업의 미래 발전 과정을 종합적으로 홍보합니다.

위 내용은 DPU가 ChatGPT와 충돌하면 컴퓨팅 성능 효율성에 어떤 불꽃이 일어날까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제