>  기사  >  백엔드 개발  >  CNCF의 클라우드 네이티브 AI 백서 심층 분석

CNCF의 클라우드 네이티브 AI 백서 심층 분석

WBOY
WBOY원래의
2024-07-17 15:26:57233검색

A Deep Dive into CNCF’s Cloud-Native AI Whitepaper

KubeCon EU 2024에서 CNCF는 첫 번째 클라우드 네이티브 AI 백서를 출시했습니다. 이 기사는 본 백서의 내용에 대한 심층 분석을 제공합니다.

2024년 3월 KubeCon EU에서 클라우드 네이티브 컴퓨팅 재단(CNCF)은 클라우드 네이티브 인공 지능(CNAI)에 대한 첫 번째 세부 백서를 발표했습니다1. 이 보고서에서는 클라우드 네이티브 기술과 인공 지능 통합의 현재 상태, 과제 및 향후 개발 방향을 광범위하게 살펴봅니다. 이 글에서는 이 백서의 핵심 내용을 자세히 살펴보겠습니다.

이 글은 미디엄 MPP 기획서에 처음 게재되었습니다. 미디엄 유저라면 미디엄에서 저를 팔로우해주세요. 정말 감사합니다.

클라우드 네이티브 AI란 무엇입니까?

클라우드 네이티브 AI는 클라우드 네이티브 기술 원리를 사용하여 인공 지능 애플리케이션과 워크로드를 구축하고 배포하는 것을 의미합니다. 여기에는 마이크로서비스, 컨테이너화, 선언적 API, CI/CD(지속적 통합/지속적 배포) 등 기타 클라우드 기반 기술을 활용하여 AI 애플리케이션의 확장성, 재사용성, 운영성을 향상시키는 것이 포함됩니다.

다음 다이어그램은 백서를 기반으로 다시 그린 클라우드 네이티브 AI의 아키텍처를 보여줍니다.

A Deep Dive into CNCF’s Cloud-Native AI Whitepaper

클라우드 네이티브 AI와 클라우드 네이티브 기술의 관계

클라우드 네이티브 기술은 AI 애플리케이션의 개발과 운영을 더욱 효율적으로 만들어주는 유연하고 확장 가능한 플랫폼을 제공합니다. 컨테이너화 및 마이크로서비스 아키텍처를 통해 개발자는 AI 모델을 빠르게 반복하고 배포하는 동시에 시스템의 고가용성과 확장성을 보장할 수 있습니다. Kuuch는 리소스 예약, 자동 확장 및 서비스 검색입니다.

이 백서는 클라우드 네이티브 AI와 클라우드 네이티브 기술, 즉 클라우드 네이티브 인프라에서 AI를 실행하는 것 사이의 관계를 설명하는 두 가지 예를 제공합니다.

  • Hugging Face는 Microsoft와 협력하여 Azure에서 Hugging Face 모델 카탈로그를 출시합니다2
  • OpenAI Kubernetes를 7,500개 노드로 확장3

클라우드 네이티브 AI의 과제

AI 애플리케이션을 위한 탄탄한 기반을 제공함에도 불구하고 AI 워크로드를 클라우드 네이티브 플랫폼과 통합하는 데는 여전히 과제가 있습니다. 이러한 과제에는 데이터 준비 복잡성, 모델 교육 리소스 요구 사항, 다중 테넌트 환경에서 모델 보안 및 격리 유지 관리가 포함됩니다. 또한 클라우드 네이티브 환경의 리소스 관리 및 예약은 대규모 AI 애플리케이션에 매우 중요하며 효율적인 모델 교육 및 추론을 지원하려면 추가 최적화가 필요합니다.

클라우드 네이티브 AI 개발 경로

백서는 AI 워크로드를 더 잘 지원하기 위한 리소스 예약 알고리즘 개선, AI 애플리케이션의 성능과 보안을 강화하기 위한 새로운 서비스 메시 기술 개발, 클라우드 네이티브의 혁신과 표준화 촉진 등 클라우드 네이티브 AI를 위한 여러 개발 경로를 제안합니다. 오픈소스 프로젝트와 커뮤니티 협업을 통한 AI 기술.

클라우드 네이티브 AI 기술 환경

클라우드 네이티브 AI에는 컨테이너와 마이크로서비스부터 서비스 메시와 서버리스 컴퓨팅에 이르기까지 다양한 기술이 포함됩니다. Kubernetes는 AI 애플리케이션을 배포하고 관리하는 데 중심적인 역할을 하며, Istio 및 Envoy와 같은 서비스 메시 기술은 강력한 트래픽 관리 및 보안 기능을 제공합니다. 또한 Prometheus 및 Grafana와 같은 모니터링 도구는 AI 애플리케이션의 성능과 안정성을 유지하는 데 매우 중요합니다.

아래는 백서에 제공된 Cloud-Native AI 환경도입니다.

  • 쿠버네티스
  • 화산
  • 함대
  • 쿠베레이
  • 엔비디아 NeMo
  • 유니콘
  • 쿠에
  • 불꽃

분산 교육

  • Kubeflow 교육 운영자
  • 파이토치 DDP
  • TensorFlow 분산
  • MPI 열기
  • 딥스피드
  • 메가트론
  • 호로보드
  • 아프라

ML 제공

  • 케이서브
  • 셀던
  • VLLM
  • TGT
  • 스카이파일럿

CI/CD - 배송

  • Kubeflow 파이프라인
  • 엠플로우
  • TFX
  • BentoML
  • MLRun

데이터 과학

  • 주피터
  • Kubeflow 노트북
  • 파이토치
  • 텐서플로우
  • 아파치 제플린

워크로드 관찰성

  • 프로메테우스
  • 인플럭스db
  • 그라파나
  • 가중치 및 편향(wandb)
  • OpenTelemetry

AutoML

  • 하이퍼옵트
  • 옵투나
  • Kubeflow Katib
  • NNI

거버넌스 및 정책

  • 키베르노
  • Kyverno-JSON
  • OPA/게이트키퍼
  • StackRox 마인더

데이터 아키텍처

  • 클릭하우스
  • 아파치 피노
  • 아파치 드루이드
  • 카산드라
  • 실라DB
  • 하둡 HDFS
  • Apache HBase
  • 프레스토
  • 트리노
  • 아파치 스파크
  • 아파치 플링크
  • 카프카
  • 펄서
  • 유체
  • 멤캐시드
  • 레디스
  • 알룩시오
  • 아파치 슈퍼세트

벡터 데이터베이스

  • 크로마
  • 비비다
  • 사분면
  • 솔방울
  • 확장
  • 레디스
  • 포스트그레스 SQL
  • 엘라스틱서치

모델/LLM 관찰 가능성

  • • 트루렌스
  • 랭퓨즈
  • 심층 점검
  • OpenLLMetry

결론

마지막으로 다음과 같은 핵심 사항을 요약합니다.

  • 오픈소스 커뮤니티의 역할 : 백서는 오픈소스 프로젝트와 광범위한 협업을 통해 혁신을 가속화하고 비용을 절감하는 등 클라우드 네이티브 AI를 발전시키는 데 있어 오픈소스 커뮤니티의 역할을 나타냅니다.
  • 클라우드 네이티브 기술의 중요성 : 클라우드 네이티브 원칙에 따라 구축된 클라우드 네이티브 AI는 반복성과 확장성의 중요성을 강조합니다. 클라우드 네이티브 기술은 특히 리소스 스케줄링 및 서비스 확장성 측면에서 AI 애플리케이션을 위한 효율적인 개발 및 운영 환경을 제공합니다.
  • 기존 과제: 많은 이점에도 불구하고 클라우드 네이티브 AI는 여전히 데이터 준비, 모델 교육 리소스 요구 사항, 모델 보안 및 격리 문제에 직면해 있습니다.
  • 향후 개발 방향 : 백서는 AI 워크로드 지원을 위한 리소스 스케줄링 알고리즘 최적화, 성능 및 보안 강화를 위한 새로운 서비스 메시 기술 개발, 오픈 소스 프로젝트 및 커뮤니티 협업을 통한 기술 혁신 및 표준화 촉진 등의 개발 경로를 제안합니다. .
  • 핵심 기술 구성요소 : 클라우드 네이티브 AI와 관련된 핵심 기술로는 컨테이너, 마이크로서비스, 서비스 메시, 서버리스 컴퓨팅 등이 있습니다. Kubernetes는 AI 애플리케이션을 배포하고 관리하는 데 중심적인 역할을 하며, Istio 및 Envoy와 같은 서비스 메시 기술은 필요한 트래픽 관리 및 보안을 제공합니다.

자세한 내용은 클라우드 네이티브 AI 백서4를 다운로드하세요.

참조 링크


  1. 백서: ↩︎

  2. Hugging Face는 Microsoft와 협력하여 Azure에서 Hugging Face 모델 카탈로그를 출시합니다 ↩︎

  3. OpenAI Kubernetes를 7,500개 노드로 확장: ↩︎

  4. 클라우드 네이티브 AI 백서: ↩︎

위 내용은 CNCF의 클라우드 네이티브 AI 백서 심층 분석의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.