LLM 모델 크기의 규모는 단순한 기술을 넘어서는 것입니다. 이 AI가 할 수있는 일, 그들이 어떻게 행동 할 것인지, 그리고 결국 그들이 우리에게 어떻게 유용 할 것인지 결정하는 것은 본질적인 속성입니다. 회사 나 팀의 규모가 기능에 영향을 미치는 방식과 마찬가지로 LLM 모델 크기는 종종 실현하지 않고 매일 상호 작용하는 독특한 성격과 적성을 만듭니다.
목차
- 모델 크기 이해 : 숫자를 넘어서
- 중소형, 큰 스펙트럼
- 모델 크기의 GPU 및 컴퓨팅 인프라
- 모델 크기에 따른 컨텍스트 창 고려 사항
- 매개 변수 크기 및 리소스 요구 사항
- 크기 선택의 실질적인 영향
- 모델 크기의 숨겨진 치수
- 올바른 크기 선택 :이 질문을하십시오
- 모델 크기의 미래
- 결론
- 자주 묻는 질문
모델 크기 이해 : 숫자를 넘어서
LLM의 모델 크기는 일반적으로 매개 변수로 측정됩니다. 이는 교육 중에 모델이 배우는 조정 가능한 값입니다. 그러나 매개 변수 만 생각하는 것은 사람을 키나 몸무게 만으로만 판단하는 것과 같습니다. 그것은 이야기의 일부만을 말해줍니다.
모델 크기를 이해하는 더 좋은 방법은이를 AI의 "신경 용량"으로 생각하는 것입니다. 인간 뇌에 복잡한 네트워크를 형성하는 수십억 개의 뉴런이있는 것처럼, LLM은 언어를 이해하고 생성 할 수있는 패턴을 형성하는 매개 변수를 가지고 있습니다.
중소형, 큰 스펙트럼
큰 언어 모델을 선택할 때 크기는 성능, 효율성 및 비용을 결정하는 데 중요한 역할을합니다. LLM은 일반적으로 소형, 중간 및 큰 범주에 속하며, 각각은 가벼운 응용에서 복잡한 추론 작업에 이르기까지 다양한 사용 사례에 최적화됩니다.
작은 모델 (1-10B 매개 변수)
소규모 모델을 집중 기능을 갖춘 숙련 된 전문가로 생각하십시오.
- 스피드 챔피언 : 최소한의 자원을 소비하면서 매우 빠른 응답을 제공합니다.
- 장치 친화적 : 소비자 하드웨어 (노트북, 고급 전화)에서 로컬로 실행할 수 있습니다.
- 주목할만한 예 : PHI-2 (2.7B), Mistral 7B, Gemma 2b.
- 달콤한 장소 : 간단한 작업, 초안 생성, 분류, 특수 도메인.
- 한계 : 복잡한 추론, 미묘한 이해 및 깊은 전문 지식으로 어려움을 겪습니다.
실제 예 : 랩톱에서 실행되는 7B 매개 변수 모델은 간단한 이메일을 위해 톤을 유지할 수 있지만 Quantum Computing과 같은 복잡한 주제에 대한 기본 설명 만 제공합니다.
중간 모델 (10-70B 매개 변수)
중간 크기의 모델은 많은 응용 분야에서 다목적 능력 스위트 스팟에 도달했습니다.
- 균형 잡힌 공연자 : 광범위한 작업에서 좋은 깊이와 폭을 제공합니다.
- 리소스 효율 : 합리적으로 액세스 할 수있는 컴퓨팅 환경에서 배포 할 수 있습니다
- 주목할만한 예 : Llama 2 (70b), Claude Instant, Mistral Large
- Sweet Spot for : 일반 비즈니스 응용 프로그램, 포괄적 인 고객 서비스, 콘텐츠 생성
- 장점 : 복잡한 지침을 처리하고 상황에 따라 더 긴 대화 유지
실제 예 : 고객 서비스를 위해 13B 모델을 사용하는 소기업은이를 "절대 잠을 자지 않는 새로운 팀원이있는"것으로, 80%의 문의를 완벽하게 조달하면서 복잡한 문제를 확대 할시기를 알 수 있습니다.
대형 모델 (70b 매개 변수)
가장 큰 모델은 놀라운 기능을 갖춘 AI polymaths로 기능합니다.
- 추론 강국 : 적절한 추론으로 정교한 문제 해결 및 분석적 사고를 보여줍니다.
- 미묘한 이해 : 미묘한 맥락, 시사점 및 복잡한 지시를 파악합니다.
- 주목할만한 예 : GPT-4, Claude 3.5 Sonnet, Gemini Ultra (100b 매개 변수)
- Sweet Spot for : 연구 지원, 복잡한 창의적 작업, 정교한 분석
- 인프라 요구 : 실질적인 계산 리소스 및 전문 하드웨어가 필요합니다.
실제 예 : 복잡한 연구 프로젝트에서 소규모 모델은 사실적인 반응을 제공했지만, 가장 큰 모델은 분야에서 이종 아이디어를 연결하고, 새로운 접근법을 제안했으며, 근본적인 가정에서 결함을 확인했습니다.
또한 읽으십시오 : 어떤 O3-Mini 추론 수준이 가장 똑똑합니까?
모델 크기의 GPU 및 컴퓨팅 인프라
다양한 모델 크기에는 다양한 수준의 GPU 전력 및 컴퓨팅 인프라가 필요합니다. 소규모 모델은 소비자 등급 GPU에서 실행할 수 있지만 대규모 모델에는 대규모 병렬 처리 기능이있는 고성능 클러스터가 필요합니다.
작은 모델 (1-10B 매개 변수)
- 소비자 하드웨어 실행 가능 : 전용 GPU (8-16GB VRAM)로 고급 노트북에서 실행할 수 있습니다.
- 메모리 풋 프린트 : 일반적으로 정밀도에 따라 4-20GB의 VRAM이 필요합니다.
- 배포 옵션 :
- 단일 소비자 GPU의 로컬 배포 (RTX 3080)
- 최적화가있는 에지 장치 (양자화, 가지 치기)
- 4 비트 양자화로 가능한 모바일 배포
- 비용 효율성 : 클라우드 서비스에서 시간 $ 0.05-0.15/시간
중간 모델 (10-70B 매개 변수)
- 전용 하드웨어 필수 : 게임 또는 워크 스테이션 클래스 GPU가 필요합니다
- 메모리 요구 사항 : 완전 정밀도에 대한 20-80GB VRAM
- 배포 옵션 :
- 양자화 된 단일 고급 GPU (A10, RTX 4090)
- 최대 정밀도를위한 멀티 GPU 설정 (2-4 소비자 GPU)
- 중간 계층 인스턴스가있는 클라우드 기반 배포
- 비용 효율성 : 클라우드 서비스에서 $ 0.20-1.00/시간
대형 모델 (70b 매개 변수)
- 엔터프라이즈 등급 하드웨어 : 데이터 센터 GPU 또는 전문 AI 가속기
- 메모리 요구 : 최적의 성능을위한 80GB VRAM
- 배포 옵션 :
- 다중 고급 GPU (A100, H100)
- 여러 기계에 걸친 분산 컴퓨팅
- 최적화 된 인프라를 갖춘 전문 AI 클라우드 서비스
- 비용 효율성 : 클라우드 서비스에서 $ 1.50-10.00 /시간
모델 크기가 성능에 미치는 영향
수십억 또는 수십억 개의 매개 변수를 가진 더 큰 모델은 더 복잡한 언어 관계를 포착하고 미묘한 프롬프트를 처리 할 수 있지만 상당한 계산 자원이 필요합니다. 그러나 더 큰 것이 항상 더 나은 것은 아닙니다. 특정 작업을 위해 미세 조정 된 소규모 모델은 때때로 더 큰 일반화 된 모델보다 성능이 우수 할 수 있습니다. 따라서 적절한 모델 크기를 선택하는 것은 특정 응용 프로그램, 사용 가능한 리소스 및 원하는 성능 결과에 따라 다릅니다.
모델 크기에 따른 컨텍스트 창 고려 사항
모델 크기와 컨텍스트 창 기능의 관계는 간단한 비교에서 간과되는 또 다른 중요한 차원을 나타냅니다.
모델 크기 | 4K 컨텍스트 | 16K 컨텍스트 | 32k 컨텍스트 | 128K 컨텍스트 |
작은 (7b) | 14GB | 28GB | 48GB | 172GB |
중간 (40b) | 80GB | 160GB | 280GB | N/A |
큰 (175b) | 350GB | 700GB | N/A | N/A |
이 표는 소규모 모델이 광범위한 컨텍스트가 필요한 응용 프로그램에 더 실용적인 이유를 보여줍니다. 계약 분석을 위해 긴 컨텍스트를 사용하는 법적 문서 시스템에 따르면 32K 컨텍스트 창으로 7B 모델을 실행하는 것은 메모리 제약으로 인해 8K 컨텍스트로 제한된 40B 모델을 사용하는 것보다 더 실행 가능하다는 것을 발견했습니다.
매개 변수 크기 및 리소스 요구 사항
매개 변수 수와 리소스 요구 사항 사이의 관계는 매개 변수 효율성을 향상시키는 혁신을 통해 계속 발전하고 있습니다.
- Sparse Moe 모델 : Mixtral 8x7b와 같은 모델은 47b 효과적인 매개 변수가 밀도가 높은 70b 모델과 비교할 수있는 성능을 제공하면서 추론 중에 13b 모델에 가까운 리소스를 요구하는 방법을 보여줍니다.
- 매개 변수 효율적인 미세 조정 (PEFT) : LORA 및 QLORA와 같은 기술은 대형 모델의 사용자 정의를 가능하게하면서 매개 변수의 0.1-1% 만 업데이트하여 적응에 대한 하드웨어 요구 사항을 크게 줄입니다.
- RAG (Resprieved-Augmented Generation) : 외부 데이터 스터에 지식을 오프로드함으로써 소규모 모델은 지식 집약적 인 작업에서 더 큰 모델과 비교하여 성능을 발휘하여 리소스 부담을 계산에서 스토리지로 이동시킬 수 있습니다.
측면 | 작은 LLMS (1-10B) | 중간 LLMS (10-70B) | 큰 LLM (70b) |
예제 모델 | Phi-2 (2.7b), Mistral 7b, Tinyllama (1.1b) | Llama 2 (70b), Claude Instant, Mistral Large | GPT-4, Claude 3.7 Sonnet, Palm 2, Gemini Ultra |
메모리 요구 사항 | 2-20GB | 20-140GB | 140GB |
하드웨어 | 소비자 GPU, 고급 노트북 | 다중 소비자 GPU 또는 서버 등급 GPU | 다중 고급 GPU, 특수 하드웨어 |
추론 비용 (1m 토큰 당) | $ 0.01- $ 0.20 | $ 0.20- $ 1.00 | $ 1.00- $ 30.00 |
로컬 배치 | 소비자 하드웨어에서 쉽게 | 최적화로 가능합니다 | 일반적으로 클라우드 전용 |
응답 대기 시간 | 매우 낮은 (10-50ms) | 보통 (50-200ms) | 더 높은 (200ms-1) |
모델 크기를 줄이기위한 기술
LLM을보다 효율적이고 액세스 할 수 있도록하기 위해 성능을 크게 손상시키지 않고 크기를 줄이기 위해 몇 가지 기술이 개발되었습니다.
LLM을보다 효율적이고 액세스 할 수 있도록하기 위해 성능을 크게 손상시키지 않고 크기를 줄이기 위해 몇 가지 기술이 개발되었습니다.
- 모델 증류 :이 프로세스에는 더 큰 "교사"모델의 동작을 복제하기 위해 더 작은 "학생"모델을 훈련시켜 매개 변수가 적은 기능을 효과적으로 캡처합니다.
- 매개 변수 공유 : 모델의 여러 부분에서 동일한 매개 변수를 사용하는 방법을 구현하여 총 고유 한 매개 변수 수를 줄입니다.
- 양자화 : 모델의 가중치의 정밀도를 플로팅 포인트 수 (예 : 32 비트)에서 비트 표현 (예 : 8 비트)으로 줄여 메모리 사용이 줄어 듭니다.
기술 | 작은 LLMS (1-10B) | 중간 LLMS (10-70B) | 큰 LLM (70b) |
양자화 (4 비트) | 5-15% 품질 손실 | 3-10% 품질 손실 | 1-5% 품질 손실 |
지식 증류 | 적당한 이익 | 좋은 이익 | 우수한 이익 |
미세 조정 | 높은 충격 | 적당한 영향 | 제한된 영향 |
RLHF | 적당한 영향 | 높은 충격 | 높은 충격 |
검색 확대 | 매우 높은 영향 | 높은 충격 | 적당한 영향 |
프롬프트 엔지니어링 | 제한된 영향 | 적당한 영향 | 높은 충격 |
컨텍스트 창 확장 | 제한된 혜택 | 적당한 혜택 | 높은 혜택 |
크기 선택의 실질적인 영향
LLM의 크기는 계산 비용, 대기 시간 및 배포 타당성과 같은 요소에 직접적인 영향을 미칩니다. 올바른 모델 크기를 선택하면 성능, 리소스 효율성 및 실제 적용 가능성 간의 균형이 맞습니다.
컴퓨팅 요구 사항 : 숨겨진 비용
모델 규모는 계산 요구에 직접적인 영향을 미칩니다. 종종 간과되는 실제적인 고려 사항입니다. 더 큰 모델을 실행하는 것은 자전거에서 스포츠카로 업그레이드하는 것과 같습니다. 더 빨리 갈 수 있지만 연료 소비는 극적으로 증가합니다.
컨텍스트의 경우 7B 매개 변수 모델이 게임 랩탑에서 실행될 수 있지만 70B 모델은 일반적으로 수천 달러의 전용 GPU 하드웨어가 필요합니다. 가장 큰 100B 모델은 종종 여러 고급 GPU 또는 특수 클라우드 인프라를 요구합니다.
내가 말한 개발자는 그녀의 경험을 설명했습니다.“우리는 우리의 요구를 완벽하게 충족시키는 70B 모델로 시작했지만 인프라 비용은 마진을 먹는 것이 었습니다. 정밀하게 조정 된 13B 모델로 전환하면 비용이 80% 줄어들면서 성능에 영향을 미쳤습니다.”
응답 성 트레이드 오프
모델 크기와 응답 성 사이에는 고유 한 트레이드 오프가 있습니다. 작은 모델은 일반적으로 텍스트를 더 빨리 생성하므로 실시간 상호 작용이 필요한 응용 프로그램에 더 적합합니다.
최근 AI Hackathon에서 고객 서비스 챗봇을 구축 한 팀은 사용자가 우수한 답변에도 불구하고 큰 모델의 응답을 기다리는 데 좌절감을 느꼈습니다. 그들의 해결책? 계층화 된 접근법 - 즉각적인 응답을위한 작은 모델을 사용하고 복잡한 쿼리를 위해 더 큰 모델로 완벽하게 확대됩니다.
모델 크기의 숨겨진 치수
매개 변수 수를 넘어서 모델 크기는 메모리 사용, 추론 속도 및 실제 적용 가능성에 영향을 미칩니다. 이러한 숨겨진 차원을 이해하면 효율성과 기능 사이의 올바른 균형을 선택하는 데 도움이됩니다.
교육 데이터 품질 대 수량
매개 변수 수는 스포트라이트를 얻는 반면, 교육 데이터의 품질과 다양성은 종종 모델 성능에서 똑같이 중요한 역할을합니다. 고품질의 도메인 별 데이터에 대해 훈련 된 소규모 모델은 특수 작업에서 더 큰 모델을 능가 할 수 있습니다.
나는 법률 기술 스타트 업에서 직접 목격했으며, 이는 사용자 정의 훈련 된 7B 모델이 계약 분석에서 규모의 3 배를 능가하는 일반 목적 모델을 능가했습니다. 그들의 비밀? 일반적인 웹 텍스트가 아닌 철저한 법적 문서에 대한 독점적으로 교육.
건축 혁신 : 수량보다 품질
현대 건축 혁신은 영리한 디자인이 더 작은 크기를 보상 할 수 있음을 점점 더 많이 보여주고 있습니다. MOE (Mix-of-Experts) 아키텍처와 같은 기술을 통해 모델은 특정 작업에 대한 관련 매개 변수 만 활성화하여 더 작은 계산 발자국으로 대형 모델 성능을 달성 할 수 있습니다.
MOE 접근은 인간이 다양한 작업을 위해 전문화 된 뇌 영역에 의존하는 방식을 반영합니다. 예를 들어, 수학 문제를 해결할 때, 우리는 뇌 전체를 활성화하지 않습니다.
작업 별 크기 요구 사항의 출현
필드가 성숙함에 따라, 우리는 다른인지 작업이 뚜렷한 매개 변수 임계 값을 가지고 있음을 발견하고 있습니다. 연구에 따르면 기본 문법 및 사실 리콜과 같은 기능은 비교적 작은 크기 (1-10b 매개 변수)에서 나타나는 반면, 복잡한 추론, 컨텍스트에 대한 미묘한 이해 및 창의적 생성은 많은 매개 변수를 가진 상당히 더 큰 모델이 필요할 수 있습니다.
이러한 능력의 진보적 인 출현은 뇌 발달의 다른 단계에서 다른 능력이 나타나는 인간의인지 발달과 유사합니다.
올바른 크기 선택 :이 질문을하십시오
응용 프로그램의 LLM 크기를 선택할 때 다음을 고려하십시오.
- 사용 사례의 복잡성은 무엇입니까? 간단한 분류 또는 콘텐츠 생성은 작은 모델에서 잘 작동 할 수 있습니다.
- 응답 시간은 얼마나 중요합니까? 실시간 상호 작용이 필요한 경우 더 작은 모델이 바람직 할 수 있습니다.
- 어떤 컴퓨팅 리소스를 사용할 수 있습니까? 인프라 제약 조건에 대해 현실적입니다.
- 오류에 대한 귀하의 내성은 무엇입니까? 더 큰 모델은 일반적으로 사실적인 실수와 논리적 오류를 줄입니다.
- 예산은 무엇입니까? 더 큰 모델은 일반적으로 특히 규모로 실행하는 데 더 많은 비용이 듭니다.
모델 크기의 미래
모델 크기의 환경은 동적으로 진화하고 있습니다. 우리는 두 가지 모순 된 트렌드를 목격하고 있습니다. 모델은 더 커지고 있습니다 (개발중인 부라모수 모델의 소문으로) 동시에 희소성, 증류 및 양자화와 같은 기술을 통해 더욱 효율적으로 증가하고 있습니다.
이것은 컴퓨팅 이력 전반에 걸쳐 본 패턴을 반영합니다. 하드웨어 요구 사항이 줄어드는 동안 활력이 커집니다. 오늘날의 스마트 폰은 지난 수십 년 동안 슈퍼 컴퓨터를 능가하며 LLM에서 비슷한 진화를 볼 수 있습니다.
결론
모델 크기가 중요하지만 항상 더 큰 것은 아닙니다. 오히려 특정 요구에 맞는 올바른 LLM 모델 크기를 선택하는 것이 중요합니다. 이러한 시스템이 일상 생활과 계속 업그레이드하고 통합함에 따라 LLM 모델 크기의 인간적 의미를 이해하는 것이 점점 중요 해지고 있습니다.
가장 성공적인 구현은 종종 전문가 및 일반인이 효과적으로 협력하는 잘 구조화 된 조직과 같이 여러 모델 크기를 함께 사용합니다. 모델 크기를 적절한 사용 사례와 일치시킴으로써 자원을 낭비하지 않고 강력하고 실용적인 AI 시스템을 만들 수 있습니다.
주요 테이크 아웃
- LLM 모델 크기는 정확도, 효율성 및 비용에 영향을 미쳐 특정 사용 사례에 적합한 모델을 선택하는 것이 필수적입니다.
- 더 작은 LLM 모델 크기는 더 빠르고 리소스 효율적이며, 큰 수는 더 큰 깊이와 추론 능력을 제공합니다.
- 올바른 모델 크기를 선택하는 것은 사용 사례, 예산 및 하드웨어 제약 조건에 따라 다릅니다.
- 양자화 및 증류와 같은 최적화 기술은 모델 효율을 향상시킬 수 있습니다.
- 여러 모델 크기를 사용한 하이브리드 접근 방식은 성능 균형과 비용 효과적으로 균형을 맞출 수 있습니다.
자주 묻는 질문
Q1. LLM 크기가 성능에 미치는 영향은 무엇입니까?A. 큰 언어 모델 (LLM)의 크기는 정확도, 추론 기능 및 계산 요구 사항에 직접 영향을 미칩니다. 더 큰 모델은 일반적으로 복잡한 추론 및 미묘한 언어 작업에서 더 잘 수행하지만 훨씬 더 많은 리소스가 필요합니다. 소규모 모델은 덜 강력하지만 속도와 효율성에 최적화되어 실시간 응용 프로그램에 이상적입니다.
Q2. 소규모 LLM은 사용 사례에서 어떻게 다릅니 까?A. 소규모 LLM은 챗봇, 실시간 비서 및 프로세싱 전력이 제한된 모바일 애플리케이션과 같은 빠른 응답이 필요한 응용 프로그램에 적합합니다. 반면에 큰 LLM은 복잡한 문제 해결, 창의적 작문 및 더 깊은 상황에 대한 이해와 높은 정확도를 요구하는 연구 응용 프로그램에서 뛰어납니다.
Q3. LLM 크기를 선택할 때 어떤 요소를 고려해야합니까?A. LLM 크기의 선택은 작업의 복잡성, 대기 시간 요구 사항, 사용 가능한 계산 리소스 및 비용 제약을 포함한 여러 요인에 따라 다릅니다. 엔터프라이즈 애플리케이션의 경우 성능과 효율성 사이의 균형이 중요하지만 연구 중심 응용 프로그램은 속도보다 정확도를 우선시 할 수 있습니다.
Q4. 대형 LLM이 효율성을 위해 최적화 할 수 있습니까?A. 예, 대형 LLM은 양자화 (정밀도 감소), 가지 치기 (중복 매개 변수 제거) 및 지식 증류와 같은 기술을 통해 최적화 될 수 있습니다. 이러한 최적화는 성능을 크게 손상시키지 않고 메모리 소비 및 추론 시간을 줄이는 데 도움이됩니다.
위 내용은 LLM 모델 크기의 인간 측면의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

AI의 빠른 통합으로 악화 된 직장의 급성장 용량 위기는 점진적인 조정을 넘어 전략적 변화를 요구합니다. 이것은 WTI의 발견에 의해 강조됩니다. 직원의 68%가 작업량으로 어려움을 겪고 BUR로 이어

John Searle의 중국 방 주장 : AI 이해에 대한 도전 Searle의 사고 실험은 인공 지능이 진정으로 언어를 이해할 수 있는지 또는 진정한 의식을 가질 수 있는지 직접 의문을 제기합니다. Chines를 무시하는 사람을 상상해보십시오

중국의 기술 거대 기업은 서부에 비해 AI 개발 과정에서 다른 과정을 차트하고 있습니다. 기술 벤치 마크 및 API 통합에만 초점을 맞추는 대신 "스크린 인식"AI 비서 우선 순위를 정합니다.

MCP : AI 시스템이 외부 도구에 액세스 할 수 있도록 권한을 부여합니다 MCP (Model Context Protocol)를 사용하면 AI 애플리케이션이 표준화 된 인터페이스를 통해 외부 도구 및 데이터 소스와 상호 작용할 수 있습니다. MCP를 통해 MCP는 인류에 의해 개발되고 주요 AI 제공 업체가 지원하는 언어 모델 및 에이전트가 사용 가능한 도구를 발견하고 적절한 매개 변수로 전화 할 수 있습니다. 그러나 환경 충돌, 보안 취약점 및 일관되지 않은 교차 플랫폼 동작을 포함하여 MCP 서버 구현에는 몇 가지 과제가 있습니다. Forbes 기사 "Anthropic의 모델 컨텍스트 프로토콜은 AI 에이전트 개발의 큰 단계입니다."저자 : Janakiram MSVDocker는 컨테이너화를 통해 이러한 문제를 해결합니다. Docker Hub Infrastructure를 구축했습니다

최첨단 기술을 활용하고 비즈니스 통제력을 발휘하여 통제력을 유지하면서 수익성이 높고 확장 가능한 회사를 창출하는 비전 기업가가 사용하는 6 가지 전략. 이 안내서는

Google 사진의 새로운 Ultra HDR 도구 : 이미지 향상을위한 게임 체인저 Google Photos는 강력한 Ultra HDR 변환 도구를 도입하여 표준 사진을 활기차고 높은 동기 범위 이미지로 변환했습니다. 이 향상은 사진가 a

기술 아키텍처는 새로운 인증 문제를 해결합니다 에이전트 Identity Hub는 문제를 해결합니다. 많은 조직이 AI 에이전트 구현을 시작한 후에 만 기존 인증 방법이 기계 용으로 설계되지 않았다는 것을 발견 한 후에 만 발견합니다.

(참고 : Google은 회사 인 Moor Insights & Strategy의 자문 고객입니다.) AI : 실험에서 Enterprise Foundation까지 Google Cloud Next 2025는 실험 기능에서 엔터프라이즈 기술의 핵심 구성 요소까지 AI의 진화를 보여주었습니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

WebStorm Mac 버전
유용한 JavaScript 개발 도구
