찾다
기술 주변기기일체 포함작은 언어 모델의 미세 조정 및 추론

소개

의료용 챗봇을 구축하고 거대한 자원이 풍성한 대형 언어 모델 (LLM)이 필요에 따라 과잉처럼 보인다고 상상해보십시오. 그곳에서 Gemma와 같은 작은 언어 모델 (SLM)이 진행되는 곳입니다. 이 기사에서는 SLM이 집중적이고 효율적인 AI 작업을위한 완벽한 솔루션이 될 수있는 방법을 살펴 봅니다. 의료와 같은 전문 영역을 위해 Gemma를 미세 조정하는 것보다 독특하게 만드는 이유를 이해함으로써 전체 프로세스를 안내해 드리겠습니다. 미세 조정이 성능을 향상시킬뿐만 아니라 비용을 슬래시하고 대기 시간을 줄여 SLM을 AI 환경에서 게임 체인저로 만드는 방법을 배웁니다. 예산이 적은 예산 작업을 수행하든 Edge 장치에 배포하든이 기사는 특정 요구에 대해 SLM을 최대한 활용하는 방법을 보여줍니다. 이 기사는 Datahack Summit 2024에서 Gemma와 같은 작은 언어 모델의 미세 조정 및 추론에 대한 Nikhil Rana와 Joinal 에게 최근의 대화를 바탕으로합니다 .

학습 결과

  • LLMS (Large Language Models)에 대한 젬마와 같은 작은 언어 모델 (SLM)의 장점을 이해하십시오.
  • 도메인 별 작업을위한 미세 조정 SLM의 중요성을 배우고 성능 향상.
  • 예제와 주요 고려 사항이있는 SLM을 미세 조정하는 단계별 프로세스를 탐색하십시오.
  • Edge 장치에서 SLM을 배포하고 대기 시간을 줄이기위한 모범 사례를 발견하십시오.
  • SLM을 미세 조정하는 일반적인 과제와 효과적으로 극복하는 방법을 식별하십시오.

목차

  • 소개
  • 작은 언어 모델은 무엇입니까?
  • LLM을 통한 SLM의 장점
  • 젬마는 무엇입니까?
  • 다른 버전의 젬마
  • 미세 조정이란 무엇입니까?
  • 미세 조정 과정
  • 추론에 SLM 대 LLM을 언제 사용해야합니까?
  • SLM을 배포하기 전에 고려 사항
  • Edge 장치에서 SLM을 배포하기위한 MediaPipe 및 WebAssembly
  • 오늘 LLMS는 어떻게 배포됩니까?
  • 더 적은 매개 변수로 SLM이 어떻게 잘 작동 할 수 있습니까?
  • 결론
  • 자주 묻는 질문

작은 언어 모델은 무엇입니까?

작은 언어 모델은보다 일반적으로 알려진 대형 언어 모델의 스케일 다운 버전입니다. 광대 한 데이터 세트로 훈련하고 상당한 계산 자원이 필요한 더 큰 상대와 달리 SLM은 더 가볍고 효율적으로 설계되었습니다. 속도, 메모리 및 처리 전력이 중요한 특정 작업과 환경을 목표로합니다.

SLM은 배치시, 특히 Edge Computing 시나리오에서는 대기 시간 감소 및 저렴한 비용을 포함하여 몇 가지 장점을 제공합니다. LLM에 대한 광범위한 일반 지식을 자랑하지는 않지만 도메인 별 데이터로 미세 조정하여 정확한 작업을 수행 할 수 있습니다. 따라서 모바일 애플리케이션 또는 저전력 장치와 같이 빠르고 리소스 효율적인 응답이 필수적인 시나리오에 이상적입니다.

SLM은 성능과 효율성 사이의 균형을 유지하므로 LLM과 관련된 무거운 오버 헤드없이 AI 기반 솔루션을 최적화하려는 비즈니스 또는 개발자에게 강력한 대안이됩니다.

작은 언어 모델의 미세 조정 및 추론

LLM을 통한 SLM의 장점

소규모 언어 모델은 더 큰 상대, 대형 언어 모델, 특히 효율성, 정밀도 및 비용 효율성 측면에서 몇 가지 장점을 제공합니다.

맞춤형 효율성과 정밀도

SLM은 구체적으로 타겟팅되고 종종 틈새 작업을 위해 설계되어 일반 목적 LLM이 쉽게 도달하지 못할 수있는 정밀도를 달성 할 수 있습니다. SLM은 특정 도메인 또는 응용 프로그램에 중점을 두어 일반화 된 지식의 불필요한 오버 헤드없이 매우 관련성이 높은 출력을 생성 할 수 있습니다.

속도

크기가 작기 때문에 SLM은 처리에서 지연 시간이 적어 AI 중심 고객 서비스, 데이터 분석 또는 빠른 응답이 중요한 대화 에이전트와 같은 실시간 응용 프로그램에 적합합니다. 이 처리 시간이 줄어드는 것은 사용자 경험, 특히 모바일 또는 임베디드 시스템과 같은 자원으로 제한된 환경에서 사용자 경험을 향상시킵니다.

비용

SLM의 계산 복잡성이 감소하면 재무 비용이 낮아집니다. 교육 및 배포는 자원 집약적이지 않아 SLM이 더 저렴합니다. 이것은 소기업 또는 특정 사용 사례에 이상적입니다. SLM에는 교육 데이터 및 인프라가 적으므로 가벼운 응용 프로그램을위한 LLM에 대한 비용 효율적인 대안을 제공합니다.

젬마는 무엇입니까?

Gemma는 정밀도와 효율성으로 특정 사용 사례를 해결하도록 설계된 작은 언어 모델 (SLM)의 두드러진 예입니다. 언어 모델의 환경에서 맞춤형 솔루션으로 두드러지며, 대상 응용 프로그램에서 고성능을 유지하면서 소규모 모델의 강점을 활용하는 것을 목표로합니다.

Gemma는 다양한 버전에서 다양한 작업에 최적화 된 다목적 성으로 유명합니다. 예를 들어, 다양한 버전의 Gemma는 고객 지원에서 의료 또는 법률 분야와 같은보다 전문화 된 도메인에 이르기까지 요구됩니다. 이 버전은 각각의 응용 프로그램 영역에 맞게 기능을 개선하여 모델이 관련성 있고 정확한 응답을 제공 할 수 있도록합니다.

Gemma의 가볍고 효율적인 아키텍처는 성능과 자원 사용 사이의 균형을 유지하여 계산 능력이 제한된 환경에 적합합니다. 미리 훈련 된 모델은 미세 조정을위한 강력한 기반을 제공하여 특정 산업 요구 또는 틈새 응용 프로그램에 맞게 사용자 정의 할 수 있습니다. 본질적으로 Gemma는 소규모 언어 모델이 비용 효율적이고 자원 효율적으로 전문화 된 고품질 결과를 제공 할 수있는 방법을 보여줍니다. 특정 작업에 광범위하게 사용 되든 맞춤형이든, Gemma는 다양한 상황에서 귀중한 도구임을 입증합니다.

다른 버전의 젬마

Gemma 가족은 Gemini 모델에 사용되는 것과 동일한 연구 및 기술을 기반으로 한 일련의 가볍고 최첨단 모델로 구성됩니다. Gemma의 각 버전은 특정 요구 및 응용 프로그램을 다루며 텍스트 생성에서 멀티 모달 기능에 이르는 기능을 제공합니다.

젬마 1 가족

Gemma 1 제품군은 광범위한 텍스트 처리 및 생성 작업을 수용하도록 설계된 Gemma 생태계 내의 초기 모델 제품군을 나타냅니다. 이 모델은 Gemma 시리즈의 기초이며 다양한 사용자 요구를 충족시키기위한 다양한 기능을 제공합니다. 가족은 모델을 크기와 전문화로 분류하며 각 모델은 다양한 응용 프로그램에 고유 한 강점을 가져옵니다.

작은 언어 모델의 미세 조정 및 추론

Gemma 2B 및 2B-IT :

  • Gemma 2B :이 모델은 원래 Gemma 1 라인업의 일부이며 강력한 성능을 가진 다양한 텍스트 기반 작업을 처리하도록 설계되었습니다. 일반적인 목적 능력은 콘텐츠 제작, 자연어 이해 및 기타 일반적인 텍스트 처리 요구와 같은 응용 프로그램을위한 다양한 선택입니다.
  • GEMMA 2B-IT : 2B 모델의 변형 인 2B-IT는 정보 기술과 관련된 상황에 맞게 특별히 조정됩니다. 이 모델은 기술 문서, 코드 스 니펫 및 IT 관련 쿼리 생성과 같은 IT 중심 애플리케이션에 대한 성능 향상을 제공하므로 기술 관련 분야에서 특수한 지원이 필요한 사용자에게 적합합니다.

젬마 7b 및 7B-IT :

  • Gemma 7B : 7B 모델은 Gemma 1 가족 내에서 더 강력한 버전을 나타냅니다. 용량이 증가하면보다 복잡하고 다양한 텍스트 생성 작업을 효과적으로 처리 할 수 ​​있습니다. 문맥과 미묘한 텍스트 출력에 대한 더 깊은 이해가 필요한 까다로운 응용 프로그램을 위해 설계되어 정교한 컨텐츠 제작 및 상세한 자연어 처리에 적합합니다.
  • GEMMA 7B-IT : 7B 모델의 기능을 바탕으로 7B-IT는 IT 특이 적 애플리케이션에 최적화됩니다. 기술 컨텐츠 생성 및 복잡한 코드 지원과 같은 작업에 대한 고급 지원, IT를위한 고성능 도구가 필요한 사용자 및 프로그래밍 관련 과제를 제공합니다.

코드 젬마

Code Gemma 모델은 프로그래밍 작업을 지원하기 위해 특별히 설계된 Gemma Family의 특수 버전입니다. 코드 완료 및 코드 생성에 중점을 두어 효율적인 코드 처리가 중요하는 환경에서 귀중한 지원을 제공합니다. 이 모델은 통합 개발 환경 (IDE) 및 코딩 비서의 생산성을 향상시키기 위해 최적화되었습니다.

코드 젬마 2B :

  • Code Gemma 2B는 소규모 코드 생성 작업에 맞게 조정되었습니다. 코드 스 니펫의 복잡성이 비교적 관리 가능한 환경에 이상적입니다. 이 모델은 간단한 코드 조각 완료 또는 기본 코드 제안 제공과 같은 일상적인 코딩 요구에 대한 견고한 성능을 제공합니다.

코드 Gemma 7b 및 7B-IT :

  • Code Gemma 7B :이 모델은보다 진보 된이 모델은보다 복잡한 코딩 작업을 처리하는 데 적합합니다. 정교한 코드 완료 기능을 제공하며 복잡한 코드 생성 요구 사항을 처리 할 수 ​​있습니다. 7B 모델의 용량 증가는보다 까다로운 코딩 시나리오에 효과적이며 정확도와 컨텍스트 인식 제안을 제공합니다.
  • Code Gemma 7B-IT : 7B 모델의 기능을 바탕으로 7B-IT 변형은 IT 관련 프로그래밍 작업을 위해 특별히 최적화됩니다. IT 및 기술 관련 프로젝트의 맥락에서 코드를 생성하고 완료하는 데 탁월합니다. 이 모델은 복잡한 IT 환경에 맞게 조정 된 고급 기능을 제공하여 자세한 코드 지원 및 기술 컨텐츠 생성과 같은 작업을 지원합니다.

재발 성 젬마

반복 젬마 모델은 신속하고 효율적인 텍스트 생성을 요구하는 응용 프로그램을 수용합니다. 그들은 낮은 대기 시간과 고속 성능을 제공하여 실시간 처리가 중요한 시나리오에 이상적입니다.

  • 재발 성 gemma 2b는 동적 텍스트 생성 작업을위한 강력한 기능을 제공합니다. 최적화 된 아키텍처는 빠른 응답과 최소한의 지연을 보장하므로 실시간 챗봇, 라이브 컨텐츠 생성 및 빠른 텍스트 출력이 필수적인 기타 시나리오와 같은 응용 프로그램에 이상적입니다. 이 모델은 대량 요청을 효과적으로 처리하여 효율적이고 신뢰할 수있는 성능을 제공합니다.
  • 반복 젬마 2B-IT는 2B 모델의 기능을 기반으로하지만 정보 기술 컨텍스트에 맞게 특별히 맞춤화됩니다. 지연 시간이 낮은 IT 작업 및 콘텐츠와 관련된 텍스트를 생성하고 처리하는 데 탁월합니다. 2B-IT 변형은 속도와 도메인 별 관련성이 모두 중요한 기술 지원 챗봇 및 동적 IT 문서와 같은 IT 중심 애플리케이션에 특히 유용합니다.

Paligemma

Paligemma는 젬마 패밀리 내에서 최초의 복합 모델로서 중요한 발전을 나타냅니다. 이 모델은 시각적 및 텍스트 입력을 모두 통합하여 다양한 멀티 모달 작업을 처리 할 수있는 다양한 기능을 제공합니다.

Paligemma 2.9b :

Vertex Model Garden의 명령 및 혼합 조정 버전으로 제공되는이 모델은 이미지와 텍스트를 모두 처리 할 때 탁월합니다. 시각적 질문 응답, 이미지 캡션 및 이미지 감지와 같은 멀티 모달 작업에서 최고 성능을 제공합니다. 이미지 및 텍스트 입력을 통합하여 시각적 데이터를 기반으로 자세한 텍스트 응답을 생성합니다. 이 기능은 시각적 및 텍스트 이해가 필요한 응용 프로그램에 매우 효과적입니다.

Gemma 2 및 관련 도구

Gemma 2는 고급 성능을 향상된 안전 및 투명성 기능과 결합하여 언어 모델의 진화에서 중요한 도약을 나타냅니다. 다음은 Gemma 2와 관련 도구에 대한 자세한 내용입니다.

작은 언어 모델의 미세 조정 및 추론

젬마 2

  • 성능 : 27B Gemma 2 모델은 크기 클래스에서 탁월하여 모델이 규모가 훨씬 커질 수있는 뛰어난 성능을 제공합니다. 이를 통해 다양한 응용 프로그램을위한 강력한 도구가되어 크기의 두 배로 모델에 대한 경쟁력있는 대안을 제공합니다.
  • 9B GEMMA 2 :이 변형은 LLAMA 3 8B와 같은 다른 모델을 능가하고 카테고리의 개방형 모델과 효과적으로 경쟁하는 뛰어난 성능으로 유명합니다.
  • 2B GEMMA 2 : 우수한 대화 능력으로 유명한 2B 모델은 챗봇 경기장에서 GPT-3.5 모델을 능가하여 사후 대화 AI의 주요 선택으로 자리 매김했습니다.

관련 도구

  • Shieldgemma :
    • 기능 : ShieldGemma는 텍스트 프롬프트 입력 및 생성 된 응답의 안전을 평가하고 보장하는 명령 조정 모델을 전문으로합니다.
    • 목적 : 사전 정의 된 안전 정책 준수를 평가하여 컨텐츠 중재 및 안전이 중요한 응용 프로그램에 필수적인 도구가됩니다.
  • 젬마 범위 :
    • 기능 : Gemma Scope는 Gemma 2 생성 AI 모델의 내부 작업을 분석하고 이해하는 것을 목표로하는 연구 도구 역할을합니다.
    • 목적 : 모델의 메커니즘과 행동에 대한 통찰력을 제공하며, 모델을 정제하고 최적화하는 연구원과 개발자를 지원합니다.

액세스 포인트

  • Google AI Studio : 개발 및 실험을위한 Gemma 2를 포함한 다양한 AI 모델 및 도구에 대한 액세스를 제공하는 플랫폼.
  • Kaggle : Gemma 2 모델이 연구 및 경쟁을 위해 이용할 수있는 잘 알려진 데이터 과학 및 기계 학습 커뮤니티 플랫폼.
  • 포옹 얼굴 : 사용자가 이러한 모델을 다운로드하고 활용할 수있는 Gemma 2를 포함한 기계 학습 모델에 대한 인기있는 저장소.
  • Vertex AI : 확장 가능한 모델 배포 및 관리를위한 Gemma 2 및 기타 AI 도구에 대한 액세스를 제공하는 Google 클라우드 서비스.

Gemma 2의 성능, 안전 및 투명성의 발전은 관련 도구와 결합하여 다양한 AI 응용 프로그램 및 연구 노력을위한 다양한 자원으로 배치합니다.

미세 조정이란 무엇입니까?

미세 조정은 특히 SLM (Small Language Models)과 같은 모델의 기계 학습 라이프 사이클에서 중요한 단계입니다. 특수 데이터 세트에서 미리 훈련 된 모델을 조정하여 특정 작업 또는 도메인의 성능을 향상시킵니다.

미세 조정은 광범위한 데이터 세트에서 이미 일반적인 기능을 배운 미리 훈련 된 모델을 기반으로합니다. 미세 조정은 계산적으로 비싸고 시간이 많이 걸리는 모델을 처음부터 훈련시키는 대신이 모델을 개선하여 특정 사용 사례에 더 적합합니다. 핵심 아이디어는 특정 유형의 데이터 또는 작업을 더 잘 처리하기 위해 모델의 기존 지식을 조정하는 것입니다.

미세 조정 SLM의 이유

  • 도메인 별 지식 : 미리 훈련 된 모델은 일반화 될 수 있으며 틈새 영역에 대한 전문 지식이 부족합니다. 미세 조정을 통해 모델은 도메인 별 언어, 용어 및 컨텍스트를 통합 할 수 있으므로 의료용 챗봇 또는 법적 문서 분석과 같은 전문 응용 프로그램에 더 효과적입니다.
  • 일관성 향상 : 고성능 모델조차도 출력의 다양성을 나타낼 수 있습니다. 미세 조정은 모델의 응답을 안정화시키는 데 도움이되어 특정 응용 프로그램에 대한 원하는 출력 또는 표준과 일관되게 일치하는지 확인합니다.
  • 환각 감소 : 대형 모델은 때때로 실제로 부정확하거나 관련이없는 반응을 생성합니다. 미세 조정은 모델의 이해를 정제하고 출력을보다 신뢰할 수 있고 특정 상황과 관련하여 이러한 문제를 완화하는 데 도움이됩니다.
  • 대기 시간 및 비용 절감 : 소규모 모델 또는 특정 작업을 위해 미세 조정 된 SLM은 더 큰 일반 목적 모델보다 더 효율적으로 작동 할 수 있습니다. 이 효율성은 계산 비용과 더 빠른 처리 시간으로 이어져 실시간 응용 프로그램 및 비용에 민감한 환경에 더 적합합니다.

미세 조정 과정

미세 조정은 기계 학습 및 자연 언어 처리에서 중요한 기술로 미리 훈련 된 모델을 특정 작업이나 데이터 세트에서 더 잘 수행하도록 조정합니다. 미세 조정 프로세스에 대한 자세한 개요는 다음과 같습니다.

작은 언어 모델의 미세 조정 및 추론

1 단계 : 올바른 미리 훈련 된 모델 선택

미세 조정 프로세스의 첫 번째 단계는 기초 역할을하는 미리 훈련 된 모델을 선택하는 것입니다. 이 모델은 이미 크고 다양한 데이터 세트에 대해 교육을 받았으며 일반적인 언어 패턴과 지식을 캡처했습니다. 모델의 선택은 당면한 작업과 모델의 초기 교육이 원하는 응용 프로그램과 얼마나 잘 일치하는지에 따라 다릅니다. 예를 들어, 의료용 챗봇을 작업하는 경우 광범위한 텍스트에서 미리 훈련 된 모델을 선택할 수 있지만 의료 상황에 맞게 특별히 조정됩니다.

2 단계 : 데이터 선택 및 준비

데이터는 미세 조정에 중요한 역할을합니다. 미세 조정에 사용되는 데이터 세트는 대상 작업 및 특정 도메인 또는 응용 프로그램의 대표와 관련이 있어야합니다. 예를 들어, 의료용 챗봇에는 의료 대화, 환자 쿼리 및 건강 관리 관련 정보가 포함 된 데이터 세트가 필요합니다.

  • 데이터 청소 : 미세 조정 프로세스에 부정적인 영향을 줄 수있는 관련이 없거나 시끄러운 컨텐츠를 제거하기 위해 데이터를 청소하고 전처리합니다.
  • 데이터 세트 균형 : 과적으로 피팅을 피하려면 데이터 세트가 균형을 잡고 작업의 다양한 측면을 나타 내기에 충분히 다양해야합니다. 여기에는 각 범주 또는 입력 유형에 대한 충분한 예제가 포함됩니다.

STEP3 : 하이퍼 파라미터 튜닝

미세 조정은 모델의 성능을 최적화하기 위해 여러 하이퍼 파라미터를 조정해야합니다.

  • 학습 속도 : 학습 속도는 각 반복마다 모델 가중치를 조정할 양을 결정합니다. 학습 속도가 너무 높으면 모델이 너무 빨리 최적화 된 솔루션으로 수렴 될 수 있지만 너무 낮은 비율은 교육 프로세스 속도를 늦출 수 있습니다.
  • 배치 크기 : 배치 크기는 한 번 반복에 사용 된 훈련 예제 수를 나타냅니다. 배치 크기가 커지면 훈련 프로세스 속도를 높일 수 있지만 더 많은 계산 자원이 필요할 수 있습니다.
  • 에포크 수 : 에포크는 전체 교육 데이터 세트를 통해 하나의 완전한 패스입니다. 에포크의 수는 모델의 훈련 기간에 영향을 미칩니다. 에포크가 너무 적지 않으면 언더 피팅이 발생할 수 있지만 너무 많은 사람들은 과적으로 적합성을 초래할 수 있습니다.

4 단계 : 모델 훈련

훈련 단계에서 모델은 미세 조정 데이터 세트에 노출됩니다. 훈련 프로세스에는 예측 된 출력과 실제 레이블 사이의 오류에 따라 모델 가중치를 조정하는 것이 포함됩니다. 이 단계는 모델이 일반적인 지식을 미세 조정 작업의 세부 사항에 맞게 조정하는 곳입니다.

  • 손실 기능 : 손실 함수는 모델의 예측이 실제 값과 얼마나 잘 일치하는지를 측정합니다. 일반적인 손실 기능에는 분류 작업을위한 크로스 엔트로피 및 회귀 작업에 대한 평균 제곱 오류가 포함됩니다.
  • 최적화 알고리즘 : Adam 또는 SGD (확률 적 구배 하강)와 같은 최적화 알고리즘을 사용하여 모델 가중치를 업데이트하여 손실 기능을 최소화합니다.

5 단계 : 평가

미세 조정 후, 모델은 대상 작업에 대한 성능을 평가하기 위해 평가됩니다. 여기에는 별도의 유효성 검사 데이터 세트에서 모델을 테스트하여 잘 수행하고 보이지 않는 신규 데이터에 효과적으로 일반화하는지 확인합니다.

  • 메트릭 : 평가 지표는 작업에 따라 다릅니다. 분류 작업에 정확도, 정밀, 리콜 및 F1 점수와 같은 메트릭을 사용하십시오. 생성 작업에 대한 BLEU 점수 또는 기타 관련 조치를 사용하십시오.

6 단계 : 미세 조정 조정

평가 결과에 기초하여 추가 조정이 필요할 수 있습니다. 여기에는 서로 다른 하이퍼 파라미터로 추가 미세 조정 라운드, 교육 데이터 세트 조정 또는 오버 피팅 또는 언더 피팅을 처리하는 기술을 통합하는 것이 포함될 수 있습니다.

예 : 의료용 챗봇

의료용 챗봇의 경우 일반적인 미리 훈련 된 언어 모델을 미세 조정하는 데는 의료 용어, 환자 상호 작용 패턴 및 관련 건강 정보에 중점을 둔 의료 대화 데이터 세트에서 교육하는 것이 포함됩니다. 이 과정은 챗봇이 의학적 맥락을 이해하고 정확한 도메인 별 응답을 제공 할 수 있습니다.

작은 언어 모델의 미세 조정 및 추론

매개 변수 효율적인 미세 조정

매개 변수 효율적인 미세 조정은 미리 훈련 된 언어 모델 (LLM)을 최소한의 계산 및 리소스 오버 헤드로 적응시키는 정제 된 접근법입니다. 이 방법은 업데이트 해야하는 매개 변수의 양을 줄임으로써 미세 조정 프로세스를 최적화하는 데 중점을 두어 비용 효율적이고 효율적입니다. 다음은 매개 변수 효율적인 미세 조정 프로세스의 분석입니다.

작은 언어 모델의 미세 조정 및 추론

1 단계 : 사전 조정

여정은 크고 표지되지 않은 텍스트 코퍼스에서 언어 모델의 사전 조정으로 시작됩니다. 이 감독되지 않은 이전 단계는 모델에 언어에 대한 광범위한 이해를 제공하여 광범위한 일반적인 작업에서 잘 수행 할 수 있습니다. 이 단계 에서이 모델은 방대한 양의 데이터에서 배우고 후속 미세 조정에 필요한 기본 기술을 개발합니다.

2A 단계 : 기존의 미세 조정

전통적인 미세 조정에서 미리 훈련 된 LLM은 더 작은 레이블이 지정된 대상 데이터 세트에서 더 훈련됩니다. 이 단계에는 특정 작업 또는 도메인을 기반으로 모든 원래 모델 매개 변수를 업데이트하는 것이 포함됩니다. 이 접근법은 고도로 전문화 된 모델로 이어질 수 있지만, 많은 매개 변수를 조정하기 위해 상당한 계산 능력이 필요하기 때문에 종종 리소스 집약적이고 비용이 많이 듭니다.

2B : 파라미터 효율적인 미세 조정

매개 변수 효율적인 미세 조정은 모델 매개 변수의 하위 집합에만 초점을 맞추면보다 간소화 된 대안을 제공합니다. 이 방법에서 :

  • 원래 모델 매개 변수는 동결 된 상태로 유지됩니다 . 미리 훈련 된 모델의 핵심 매개 변수는 변경되지 않았습니다. 이 접근법은 리소스를 보존하면서 원래 모델에서 인코딩 된 기존 지식을 활용합니다.
  • 새로운 매개 변수 추가 : 전체 모델을 업데이트하는 대신이 기술에는 미세 조정 작업을 위해 특별히 맞춤형 새 매개 변수 세트를 추가하는 것이 포함됩니다.
  • 미세 조정 새로운 매개 변수 : 미세 조정 프로세스 중에 새로 추가 된 매개 변수 만 조정됩니다. 더 적은 수의 매개 변수를 업데이트하는 것은 계산 비용이 적기 때문에 더 많은 리소스 효율적인 방법을 초래합니다.

이 방법은 미세 조정과 관련된 계산 부담 및 재무 비용을 크게 줄여서 자원이 제한된 응용 프로그램이나 사소한 적응이 필요한 작업에 매력적인 옵션이됩니다.

추론에 SLM 대 LLM을 언제 사용해야합니까?

추론을위한 작은 언어 모델 (SLM)과 LLM (Lange Language Model) (LLM)을 결정하는 것은 성능 요구 사항, 리소스 제약 및 응용 프로그램 세부 사항을 포함한 다양한 요소에 따라 다릅니다. 다음은 귀하의 요구에 가장 적합한 모델을 결정하는 데 도움이되는 자세한 분석입니다.

작업 복잡성과 정밀도

  • SLMS : 고효율과 정밀도가 필요하지만 복잡하거나 미묘한 언어 이해를 포함하지 않는 작업에 이상적입니다. SLM은 도메인 별 쿼리 또는 일상적인 데이터 처리와 같은 특정 잘 정의 된 작업에서 뛰어납니다. 예를 들어, 틈새 산업에서 고객 지원 티켓을 처리하기 위해 모델이 필요한 경우 SLM은 불필요한 계산 오버 헤드없이 빠르고 정확한 응답을 제공 할 수 있습니다.
  • LLMS : 복잡한 언어 생성, 미묘한 이해 또는 창의적인 콘텐츠 제작과 관련된 작업에 가장 적합합니다. LLM은 광범위한 주제를 처리 할 수 ​​있으며 상세하고 상황에 맞는 응답을 제공 할 수 있습니다. 포괄적 인 연구 요약을 생성하거나 정교한 대화 AI에 참여하는 것과 같은 작업의 경우 LLM은 더 큰 모델 크기와보다 광범위한 교육으로 인해 우수한 성능을 제공합니다.

자원 가용성

  • SLMS : 계산 자원이 제한되어있을 때 SLM을 사용하십시오. 크기가 작을수록 메모리 사용량이 낮아지고 처리 시간이 빠릅니다. 효율성이 중요한 환경에 적합합니다. 예를 들어, Edge 장치 또는 모바일 플랫폼에 SLM을 배포하면 응용 프로그램이 반응 형 및 리소스 효율적으로 유지되도록합니다.
  • LLMS : 리소스가 충분하고 작업이 사용을 정당화 할 때 LLMS를 선택하십시오. LLM에는 상당한 계산 능력과 메모리가 필요하지만 복잡한 작업에보다 강력한 성능을 제공합니다. 예를 들어, 대규모 텍스트 분석 또는 다중 회전 대화 시스템을 실행하는 경우 LLMS는 광범위한 기능을 활용하여 고품질 출력을 제공 할 수 있습니다.

대기 시간과 속도

  • SLMS : 대기 시간이 낮고 응답 시간이 빠르면 SLM이 선호되는 선택입니다. 간소화 된 아키텍처는 빠른 추론을 허용하여 실시간 응용 프로그램에 이상적입니다. 예를 들어, 높은 수량의 쿼리를 처리하는 챗봇은 실시간 SLM 대기 시간으로 인해 혜택을받습니다.
  • LLMS : LLMS는 크기와 복잡성으로 인해 대기 시간이 높을 수 있지만 출력의 깊이 및 품질에 비해 응답 시간이 덜 중요한 응용 분야에 적합합니다. 심층적 인 컨텐츠 생성 또는 자세한 언어 분석과 같은 응용 프로그램의 경우 LLM 사용의 이점이 느린 응답 시간을 능가합니다.

비용 고려 사항

  • SLMS : 예산 제약 조건이있는 시나리오에 대한 비용 효율적입니다. SLM 교육 및 배포는 일반적으로 LLM에 비해 저렴합니다. 높은 수준의 계산 능력이 필요하지 않은 작업에 대한 비용 효율적인 솔루션을 제공합니다.
  • LLMS : 크기와 계산 자원으로 인해 더 많은 비용이 들었습니다. 그러나 광범위한 언어 이해와 세대 기능이 필요한 작업에 대해 정당화됩니다. 출력 품질이 가장 중요하고 예산이 허용되는 응용 분야의 경우 LLM에 투자하면 상당한 수익을 올릴 수 있습니다.

배포 및 확장 성

  • SLMS : Edge 장치 및 모바일 애플리케이션을 포함하여 제한된 리소스가있는 환경에서 배포에 이상적입니다. 그들의 작은 발자국은 제한된 처리 능력을 가진 다양한 플랫폼에 쉽게 통합 될 수 있도록합니다.
  • LLMS : 확장 성이 필요한 대규모 배치에 적합합니다. 충분한 리소스를 사용할 수있을 때 대량의 데이터와 복잡한 쿼리를 효율적으로 처리 할 수 ​​있습니다. 예를 들어, 광범위한 데이터 처리와 높은 처리량이 필요한 엔터프라이즈 수준의 응용 프로그램은 LLM에 적합합니다.

SLM을 배포하기 전에 고려 사항

SLM (Small Language Model)을 배포 할 준비를 할 때는 성공적인 통합 및 운영을 보장하기 위해 몇 가지 주요 고려 사항을 고려해야합니다. 여기에는 다음이 포함됩니다.

자원 제약

  • 메모리 및 처리 능력 : SLM은 가벼운 상태로 설계되었지만 대상 환경의 메모리 및 처리 기능을 평가하는 것이 필수적입니다. 배포 플랫폼에 더 큰 모델에 비해 SLM이 덜 까다 롭지 만 배포 플랫폼에 모델의 요구 사항을 처리하기에 충분한 리소스가 있는지 확인하십시오.
  • 전력 소비 : 에지 장치의 경우 전력 효율이 중요합니다. 과도한 에너지 사용을 피하기 위해 모델의 전력 소비를 평가하여 배터리 구동 또는 저전력 환경에서 우려 될 수 있습니다.

대기 시간 및 성능

  • 응답 시간 : SLM이 더 빠른 추론을 위해 최적화되었으므로 배포 환경이 부담세가 낮은 작업을 지원하는지 확인하십시오. 성능은 하드웨어에 따라 다를 수 있으므로 실제 조건에서 모델을 테스트하는 것이 성능 기대치를 충족시키는 데 중요합니다.
  • 확장 성 : 배포 솔루션의 확장 성을 고려하십시오. 사용자 또는 요청 수가 증가함에 따라 시스템이 다양한 하중을 처리하고 효율적으로 스케일을 확장 할 수 있는지 확인하십시오.

호환성 및 통합

  • 플랫폼 호환성 : 배포 플랫폼이 모델 형식 및 사용 된 기술 스택과 호환되는지 확인하십시오. 여기에는 운영 체제, 프로그래밍 환경 및 통합에 필요한 추가 소프트웨어와의 호환성 확인이 포함됩니다.
  • 기존 시스템과의 통합 : SLM이 기존 응용 프로그램 또는 서비스와 어떻게 통합되는지 평가합니다. 광범위한 시스템 아키텍처 내에서 모델이 효과적으로 작동하도록하는 데 원활한 통합이 중요합니다.

보안 및 개인 정보

  • 데이터 보안 : SLM에서 처리 한 민감한 데이터를 보호하기 위해 보안 조치를 평가합니다. 데이터 암호화 및 보안 통신 프로토콜이 정보를 보호하는 데 사용되는지 확인하십시오.
  • 개인 정보 보호 문제 : 배포가 사용자 데이터를 처리하고 개인 정보 보호 규정을 준수하는 방법을 고려하십시오. 배포가 데이터 보호 표준을 준수하고 사용자 기밀 유지를 유지하는지 확인하십시오.

유지 관리 및 업데이트

  • 모델 유지 보수 : SLM의 정기적 인 유지 보수 및 업데이트 계획. 여기에는 모델 성능 모니터링, 잠재적 문제 해결 및 데이터 또는 요구 사항의 변경에 적응하는 데 필요한 모델 업데이트가 포함됩니다.
  • 버전 관리 : 버전 제어 및 관리 사례를 구현하여 모델 업데이트를 처리하고 다양한 모델 버전 간의 원활한 전환을 보장합니다.

Edge 장치에서 SLM을 배포하기위한 MediaPipe 및 WebAssembly

이들은 Edge 장치에서 SLM의 배포를 용이하게하는 두 가지 기술입니다.

미디어 파이프

  • 실시간 성능 : MediaPipe는 실시간 처리를 위해 설계되었으므로 Edge 장치에서 빠른 추론이 필요한 SLM을 배포하는 데 적합합니다. 데이터를 처리하고 다양한 기계 학습 모델을 통합하기위한 효율적인 파이프 라인을 제공합니다.
  • 모듈 식 아키텍처 : MediaPipe의 모듈 식 아키텍처를 통해 SLM을 다른 구성 요소 및 전처리 단계와 쉽게 통합 할 수 있습니다. 이러한 유연성을 통해 특정 사용 사례에 맞는 맞춤형 솔루션을 생성 할 수 있습니다.
  • 크로스 플랫폼 지원 : MediaPipe는 모바일 및 웹 환경을 포함한 다양한 플랫폼을 지원합니다. 이 크로스 플랫폼 기능을 사용하면 SLM이 다른 장치 및 운영 체제에 지속적으로 배포 될 수 있습니다.

webassembly

  • 성능 및 이식성 : WASM (WebAssembly)은 웹 환경에서 근게 성능을 제공하므로 브라우저에서 효율적으로 실행 해야하는 SLM을 배포하는 데 이상적입니다. C 및 Rust와 같은 언어로 작성된 코드를 최소한으로 실행할 수 있습니다.
  • 보안 및 격리 : WebAssembly는 안전한 샌드 박스 환경에서 실행되므로 SLM 배포의 안전성과 격리를 향상시킵니다. 이는 민감한 데이터를 처리하거나 웹 응용 프로그램과 통합 할 때 특히 중요합니다.
  • 호환성 : WebAssembly는 최신 브라우저와 호환되며 광범위한 웹 기반 애플리케이션에 SLM을 배포하는 데 사용할 수 있습니다. 이 광범위한 호환성은 다른 플랫폼의 사용자가 SLM에 쉽게 액세스하고 활용할 수 있도록합니다.

오늘 LLMS는 어떻게 배포됩니까?

LLMS (Large Language Model)의 배포는 고급 클라우드 기술, 마이크로 서비스 및 통합 프레임 워크를 활용하여 성능 및 접근성을 향상 시켰습니다. 이 현대적인 접근 방식은 LLM이 다양한 플랫폼 및 서비스에 효과적으로 통합되어 원활한 사용자 경험과 강력한 기능을 제공합니다.

작은 언어 모델의 미세 조정 및 추론

통신 플랫폼과 통합

통신 플랫폼과의 통합은 LLM을 배포하는 핵심 측면입니다. 이 모델은 Slack, Discord 및 Google Chat과 같은 널리 사용되는 커뮤니케이션 도구에 포함됩니다. 이러한 플랫폼과 통합함으로써 LLM은 친숙한 채팅 인터페이스를 통해 사용자와 직접 상호 작용할 수 있습니다. 이 설정을 통해 LLM은 실시간으로 쿼리를 처리하고 응답하여 훈련 된 지식을 활용하여 관련 답변을 제공 할 수 있습니다. 통합 프로세스에는 채널 소스 또는 봇 이름을 기반으로 네임 스페이스를 구성하는 것이 포함되므로 요청을 적절한 모델 및 데이터 소스로 라우팅하는 데 도움이됩니다.

클라우드 기반 마이크로 서비스

클라우드 기반 마이크로 서비스는 LLM의 배포에 중요한 역할을합니다. Google Cloud Run과 같은 플랫폼은 입력 메시지를 구문 분석, 데이터 처리 및 LLM과 인터페이스하는 것과 같은 다양한 작업을 처리하는 마이크로 서비스를 관리하는 데 사용됩니다. 각 서비스는 /discord /message 또는 /slack /message와 같은 특정 엔드 포인트를 통해 작동하여 데이터가 표준화되고 효율적으로 처리되도록합니다. 이 접근법은 확장 가능하고 유연한 배포를 지원하며 다양한 통신 채널 및 사용 사례를 수용합니다.

데이터 관리

In the realm of Data Management, cloud storage solutions and vectorstores are essential. Files and data are uploaded to cloud storage buckets and processed to create contexts for the LLM. Large files are chunked and indexed in vectorstores, allowing the LLM to retrieve and utilize relevant information effectively. Langchain tools facilitate this orchestration by parsing questions, looking up contexts in vectorstores, and managing chat histories, ensuring that responses are accurate and contextually relevant.

Pub/Sub Messaging Systems

Pub/Sub Messaging Systems are employed for handling large volumes of data and tasks. This system enables parallel processing by chunking files and sending them through Pub/Sub channels. This method supports scalable operations and efficient data management. Unstructured APIs and Cloud Run convert documents into formats for LLMs, integrating diverse data types into the model's workflow.

Integration with Analytics and Data Sources

Integration with Analytics and Data Sources further enhances LLM performance. Platforms like Google Cloud and Azure OpenAI provide additional insights and functionalities, refining the LLM's responses and overall performance. Command and storage management systems handle chat histories and file management. They support ongoing training and fine-tuning of LLMs based on real-world interactions and data inputs.

제한

  • Latency: Processing requests through cloud-based LLMs can introduce latency, impacting real-time applications or interactive user experiences.
  • Cost: Continuous usage of cloud resources for LLM deployment can incur significant costs, especially for high-volume or resource-intensive tasks.
  • Privacy Concerns: Transmitting sensitive data to the cloud for processing raises privacy and security concerns, particularly in industries with strict regulations.
  • Dependence on Internet Connectivity: Cloud-based LLM deployments require a stable internet connection, limiting functionality in offline or low-connectivity environments.
  • Scalability Challenges: Scaling cloud-based LLM deployments can be challenging, causing performance issues during peak usage periods.

How Can SLMs Function Well with Fewer Parameters?

SLMs can deliver impressive performance despite having fewer parameters compared to their larger counterparts. Thanks to several effective training methods and strategic adaptations.

Training Methods

  • Transfer Learning : SLMs benefit significantly from transfer learning, a technique where a model is initially trained on a broad dataset to acquire general knowledge. This foundational training allows the SLM to adapt to specific tasks or domains with minimal additional training. By leveraging pre-existing knowledge, SLMs can efficiently tune their capabilities to meet particular needs, enhancing their performance without requiring extensive computational resources.
  • Knowledge Distillation : Knowledge distillation allows SLMs to perform efficiently by transferring insights from a larger model (like an LLM) into a smaller SLM. This process helps SLMs achieve comparable performance while reducing computational needs. It ensures SLMs handle specific tasks effectively without the overhead of larger models.

Domain-Specific Adaptation

SLMs can be tailored to excel in specific domains through targeted training on specialized datasets. This domain-specific adaptation enhances their effectiveness for specialized tasks. For example, SLMs developed by NTG are adept at understanding and analyzing construction Health, Safety, and Environment (HSE) terminology. By focusing on specific industry jargon and requirements, these models achieve higher accuracy and relevance in their analyses compared to more generalized models.

Effectiveness Factors

The effectiveness of an SLM depends on its training, fine-tuning, and task alignment. SLMs can outperform larger models in certain scenarios, but they are not always superior. They excel in specific use cases with advantages like lower latency and reduced costs. For broader or more complex applications, LLMs may still be preferable due to their extensive training and larger parameter sets.

결론

Fine-tuning and inference with Small Language Models (SLMs) like Gemma show their adaptability and efficiency. By selecting and tailoring pre-trained models, fine-tuning for specific domains, and optimizing deployment, SLMs achieve high performance with lower costs. Techniques such as parameter-efficient methods and domain-specific adaptations make SLMs a strong alternative to larger models. They offer precision, speed, and cost-effectiveness for various tasks. As technology evolves, SLMs will increasingly enhance AI-driven solutions across industries.

자주 묻는 질문

Q 1. What are Small Language Models (SLMs)?

A. SLMs are lightweight AI models designed for specific tasks or domains, offering efficient performance with fewer parameters compared to larger models like LLMs.

Q 2. Why should I consider fine-tuning an SLM?

A. Fine-tuning enhances an SLM's performance for particular tasks, improves consistency, reduces errors, and can make it more cost-effective compared to using larger models.

Q 3. What are the key steps in the fine-tuning process?

A. The fine-tuning process involves selecting the right pre-trained model, preparing domain-specific data, adjusting hyperparameters, and evaluating the model's performance.

Q 4. How does parameter-efficient fine-tuning differ from conventional fine-tuning?

A. Parameter-efficient fine-tuning updates only a small subset of model parameters, which is less resource-intensive than conventional methods that update the entire model.

Q 5. When should I use SLMs instead of LLMs for inference?

A. SLMs are ideal for tasks requiring fast, efficient processing with lower computational costs, while LLMs are better suited for complex tasks requiring extensive general knowledge.

위 내용은 작은 언어 모델의 미세 조정 및 추론의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
LLM에서 도구 호출LLM에서 도구 호출Apr 14, 2025 am 11:28 AM

대형 언어 모델 (LLM)은 인기가 높아졌으며, 도구 전달 기능은 단순한 텍스트 생성을 넘어 기능을 극적으로 확장했습니다. 이제 LLM은 동적 UI 생성 및 자율적 인 A와 같은 복잡한 자동화 작업을 처리 할 수 ​​있습니다.

ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법Apr 14, 2025 am 11:27 AM

비디오 게임이 불안을 완화하거나 집중하거나 ADHD를 가진 어린이를 지원할 수 있습니까? 건강 관리 도전이 전 세계적으로 급증함에 따라, 특히 청소년들 사이에서 혁신가들은 비디오 게임 인 가능성이없는 도구로 전환하고 있습니다. 이제 세계 최대의 엔터테인먼트 인더스 중 하나입니다

AI에 대한 UN 입력 : 우승자, 패자 및 기회AI에 대한 UN 입력 : 우승자, 패자 및 기회Apr 14, 2025 am 11:25 AM

UNCTAD의 사무 총장 인 Rebeca Grynspan은“역사는 기술 진보가 경제 성장을 유발하거나 공평한 소득 분배를 보장하거나 포용적인 인간 발전을 촉진하지는 않습니다.

생성 AI를 통한 협상 기술 ​​학습생성 AI를 통한 협상 기술 ​​학습Apr 14, 2025 am 11:23 AM

쉽게 생성 AI를 협상 교사 및 스파링 파트너로 사용하십시오. 그것에 대해 이야기합시다. 혁신적인 AI 혁신에 대한이 분석은 AI의 최신 Forbes 열 범위의 일부입니다.

Ted는 Openai, Google, 메타가 법정으로 공개됩니다.Ted는 Openai, Google, 메타가 법정으로 공개됩니다.Apr 14, 2025 am 11:22 AM

밴쿠버에서 개최 된 TED2025 컨퍼런스는 어제 4 월 11 일 36 번째 판을 마무리했습니다. Sam Altman, Eric Schmidt 및 Palmer Luckey를 포함한 60 개 이상의 국가에서 80 명의 스피커를 선보였습니다. 테드의 주제 인“인류를 다시 상상했다”는 재단사가 만들어졌다

Joseph Stiglitz는 AI 독점권 속에서 임시 불평등을 경고합니다.Joseph Stiglitz는 AI 독점권 속에서 임시 불평등을 경고합니다.Apr 14, 2025 am 11:21 AM

Joseph Stiglitz는 2001 년에 유명한 경제학자이자 노벨 경제학상을 수상했습니다. Stiglitz는 AI가 기존의 불평등과 통합 된 권력을 몇몇 지배적 인 기업의 손에 악화시킬 수 있으며 궁극적으로 경제를 훼손 할 수 있다고 주장합니다.

그래프 데이터베이스 란 무엇입니까?그래프 데이터베이스 란 무엇입니까?Apr 14, 2025 am 11:19 AM

그래프 데이터베이스 : 관계를 통한 데이터 관리 혁명 데이터가 확장되고 그 특성이 다양한 필드에서 발전함에 따라 그래프 데이터베이스는 상호 연결된 데이터를 관리하기위한 변환 솔루션으로 떠오르고 있습니다. 전통적인 것과는 달리

LLM 라우팅 : 전략, 기술 및 파이썬 구현LLM 라우팅 : 전략, 기술 및 파이썬 구현Apr 14, 2025 am 11:14 AM

대형 언어 모델 (LLM) 라우팅 : 지능형 작업 분포를 통한 성능 최적화 LLM의 빠르게 진화하는 환경은 각각 독특한 강점과 약점을 가진 다양한 모델을 제시합니다. 일부는 Creative Content Gen에서 탁월합니다

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
1 몇 달 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

SublimeText3 Linux 새 버전

SublimeText3 Linux 새 버전

SublimeText3 Linux 최신 버전

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

Dreamweaver Mac版

Dreamweaver Mac版

시각적 웹 개발 도구

DVWA

DVWA

DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는