현재 AI 모델은 매우 광범위한 응용 분야에 관여하고 있지만 대부분의 AI 모델은 특정 작업을 위해 설계되었으며 올바른 모델 아키텍처, 최적화 알고리즘 및 하이퍼 매개변수를 완성하는 데 많은 인력이 필요한 경우가 많습니다. ChatGPT와 GPT-4가 인기를 얻은 후 사람들은 텍스트 이해, 생성, 상호 작용, 추론 등에서 LLM(대형 언어 모델)의 엄청난 잠재력을 보았습니다. 일부 연구자들은 LLM을 사용하여 일반 인공 지능(AGI)을 향한 새로운 경로를 탐색하려고 합니다.
최근 오스틴에 있는 텍사스 대학의 연구원들은 새로운 아이디어를 제안했습니다. 즉, 작업 중심 프롬프트를 개발하고, LLM을 사용하여 교육 파이프라인을 자동화하고, 이 아이디어를 기반으로 하는 새로운 시스템 AutoML-GPT를 출시하는 것입니다.
문서 주소:
https://www.php.cn/link/39d4b545fb02556829aab1db805021c3
AutoML-GPT는 GPT를 다양한 AI 모델 브리지 간의 링크로 사용합니다. 최적화된 하이퍼파라미터로 모델을 동적으로 훈련합니다. AutoML-GPT는 모델 카드[Mitchell et al., 2019] 및 데이터 카드[Gebru et al., 2021]에서 사용자 요청을 동적으로 수신하고 해당 프롬프트 단락을 구성합니다. 마지막으로 AutoML-GPT는 이 프롬프트 단락을 사용하여 데이터 처리, 모델 아키텍처 구축, 초매개변수 조정, 훈련 로그 예측을 포함한 여러 실험을 자동으로 수행합니다.
AutoML-GPT는 강력한 NLP 기능과 기존 AI 모델을 극대화하여 다양한 테스트와 데이터 세트에서 복잡한 AI 작업을 해결합니다. 수많은 실험과 절제 연구에 따르면 AutoML-GPT는 다양한 인공 지능 작업(CV 작업 및 NLP 작업 포함)에 다재다능하고 효과적인 것으로 나타났습니다.
AutoML-GPT는 데이터 및 모델 정보를 사용하여 프롬프트 입력 단락의 형식을 지정하는 협업 시스템입니다. 그 중 LLM은 컨트롤러 역할을 하고, 여러 전문가 모델은 협업 실행자 역할을 합니다. AutoML-GPT의 워크플로에는 데이터 처리, 모델 아키텍처 설계, 초매개변수 조정, 학습 로그 생성의 4단계가 포함됩니다.
구체적으로 AutoML-GPT의 작동 메커니즘은 다음과 같습니다.
입력 분해
AutoML - GPT의 첫 번째 단계는 LLM이 사용자 입력을 수락하는 것입니다. LLM의 성능을 향상시키고 효과적인 프롬프트를 생성하기 위해 본 연구에서는 입력 프롬프트에 대한 구체적인 지침을 채택했습니다. 이 지침에는 데이터 카드, 모델 카드, 평가 지표 및 추가 요구 사항의 세 부분이 포함됩니다.
아래 그림 2에 표시된 것처럼 데이터 카드의 주요 부분은 데이터 세트 이름, 입력 데이터 세트 유형(예: 이미지 데이터 또는 텍스트 데이터), 레이블 공간(예: 카테고리 또는 해상도) 및 기본 평가 지표로 구성됩니다. .
아래 그림 3과 같이 모델 카드는 모델 이름, 모델 구조, 모델 설명 및 아키텍처 하이퍼 매개변수로 구성됩니다. 이 정보를 제공함으로써 Model Card는 LLM에 전체 기계 학습 시스템에서 사용되는 모델은 물론 모델 아키텍처에 대한 사용자의 선호도를 알려줄 수 있습니다.
데이터 카드 및 모델 카드 외에도 사용자는 추가 평가 벤치마크, 평가 지표 또는 제약 조건을 요청할 수도 있습니다. AutoML-GPT는 사용자 요구 사항을 적절하게 분석하기 위해 이러한 작업 사양을 LLM에 대한 상위 수준 지침으로 제공합니다.
처리해야 할 일련의 작업이 있는 경우 AutoML-GPT는 각 작업에 해당 모델을 일치시켜야 합니다. 이 목표를 달성하려면 시스템은 먼저 모델 카드와 사용자 입력에서 모델 설명을 얻어야 합니다.
그런 다음 AutoML-GPT는 컨텍스트 내 작업 모델 할당 메커니즘을 사용하여 모델을 작업에 동적으로 할당합니다. 이 접근 방식은 점진적인 모델 액세스를 가능하게 하며 모델 설명과 사용자 요구 사항에 대한 더 나은 이해를 결합하여 더 큰 개방성과 유연성을 제공합니다.
예상 훈련 로그로 하이퍼파라미터 조정
AutoML-GPT는 데이터 카드와 모델 카드를 기반으로 하이퍼파라미터를 설정하고 하이퍼파라미터의 트레이닝 로그를 생성하여 성능을 예측합니다. 시스템은 자동으로 훈련을 수행하고 훈련 로그를 반환합니다. 데이터 세트의 모델 성능 훈련 로그는 훈련 프로세스 중에 수집된 다양한 지표와 정보를 기록합니다. 이는 모델 훈련 진행 상황을 이해하고 잠재적인 문제를 식별하며 선택한 아키텍처, 하이퍼파라미터 및 최적화 방법의 효과를 평가하는 데 도움이 됩니다.
본 연구에서는 AutoML-GPT의 성능을 평가하기 위해 ChatGPT(OpenAI의 GPT-4 버전)를 사용하여 구현하고 AutoML-GPT의 효과를 다각적으로 입증하기 위해 여러 실험을 수행했습니다.
아래 그림 4는 AutoML-GPT를 사용하여 알 수 없는 데이터 세트에 대한 훈련 결과를 보여줍니다.
아래 그림 5는 AutoML-GPT가 COCO 데이터 세트에서 타겟 탐지 작업을 완료하는 프로세스를 보여줍니다.
아래 그림 6은 NQ Open 데이터 세트(Natural Question Open 데이터 세트, [Kwiatkowski et al., 2019])에 대한 AutoML-GPT의 실험 결과를 보여줍니다.
이 연구에서도 XGBoost는 UCI Adult 데이터 세트[Dua and Graff, 2017]에서 AutoML-GPT를 평가하여 분류 작업에 대한 성능을 살펴보았습니다. 실험 결과는 아래 그림 7에 나와 있습니다.
관심 있는 독자는 원본 논문을 읽어보세요. 연구 세부사항에 대해 자세히 알아보세요.
위 내용은 GPT는 여러 모델이 협업하여 다양한 작업을 완료하도록 지시하는 두뇌 역할을 합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!