GPT4와 같은 현재 LLM(대형 언어 모델)은 이미지가 제공된 개방형 명령을 따르는 데 뛰어난 다중 모드 기능을 보여주었습니다. 그러나 이러한 모델의 성능은 네트워크 구조, 훈련 데이터 및 훈련 전략의 선택에 크게 좌우되지만 이러한 선택은 이전 문헌에서 널리 논의되지 않았습니다. 또한 현재 이러한 모델을 평가하고 비교할 수 있는 적절한 벤치마크가 부족하여 다중 모드 LLM의 개발이 제한됩니다.
Pictures
이 기사에서 저자는 정량적 측면과 질적 측면 모두에서 이러한 모델의 훈련에 대한 체계적이고 포괄적인 연구를 수행합니다. 20개 이상의 변형이 네트워크 구조에 대해 설정되었으며, 교육 데이터에 대해 다양한 LLM 백본과 모델 설계가 비교되었으며, 지침 측면에서 데이터 및 샘플링 전략이 모델에 미치는 영향이 연구되었습니다. 지시에 따른 능력이 미치는 영향을 탐구하였다. 벤치마크를 위해 이 기사는 이미지 및 비디오 작업을 포함하는 개방형 시각적 질문 답변 평가 세트인 Open-VQA를 처음으로 제안했습니다.
저자는 실험적 결론을 바탕으로 기존 오픈 소스 GPT4 스타일 모델에 비해 최고의 다중 모드를 유지하면서 가장 정확한 다중 모드 이해를 보여주는 Lynx 생성 능력을 제안했습니다.
일반적인 시각적 언어 작업과 달리 GPT4 스타일 모델을 평가할 때 가장 중요한 과제는 텍스트 생성 기능과 다중 모드 이해 정확도 성능의 균형을 맞추는 것입니다. 이러한 문제를 해결하기 위해 저자는 영상 및 이미지 데이터를 포함한 새로운 벤치마크 Open-VQA를 제안하고, 현재 오픈소스 모델에 대한 종합적인 평가를 수행한다.
구체적으로 두 가지 정량적 평가 방식을 채택합니다.
다중 모드 LLM의 훈련 전략을 심층적으로 연구하기 위해 저자는 주로 네트워크 구조(접두사 미세 조정/교차 주의), 훈련 데이터(데이터 선택 및 조합 비율), 명령어(단일 명령어/다양한 표시 등 다양한 측면에서 20개 이상의 변형이 설정됨), LLM 모델(LLaMA [5]/Vicuna [6]), 이미지 픽셀(420/224) 등 실험을 통해 다음과 같은 주요 결론이 도출되었습니다.
저자가 제안한 Lynx(猞猁)——2단계 학습 GPT4 접두사 미세 조정이 포함된 스타일 모델입니다. 첫 번째 단계에서는 약 120M 이미지-텍스트 쌍이 시각적 및 언어 임베딩을 정렬하는 데 사용되며, 두 번째 단계에서는 20개의 이미지 또는 비디오가 다중 모달 작업 및 자연어 처리(NLP) 데이터에 사용되어 모델의 명령을 따르는 기능.
Pictures
Lynx 모델의 전체 구조는 위의 그림 1에 나와 있습니다.
시각적 입력은 시각적 토큰(토큰) $$W_v$$을 얻기 위해 시각적 입력을 처리한 후 LLM의 입력으로 명령 토큰 $$W_l$$과 연결됩니다. 이 기사에서는 구조를 Flamingo [3]에서 사용하는 cross-attention 구조와 구별하기 위해 "prefix-finetuning"이라고 합니다.
또한 저자는 고정된 LLM의 특정 레이어 뒤에 Adapter 를 추가하면 교육 비용을 더욱 줄일 수 있다는 사실을 발견했습니다.
저자는 Open-VQA, Mme [4] 및 OwlEval 수동 평가 에서 기존 오픈 소스 다중 모달 LLM 모델의 성능을 평가했습니다. (결과는 아래 차트에 표시되며, 평가 자세한 내용은 종이에 나와 있습니다). Lynx 모델은 Open-VQA 이미지 및 비디오 이해 작업, OwlEval 수동 평가 및 Mme Perception 작업에서 최고의 성능을 달성했음을 알 수 있습니다. 그 중 InstructBLIP도 대부분의 작업에서 높은 성능을 발휘하지만 응답이 너무 짧습니다. 이에 비해 Lynx 모델은 대부분의 경우 정답 제공을 기반으로 응답을 뒷받침하는 간결한 이유를 제공합니다. 친절합니다(경우에 따라 아래 사례 표시 섹션 참조).
1. Open-VQA 이미지 테스트 세트의 지표 결과는 아래 표 1과 같습니다.
Pictures
2. Open-VQA 비디오 테스트 세트의 지표 결과는 다음과 같습니다. 아래 표 1에는 2가 나와 있습니다.
사진
3. Open-VQA에서 가장 높은 점수를 받은 모델을 선택하여 OwlEval 평가 세트에 대한 수동 효과 평가를 수행합니다. 결과는 위의 그림 4에 나와 있습니다. 수동 평가 결과를 보면 Lynx 모델이 가장 좋은 언어 생성 성능을 가지고 있음을 알 수 있습니다.
Pictures
4. Mme 벤치마크 테스트에서 Perception 클래스 작업이 최고의 성능을 달성했으며, 그 중 14개 클래스 하위 작업 중 7개가 가장 좋은 성능을 보였습니다. (자세한 결과는 논문 부록 참조)
Open-VQA 사진 사례
OwlEval 사례
Open-V QA 영상 케이스
이 기사에서 저자는 20개 이상의 다중 모드 LLM 변형에 대한 실험을 통해 접두사 미세 조정을 주요 구조로 하는 Lynx 모델을 결정하고 다음과 같은 Open-VQA 평가 계획을 제시했습니다. 답변을 공개하세요. 실험 결과에 따르면 Lynx 모델은 최고의 다중 모드 생성 기능을 유지하면서 가장 정확한 다중 모드 이해 정확도를 수행하는 것으로 나타났습니다.
위 내용은 Byte 팀은 인지 생성 목록 SoTA를 이해하는 다중 모드 LLM인 Lynx 모델을 제안했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!