ChatGPT의 인기는 누구에게나 명백하며, 성공을 뒷받침하는 기술을 위해서는 인간의 피드백을 기반으로 한 지도 지도 미세 조정 및 강화 학습이 중요합니다. 이러한 기술은 컴퓨터 비전(CV)을 포함한 다른 AI 분야로도 점차 확장되고 있습니다.
컴퓨터 비전에서 복잡한 출력을 처리할 때 성공의 주요 기준은 모델이 훈련 목표에 얼마나 잘 최적화되었는지가 아니라 예측 기능이 작업에 얼마나 잘 맞는지, 즉 얼마나 잘 모델은 의도된 용도로 수행됩니다.
이러한 일관성을 추구하기 위해 일부 연구자들은 모델 아키텍처, 데이터, 최적화, 샘플링, 후처리 등을 일부 개선했습니다. 예를 들어 객체 감지 작업에서 연구원들은 NMS(Non-Maximum Suppression), 세트 기반 전역 손실, 입력 데이터 변경을 사용하여 테스트 시 동작이 개선된 모델을 얻었습니다. 이러한 방법은 상당한 이점을 제공하지만 특정 작업에만 유용하고 임무 위험을 간접적으로만 최적화하는 경우가 많습니다.
CV뿐만 아니라 자연어 처리(NLP), 강화 학습(RL) 등 다른 분야에서도 이러한 현상을 널리 연구하고 있습니다. 이러한 영역에서는 번역이나 요약 생성과 같이 잘 정의되지 않은 작업에 대한 최적화 목표를 공식화하는 것이 매우 어렵습니다. 이러한 유형의 문제를 다룰 때 일반적인 접근 방식은 예제의 출력을 모방한 다음 강화 학습을 수행하여 모델을 보상 기능에 맞추는 것입니다. NLP 분야에서는 사전 훈련된 대규모 언어 모델과 인간 피드백에 의해 정의된 보상을 사용하여 지정하기 어려운 작업을 처리하는 이 접근 방식을 사용하여 흥미로운 결과를 생성했습니다.
또한 동일한 방법이 이미지 캡션 작업에도 널리 사용되며 CIDEr(Vedantam et al. 2015 제안)가 보상으로 사용됩니다. 그럼에도 불구하고, 우리가 아는 한, 보상 최적화는 (텍스트가 아닌) 컴퓨터 비전 작업에서 이전에 탐색된 적이 없습니다.
최근 Google Brain 팀의 연구원들은 "Tuning Computer Vision Models with Task Rewards"라는 논문에서 REINFORCE 알고리즘(1992년 Williams가 제안)을 사용하여 사전 훈련된 모델을 조정(Tuning)하는 것을 입증했습니다. 보상 기능은 즉시 사용 가능한 다양한 컴퓨터 비전 작업에 사용할 수 있습니다 .
실제로 강화 학습 작업에 관한 많은 연구에서 Williams의 REINFORCE 알고리즘을 언급할 것이며, 이는 이 알고리즘의 중요성을 보여줍니다. REINFORCE 알고리즘은 정책 그래디언트와 심지어 강화학습까지 대표하는 대표적인 알고리즘이라고 할 수 있습니다.
논문 주소: https://arxiv.org/pdf/2302.08242v1.pdf
그림 1은 주로 표적 탐지, 파노라마 분할 및 이미지 색상 정량을 위한 보상 최적화 대역을 포함한 몇 가지 주요 결과를 보여줍니다. 그리고 질적 개선. 본 연구에서 제안한 방법은 다양한 CV 작업을 처리하는 데 간단하고 효과적이며 다양성과 적응성을 보여줍니다. 본 논문에서는 평가 지표 형태의 보상을 주로 사용하지만, 이러한 예비 결과는 이 방법이 인간 피드백이나 전체 시스템 성능과 같이 더 복잡하고 지정하기 어려운 컴퓨터 비전 모델을 최적화하는 효과적인 방법이 될 수 있음을 보여줍니다. .
Twitter 사용자는 이 기사에 대해 비교적 포괄적인 요약을 제공했습니다. 즉, 이 기사에서 구현된 기능은 RL을 사용하여 사전 훈련된 시각적 모델을 조정하는 것입니다. 연구 동기는 LLM 강화 학습의 성공에서 영감을 얻었습니다. 그 효과는 표적 탐지, 파노라마 분할 등의 성능이 크게 향상되었습니다. 그는 또한 이 연구가 시각적 RLHF(Reinforcement Learning from Human Feedback)를 달성하는 효과적인 방법이 될 수 있다고 말했습니다.
출처: https://twitter.com/johnjnay/status/1627009121378598912
보상
연구에서는 CV 작업을 입력 x(예: 이미지)를 출력 y = [y_1, y_1,… , y_n](텍스트 토큰 시퀀스, 경계 상자 시퀀스 등). 본 연구에서는 보상 함수 R을 최대화하기 위해 θ를 매개변수로 하는 조건부 분포 P(y|x, θ)를 학습하는 것을 목표로 합니다. 이를 설명하기 위해 추상 공식을 사용하기 위해 이 기사에서는 다음과 같은 최적화 문제를 해결합니다.
이제 문제가 발생했으므로 다음 단계는 문제를 해결하는 방법입니다. 먼저 최대 우도 추정을 사용하여 모델을 사전 훈련한 다음 REINFORCE 알고리즘을 사용합니다. 모델을 조정하세요. 이 두 단계의 구체적인 프로세스를 살펴보겠습니다.
최대 우도 사전 훈련
먼저 최대 우도 원리를 사용하여 매개변수 θ를 추정하고 훈련 데이터의 분포를 캡처합니다. 이는 훈련 데이터의 로그 우도
를 최대화하여 작동하는 경사하강법 알고리즘을 사용하여 달성됩니다. 알고리즘 1과 그림 2는 모델 학습에 가장 일반적인 방법인 MLE(최대 우도 추정) 최적화 단계를 설명합니다. 이 단계를 완료하면 MLE 모델이 생성됩니다.
REINFORC 알고리즘은 보상을 최대화합니다.
작업 위험에 적응하기 위해 MLE 모델을 더 잘 최적화하려면 보상 기능을 최대화하는 것도 필요합니다. 주어진 입력 x에 대해 본 연구에서는 REINFORCE 알고리즘을 활용하여 주어진 x에 대한 예상 보상의 기울기를 추정하며 공식은 다음과 같습니다.
알고리즘 2는 의사코드를 제공하며 그림 3은 그 과정을 보여줍니다. :
실험 결과
다음으로, 시각적 작업에 대해 이 글에서 제안한 방법의 성능을 살펴보겠습니다.
파노라마 분할
아래 표 1에서 볼 수 있듯이 조정 프로세스는 MLE 모델을 크게 향상시킵니다. 육안 검사 후 결과는 튜닝 후 모델이 일관되지 않은 예측을 피하는 데 더 나은 것으로 나타났습니다. 특히 소규모 개체의 경우 그림 1을 참조하세요.
ObjectDetection
표 2는 최적화를 통해 이 연구에서 원래 MLE 모델의 mAP 점수가 39.2%에서 54.3%로 크게 향상되었음을 보여줍니다. Pix2seq에서는 약간 더 큰 1333×1333 해상도와 많은 휴리스틱을 갖춘 동일한 크기의 ViT-B 모델이 47.1%를 달성했습니다. 더 큰 ViT-L 백본을 사용할 때 Pix2seq는 50.0%의 최상의 표적 탐지 결과를 보고했습니다.
채색
그림 4에 제시된 정성적 결과는 새 모델이 지속적으로 더욱 다채로운 이미지를 생성한다는 것을 분명히 보여줍니다.
이미지 설명
표 3 결과는 제안된 방법을 적용하면 MLE 모델을 개선할 수 있음을 보여줍니다. 이는 문헌의 이전 관찰과 일치하며 방법이 다음과 같음을 보여줍니다. 특정 임무 위험에 대한 튜닝의 효율성에 적합합니다.
위 내용은 Google은 30년 전의 고전 알고리즘을 재사용하고 CV는 강화 학습을 도입합니다. 네티즌: 시각적 RLHF가 올까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Stanford University Institute for Human-Oriented Intificial Intelligence가 발표 한 2025 인공 지능 지수 보고서는 진행중인 인공 지능 혁명에 대한 훌륭한 개요를 제공합니다. 인식 (무슨 일이 일어나고 있는지 이해), 감사 (혜택보기), 수용 (얼굴 도전) 및 책임 (우리의 책임 찾기)의 네 가지 간단한 개념으로 해석합시다. 인지 : 인공 지능은 어디에나 있고 빠르게 발전하고 있습니다 인공 지능이 얼마나 빠르게 발전하고 확산되고 있는지 잘 알고 있어야합니다. 인공 지능 시스템은 끊임없이 개선되어 수학 및 복잡한 사고 테스트에서 우수한 결과를 얻고 있으며 1 년 전만해도 이러한 테스트에서 비참하게 실패했습니다. AI 복잡한 코딩 문제 또는 대학원 수준의 과학적 문제를 해결한다고 상상해보십시오-2023 년 이후

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

연결의 편안한 환상 : 우리는 AI와의 관계에서 진정으로 번성하고 있습니까? 이 질문은 MIT Media Lab의 "AI (AI)를 사용하여 인간의 발전"심포지엄의 낙관적 톤에 도전했습니다. 이벤트는 절단 -EDG를 보여주었습니다

소개 차등 방정식, 최적화 문제 또는 푸리에 분석과 같은 복잡한 문제를 해결하는 과학자 또는 엔지니어라고 상상해보십시오. Python의 사용 편의성 및 그래픽 기능은 매력적이지만 이러한 작업에는 강력한 도구가 필요합니다.

메타의 라마 3.2 : 멀티 모달 AI 강국 Meta의 최신 멀티 모드 모델 인 LLAMA 3.2는 AI의 상당한 발전으로 향상된 언어 이해력, 개선 된 정확도 및 우수한 텍스트 생성 기능을 자랑합니다. 그것의 능력 t

데이터 품질 보증 : Dagster로 점검 자동화 및 큰 기대치 데이터 품질이 높다는 것은 데이터 중심 비즈니스에 중요합니다. 데이터 볼륨 및 소스가 증가함에 따라 수동 품질 관리는 비효율적이며 오류가 발생하기 쉽습니다.

메인 프레임 : AI 혁명의 이름없는 영웅 서버는 일반 목적 애플리케이션 및 여러 클라이언트를 처리하는 데 탁월하지만 메인 프레임은 대량의 미션 크리티컬 작업을 위해 구축됩니다. 이 강력한 시스템은 자주 무거움에서 발견됩니다


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

Dreamweaver Mac版
시각적 웹 개발 도구

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경
