搜尋
首頁科技週邊人工智慧谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

ChatGPT 的火爆有目共睹,而对于支撑其成功背后的技术,监督式的指令微调以及基于人类反馈的强化学习至关重要。这些技术也在逐渐扩展到其他 AI 领域,包括计算机视觉(CV)。​

我们知道,在处理计算机视觉中的复杂输出时,成功的主要标准不在于模型对训练目标的优化程度,而在于预测能力与任务的吻合程度,即模型在预期用途上的表现效果。

为了追求这种一致性,有研究者在模型架构、数据、优化、采样、后处理等方面进行了一些改进。例如,在物体检测任务中,研究人员使用了 NMS(non-maximum suppression )、基于集合的全局损失(set-based global loss)以及改变输入数据来获得在测试时具有改进行为的模型。虽然这些方法带来了显著的收益,但它们往往只对特定任务有用,仅仅是间接地对任务风险进行了优化。​

不仅 CV,包括自然语言处理(NLP)、强化学习(RL)等领域也在广泛研究这一现象。在这些领域中,对于目标不太明确的任务,如翻译或生成摘要,制定优化目标非常困难。在处理这类问题时,一种流行的方法是学习模仿例子的输出,然后进行强化学习,使模型与奖励函数保持一致。使用这种方法,NLP 领域产生了令人兴奋的结果,该方法使用大型预训练语言模型和由人类反馈定义的奖励来处理原本难以指定的任务。

此外,同样的方法被广泛用于图像字幕任务中,其中 CIDEr(Vedantam 等人 2015 年提出)被用来作为奖励。尽管如此,据了解,奖励优化以前还没有在(非文本)计算机视觉任务中进行过探索。

近日,谷歌大脑团队的研究者在论文《Tuning computer vision models with task rewards》中证明了,使用 REINFORCE 算法(Williams 于 1992 提出)来调整(Tuning)具有奖励函数的预训练模型可以开箱即用地用于各种计算机视觉任务

其实许多关于强化学习任务的研究都会提及 Williams 的 REINFORCE 算法,可见这个算法的重要性。可以说 REINFORCE 算法是策略梯度乃至强化学习的典型代表。

论文地址:https://arxiv.org/pdf/2302.08242v1.pdf

图 1 展示了一些关键结果,主要包括目标检测、全景分割和图像着色的奖励优化带来的定量和定性改进。该研究所提出的方法在处理各种 CV 任务上简单而有效,证明了它的多功能性和适应性。尽管本文主要采用评估指标形式的奖励,但这些初步结果显示了该方法用来优化计算机视觉模型也不失为一种有效途径,这些模型具有更复杂和更难指定的奖励,例如人的反馈或整体系统性能。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

推特网友对这篇文章给了一个比较全面的总结,即本文实现的功能是使用 RL 调整预训练视觉模型。研究的动因是受到 LLM 强化学习成功的启发;其效果是在目标检测、全景分割等方面性能大幅提升。并表示,这项研究可能是实现视觉 RLHF (Reinforcement Learning from Human Feedback)的有效途径。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

图源:https://twitter.com/johnjnay/status/1627009121378598912

獎勵

在不喪失泛化性的情況下,該研究將CV 任務描述為學習一個函數的過程,該函數將輸入x(即圖像)映射到輸出y = [y_1, y_1,…, y_n](文字token 序列、bounding box 序列等)。研究旨在學習以 θ 為參數的條件分佈 P (y|x, θ),使獎勵函數 R 最大化。用抽象的公式來形容,就是本文要解決以下最佳化問題。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

問題有了,接下來就是怎麼解決了,本文分兩步走:先用最大似然估計對模型進行預訓練;然後使用REINFORCE 演算法對模型進行Tuning 。下面我們來看看這兩個步驟的具體過程:

最大似然預訓練

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?#首先使用最大似然原理估計參數θ 並捕捉訓練資料的分佈。實現這一目標可採用梯度下降演算法,該演算法透過最大化訓練資料的 log-likelihood

來實現。演算法 1 和圖 2 描述了 MLE(最大似然估計)最佳化步驟,這是訓練模型最常用的方法。完成這一步驟將得到 MLE 模型。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

#REINFORC 演算法將獎勵最大化 

#為了更好的最佳化MLE 模型以適應任務風險,還需要最大化獎勵函數。對於給定輸入x,研究利用REINFORCE 演算法來估計對給定x 期望獎勵的梯度,公式如下所述:谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?


##演算法2提供了偽代碼,圖3 說明了這個過程:

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

實驗結果

接下來我們來看看本文所提出的方法在視覺任務上的表現。

全景分割谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

#如下表 1 所示,Tuning 流程顯著改善了 MLE 模型。視覺檢查(visual inspection)後的結果表明,Tuning 後的模型在避免不連貫預測方面更好,特別是對於小尺度物體,可參見圖 1。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?#目標偵測

表2 顯示,透過最佳化,該研究將原始MLE 模型的mAP 分數從39.2% 大幅提高到54.3%。在 Pix2seq 中,具有稍大的 1333×1333 解析度和許多啟發式的相同大小的 ViT-B 模型達到了 47.1%。當使用較大的 ViT-L 主幹時,Pix2seq 報告的最佳目標偵測結果為 50.0%。

#####################上色##########

圖 4 給出的定性結果清楚地表明,新模型始終能產生更豐富多彩的圖像。

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

圖像描述

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?

#表3 結果表明,應用所提出的方法可以改進MLE 模型,這與先前文獻中的觀察結果一致,證明了該方法針對特定任務風險進行tuning 的有效性。

########################

以上是谷歌復用30年前經典演算法,CV引入強化學習,網友:視覺RLHF要來了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
微軟工作趨勢指數2025顯示工作場所容量應變微軟工作趨勢指數2025顯示工作場所容量應變Apr 24, 2025 am 11:19 AM

由於AI的快速整合而加劇了工作場所的迅速危機危機,要求戰略轉變以外的增量調整。 WTI的調查結果強調了這一點:68%的員工在工作量上掙扎,導致BUR

AI可以理解嗎?中國房間的論點說不,但是對嗎?AI可以理解嗎?中國房間的論點說不,但是對嗎?Apr 24, 2025 am 11:18 AM

約翰·塞爾(John Searle)的中國房間論點:對AI理解的挑戰 Searle的思想實驗直接質疑人工智能是否可以真正理解語言或具有真正意識。 想像一個人,對下巴一無所知

中國的'智能” AI助手回應微軟召回的隱私缺陷中國的'智能” AI助手回應微軟召回的隱私缺陷Apr 24, 2025 am 11:17 AM

與西方同行相比,中國的科技巨頭在AI開發方面的課程不同。 他們不專注於技術基準和API集成,而是優先考慮“屏幕感知” AI助手 - AI T

Docker將熟悉的容器工作流程帶到AI型號和MCP工具Docker將熟悉的容器工作流程帶到AI型號和MCP工具Apr 24, 2025 am 11:16 AM

MCP:賦能AI系統訪問外部工具 模型上下文協議(MCP)讓AI應用能夠通過標準化接口與外部工具和數據源交互。由Anthropic開發並得到主要AI提供商的支持,MCP允許語言模型和智能體發現可用工具並使用合適的參數調用它們。然而,實施MCP服務器存在一些挑戰,包括環境衝突、安全漏洞以及跨平台行為不一致。 Forbes文章《Anthropic的模型上下文協議是AI智能體發展的一大步》作者:Janakiram MSVDocker通過容器化解決了這些問題。基於Docker Hub基礎設施構建的Doc

使用6種AI街頭智能策略來建立一家十億美元的創業使用6種AI街頭智能策略來建立一家十億美元的創業Apr 24, 2025 am 11:15 AM

有遠見的企業家採用的六種策略,他們利用尖端技術和精明的商業敏銳度來創造高利潤的可擴展公司,同時保持控制。本指南是針對有抱負的企業家的,旨在建立一個

Google照片更新解鎖了您所有圖片的驚人Ultra HDRGoogle照片更新解鎖了您所有圖片的驚人Ultra HDRApr 24, 2025 am 11:14 AM

Google Photos的新型Ultra HDR工具:改變圖像增強的遊戲規則 Google Photos推出了一個功能強大的Ultra HDR轉換工具,將標準照片轉換為充滿活力的高動態範圍圖像。這種增強功能受益於攝影師

Descope建立AI代理集成的身份驗證框架Descope建立AI代理集成的身份驗證框架Apr 24, 2025 am 11:13 AM

技術架構解決了新興的身份驗證挑戰 代理身份集線器解決了許多組織僅在開始AI代理實施後發現的問題,即傳統身份驗證方法不是為機器設計的

Google Cloud Next 2025以及現代工作的未來Google Cloud Next 2025以及現代工作的未來Apr 24, 2025 am 11:12 AM

(注意:Google是我公司的諮詢客戶,Moor Insights&Strateging。) AI:從實驗到企業基金會 Google Cloud Next 2025展示了AI從實驗功能到企業技術的核心組成部分的演變,

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

DVWA

DVWA

Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

EditPlus 中文破解版

EditPlus 中文破解版

體積小,語法高亮,不支援程式碼提示功能