近日,雲端從科技從容大模型在視覺領域再次取得重要進展,基於視覺基礎大模型的目標偵測器在偵測領域著名benchmark COCO資料集上從微軟研究院(MSR)、上海人工智慧實驗室、智源人工智慧研究院等多家知名企業與研究機構脫穎而出,刷新了世界紀錄。
雲從科技從容大模型在COCO測試集上平均精度(以下簡稱mAP,mean Average Precision)達到0.662,位列榜單第一(見下圖)。在驗證集上,單尺度取得mAP 0.656的佳績,多尺度TTA後mAP達到0.662,均達到世界領先水準。
大數據結合自監督學習 打造視覺核心技術
#以GPT為代表的大數據自監督預訓練已經在自然語言理解(NLP)領域取得了令人矚目的突破,視覺領域方面,大數據結合自監督學習的基礎模型訓練也有重要進展。
一方面,廣泛的視覺資料有助於模型學習通用的基礎特徵。雲從視覺基礎大模型,使用了超過20億的數據,包括大量無標籤數據集以及圖文多模態數據集,數據集的豐富多樣使得模型能夠提取到穩健的特徵,大大降低了下游任務的開發成本。
另一方面,自監督學習不需要人工標註,使得大量的無標註資料訓練視覺模型成為可能。雲端從對自監督學習演算法進行了多方面的改進,使其能更適用於偵測、分割等細粒度任務,在COCO偵測任務上取得好成績就是證明。
開放目標偵測 零次學習偵測能力 大幅降低研發成本
得益於視覺基礎模型優異性能,雲從從容大模型能夠基於大規模圖文多模態資料訓練支持上千類別目標的零次學習(以下簡稱zero-shot)檢測,涵蓋能源、交通、製造業等行業的各類目標。
從容大模型zero-shot能力在不同資料集上的表現
zero-shot能夠模仿人類的這個推理過程,利用過去的知識,在電腦中推理出新物件的具體形態,從而使得電腦具有辨識新事物的能力。
如何理解zero-shot?假設我們已知驢子和馬的形態特徵,已知老虎和鬣狗都是有條紋的動物,熊貓和企鵝是黑白相間的動物,我們定義斑馬是黑白條紋相間的馬科動物。不看任何斑馬的照片,僅僅是推理,在動物園一眾動物中,我們也能夠找到斑馬。
雲端從視覺基礎大模型表現出強大的泛化性能,大大降低了下游任務所需的資料依賴與開發成本,同時zero-shot大幅提高了訓練開發效率,使得廣泛應用和快速部署成為可能。
以上是雲端從科技從容大模型在benchmark COCO上刷新世界紀錄 大幅降低AI應用成本的詳細內容。更多資訊請關注PHP中文網其他相關文章!