在机器学习研究中,概念漂移一直是一个棘手的问题。它指的是数据分布随时间发生变化,导致模型的有效性受到影响。这种情况使得研究人员不得不不断地调整模型,以适应新的数据分布。解决概念漂移问题的关键在于开发出能够及时检测和适应数据变化的算法,
一个明显的案例是CLEAR非稳态学习基准的图像展示,揭示了过去十年中物体视觉特征发生的显著变化。
这一现象被称为"慢概念漂移",对物体分类模型提出了严峻挑战。随着时间推移,物体的外观或属性发生变化,如何确保模型能够适应这种变化并持续准确分类成为研究的重点。
最近,面对这一挑战,Google AI的研究团队提出了一种名为MUSCATEL(Multi-Scale Temporal Learning)的优化驱动方法,成功改善了模型在庞大且不断变化的数据集中的性能。这项研究成果已在AAAI2024上发表。
论文地址:https://arxiv.org/abs/2212.05908
目前,针对概率漂移的主流方法是在线学习和持续学习(online and continue learning)。
这些方法的主要概念是不断更新模型来适应最新数据,确保模型的实效性。然而,这种方法面临两个主要挑战。
这些方法往往只聚焦于最新数据,忽略了过去数据中蕴含的有价值信息。另外,它们假设所有数据实例的贡献随着时间均匀衰减,这与实际情况并不相符。
MUSCATEL方法能有效解决这些问题,它训练实例的重要性分配分数,优化模型在未来实例中的表现。
为此,研究人员引入了一个辅助模型,结合实例及其年龄生成分数。辅助模型与主模型协同学习,解决了两个核心难题。
该方法在实际应用中表现优异,在一项涵盖3900万张照片、持续9年的大型真实数据集实验中,相较于其他稳态学习的基线方法,准确率提升了15%。
同时在两个非稳态学习数据集及持续学习环境中,也展现出优于SOTA方法的效果。
为了研究概念漂移对有监督学习的挑战,研究人员在照片分类任务中比较了离线训练(offline training)和持续训练(continue training)两种方法,使用约3,900万张10年间的社交媒体照片。
如下图所示,离线训练模型虽然初始性能高,但随时间推移准确性下降,因灾难遗忘(catastrophic forgetting)导致对早期数据理解减少。
相反,持续训练模型虽初始性能较低,但对旧数据依赖较低,测试期间退化更快。
这表明数据随时间演变,两模型的适用性降低。概念漂移对有监督学习构成挑战,需持续更新模型以适应数据变化。
MUSCATEL
MUSCATEL是一种创新的方法,旨在解决缓慢概念漂移这一难题。它通过巧妙结合离线学习与持续学习的优势,旨在减少模型在未来的性能衰减。
在庞大的训练数据面前,MUSCATEL展现了其独特的魅力。它不仅仅依赖传统的离线学习,更在此基础上审慎地调控和优化过去数据的影响,为模型未来的表现打下坚实基础。
為了進一步提升主模型在新資料上的效能,MUSCATEL引進了一個輔助模型。
根據下圖中的最佳化目標,訓練輔助模型根據每個資料點的內容和年齡為其分配權重。這項設計使得模型能夠更好地適應未來數據的變化,並保持持續的學習能力。
為了讓輔助模型與主模型協同演化,MUSCATEL也採用了元學習(meta-learning)的策略。
此策略的關鍵在於將樣本實例與年齡的貢獻進行有效分離,並透過結合多種固定衰變時間尺度來設定權重,如下圖所示。
此外,MUSCATEL也學習將每個實例「分配」到最適合的時間尺度上,以實現更精確的學習。
如下圖所示,在CLEAR物件辨識挑戰中,學習的輔助模型成功調整了物件的權重:新外觀的物體權重增加,舊外觀的物體權重減少。
透過基於梯度的特徵重要性評估,可以發現輔助模型聚焦於影像中的主體,而非背景或與實例年齡無關的特徵,從而證明了其有效性。
#在YFCC100M資料集上研究了大規模照片分類任務(PCAT),利用前五年的資料作為訓練集,後五年的資料作為測試集。
相較於無加權基準線以及其他穩健學習技術,MUSCATEL方法展現了明顯的優勢。
值得注意的是,MUSCATEL方法有意識地調整了對遙遠過去資料的準確性,以換取測試期間表現的顯著提升。這項策略不僅優化了模型對於未來數據的適應能力,同時在測試期間也表現出較低的退化程度。
非穩態學習挑戰的資料集涵蓋了多種資料來源和模式,包括照片、衛星影像、社群媒體文字、醫療記錄、感測器讀數和表格數據,數據規模也從10k到3900萬實例不等。值得注意的是,每個資料集之前的最優方法可能各有千秋。然而,如下圖所示,在數據與方法均存在多樣性的背景下,MUSCATEL方法均展現了顯著的增益效果。這結果充分證明了MUSCATEL的廣泛適用性。
當面對堆積如山的大規模資料時,傳統的離線學習方法可能會感到力不從心。
考慮到這個問題,研究團隊巧妙地調整了一種受持續學習啟發的方法,讓它輕鬆適應大規模資料的處理。
這個方法很簡單,就是在每一批資料上加上一個時間權重,然後順序地更新模型。
雖然這樣做還是有一些小限制,例如模型更新只能基於最新的數據,但效果卻出奇地好!
在下图的照片分类的基准测试中,这个方法表现得比传统的持续学习算法和其他各种算法都要出色。
而且,由于它的思路与许多现有的方法都很搭,预计与其他方法结合后,效果会更加惊艳!
总的来说,研究团队成功将离线与持续学习相结合,破解了长期困扰业界的数据漂移问题。
这一创新策略不仅显著缓解了模型的「灾难遗忘」现象,还为大规模数据持续学习的未来发展开辟了新的道路,为整个机器学习领域注入了新的活力。
以上是對抗「概念飄逸」難題!谷歌發布全新時間感知框架:影像辨識準確率提升15%的詳細內容。更多資訊請關注PHP中文網其他相關文章!