德國弗萊堡大學機器學習實驗室負責人Frank Hutter 說,所有這些人類決策的結果是,複雜的模型最終是被"憑直覺設計",而不是系統地設計的。
一個名為自動機器學習(autoML)的不斷發展的領域旨在消除這種猜測。其想法是讓演算法接管研究人員目前在設計模型時必須做出的決定。最終,這些技術可以使機器學習變得更容易獲得。
儘管自動機器學習已經存在了近十年,但研究人員仍在努力改進它。近日,在巴爾的摩舉行的一次新會議,展示了為提高autoML的準確性和簡化其性能而做出的努力。
人們對 autoML 簡化機器學習的潛力產生了濃厚的興趣。亞馬遜和谷歌等公司已經提供了利用 autoML 技術的低程式碼機器學習工具。如果這些技術變得更有效,它可以加速研究並讓更多人使用機器學習。
這樣做的目的是為了讓人們可以選擇他們想問的問題,將 autoML 工具指向它,並獲得他們想要的結果。
這個願景是"電腦科學的聖杯",懷俄明大學的電腦科學助理教授兼會議組織者Lars Kotthoff說,"你指定了問題,電腦就知道如何解決它,這就是你要做的一切。"但首先,研究人員必須弄清楚如何使這些技術更省時、更節能。
乍一看,autoML 的概念似乎是多餘的——畢竟,機器學習已經是關於自動化從資料中獲取洞察力的過程。但由於 autoML 演算法在底層機器學習模型之上的抽象層級上運行,僅依賴這些模型的輸出作為指導,因此它們可以節省時間和計算量。
研究人員可以將 autoML 技術應用於預先訓練的模型以獲得新的見解,而不會浪費運算能力來重複現有的研究。
例如,美國富士通研究所的研究科學家 Mehdi Bahrami 和他的合著者介紹了最近的工作,關於如何將BERT-sort演算法與不同的預訓練模型一起使用以適應新的目的。
BERT-sort 是一種演算法,可以在對資料集進行訓練時找出所謂的"語義順序"。例如,給定的電影評論數據,它知道"偉大的"電影的排名要高於"好"和"壞"的電影。
借助 autoML 技術,還可以將學習到的語義順序推廣到對癌症診斷甚至外語文本進行分類,從而減少時間和計算量。
"BERT 需要數月的計算,而且非常昂貴,例如要花費100 萬美元來生成該模型並重複這些過程。"Bahrami 說,"因此,如果每個人都想做同樣的事情,那很昂貴——它不節能,對世界的可持續發展不利。"
儘管該領域顯示出希望,但研究人員仍在尋找使autoML 技術的計算效率更高的方法。例如,透過像神經架構搜尋(NAS)這樣的方法,建立和測試許多不同的模型以找到最合適的模型,完成所有這些迭代所需的能量可能很大。
自動機器學習也可以應用於不涉及神經網路的機器學習演算法,例如建立隨機決策森林或支援向量機來對資料進行分類。這些領域的研究正在持續進行中,已經有許多編碼庫可供想要將 autoML 技術整合到他們的專案中的人們使用。
Hutter表示,下一步是使用autoML量化不確定性並解決演算法中的可信度和公平性問題。在這個願景中,關於可信賴性和公平性的標準將類似於任何其他機器學習的約束條件,例如準確性。而autoML可以在這些演算法發布之前捕獲並自動修正這些演算法中發現的偏差。
但是對於像深度學習這類應用,autoML還有很長的路要走。用於訓練深度學習模型的數據,如圖像、文件和錄製的語音,通常是密集且複雜的。它需要巨大的運算能力來處理。除了在財力雄厚的大企業工作的研究人員之外,訓練這些模型的成本和時間可能會讓任何人望而卻步。
該會議上的一項競賽要求是參與者開發用於神經架構搜尋的節能替代演算法。這是一個相當大的挑戰,因為這種技術具有"臭名昭著"的計算需求。它會自動循環遍歷無數的深度學習模型,以幫助研究人員為他們的應用選擇合適的模型,但該過程可能需要數月時間,成本超過一百萬美元。
這些被稱為零成本神經架構搜尋代理的替代演算法的目標是,透過大幅削減其對運算的需求,使神經架構搜尋更容易取得、更環保。其結果只需要幾秒鐘就能運行,而不是幾個月。目前,這些技術仍處於發展的早期階段並且通常不可靠,但機器學習研究人員預測,它們有可能使模型選擇過程更有效率。
以上是使用 autoML 技術更容易開發AI的詳細內容。更多資訊請關注PHP中文網其他相關文章!