搜尋
首頁科技週邊人工智慧爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

多層感知器(MLP),也被稱為全連接前饋神經網絡,是如今深度學習模型的基礎構建塊。 MLP 的重要性無論如何強調都不為過,因為它們是機器學習中用於逼近非線性函數的預設方法。

但最近,來自MIT 等機構的研究者提出了一種非常有潛力的替代方法—KAN#。此方法在準確性和可解釋性方面表現優於 MLP。而且,它能以非常少的參數量勝過以更大參數量運行的 MLP。例如,作者表示,他們用 KAN 重新發現了結理論中的數學規律,以更小的網路和更高的自動化程度重現了 DeepMind 的結果。具體來說,DeepMind 的 MLP 有大約 300000 個參數,而 KAN 只有大約 200 個參數。

微調內容如下: 這些驚人的研究成果讓KAN迅速走紅,吸引了許多人對其展開研究。很快,有人提出了一些質疑。其中,有一篇標題為「KAN is just MLP」的Colab文件成為了討論的焦點。

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

KAN 只是一個普通的 MLP?   

上述文件的作者表示,你可以把 KAN 寫成一個 MLP,只要在 ReLU 之前加上一些重複和移位。

在一個簡短的範例中,作者展示如何將KAN網路改寫為具有相同數量參數的、具有輕微的非線性結構的普通MLP。

要記住的是,KAN 在邊上有激活函數。他們使用 B 樣條。在展示的例子中,為了簡單起見,作者將只使用 piece-wise 線性函數。這不會改變網路的建模能力。

下面是piece-wise 線性函數的範例:

#
def f(x):if x 

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

# #作者表示,我們可以使用多個ReLU 和線性函數輕鬆重寫這個函數。請注意,有時需要移動 ReLU 的輸入。

plt.plot(X, -2*X + torch.relu(X)*1.5 + torch.relu(X-1)*2.5)plt.grid()

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

真正的問題是如何將 KAN 層改寫成典型的 MLP 層。假設有 n 個輸入神經元,m 個輸出神經元,piece-wise 函數有 k 個 piece。這需要 n∗m∗k 個參數(每條邊有 k 個參數,而你有 n∗m 條邊)。

現在考慮一個 KAN 邊。為此,需要將輸入複製 k 次,每個副本移動一個常數,然後透過 ReLU 和線性層(第一層除外)運行。從圖形上看是這樣的(C 是常數,W 是權重):

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

#現在,可以對每一邊重複這個過程。但要注意一點,如果各處的 piece-wise 線性函數網格相同,我們就可以共享中間的 ReLU 輸出,只需在其上混合權重即可。就像這樣:

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

在 Pytorch 中,這可以翻譯成以下內容:

k = 3 # Grid sizeinp_size = 5out_size = 7batch_size = 10X = torch.randn(batch_size, inp_size) # Our inputlinear = nn.Linear(inp_size*k, out_size)# Weightsrepeated = X.unsqueeze(1).repeat(1,k,1)shifts = torch.linspace(-1, 1, k).reshape(1,k,1)shifted = repeated + shiftsintermediate = torch.cat([shifted[:,:1,:], torch.relu(shifted[:,1:,:])], dim=1).flatten(1)outputs = linear(intermediate)

現在我們的圖層看起來是這樣的: 

  • #Expand shift ReLU
  • Linear

一個接一個地考慮三個層:

  • #Expand shift ReLU (第1 層從這裡開始)
  • Linear
  • Expand shift ReLU (第2 層從這裡開始)
  • Linear
  • Expand shift ReLU (第3 層從這裡開始)
  • #Linear

##忽略輸入expansion ,我們可以重新排列:

  • Linear (第1 層從這裡開始)
  • Expand shift ReLU
  • #Linear (第2 層從這裡開始)
  • #Expand shift ReLU

如下的層基本上可以稱為MLP。你也可以把線性層做大,去掉 expand 和 shift,得到更好的建模能力(儘管需要付出更高的參數代價)。

  • Linear (第2 層從這裡開始)
  • #Expand shift ReLU

#透過這個例子,作者表明,KAN 就是一種MLP。這說法引發了大家對兩類方法的重新思考。

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

對KAN 思路、方法、結果的重新檢視

其實,除了與MLP 理不清的關係,KAN 也受到了其他許多方面的質疑。

總結下來,研究者們的討論主要集中在以下幾點。

第一,KAN 的主要貢獻在於可解釋性,而不在於擴展速度、準確性等部分。

論文作者曾經表示:

  1. KAN 的擴展速度比 MLP 快。 KAN 比參數較少的 MLP 具有更好的準確性。
  2. KAN 可以直覺地視覺化。 KAN 提供了 MLP 無法提供的可解釋性和互動性。我們可以使用 KAN 潛在地發現新的科學定律。

#其中,網路的可解釋性對於模型解決現實問題的重要性不言而喻:

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

##但問題在於:「我認為他們的主張只是它學得更快並且具有可解釋性,而不是其他東西。如果KAN 的參數比等效的NN 少得多,則前者是有意義的。 ?

這種說法目前還存在疑問。在論文中,KAN 的作者表示,他們只用 200 個參數的 KAN,就能復現 DeepMind 用 30 萬參數的 MLP 發現數學定理研究。在看到結果後,喬治亞理工學院副教授 Humphrey Shi 的兩位學生重新審視了 DeepMind 的實驗,發現只需 122 個參數,DeepMind 的 MLP 就能媲美 KAN 81.6% 的準確率。而且,他們沒有對 DeepMind 程式碼進行任何重大修改。為了實現這個結果,他們只減小了網路大小,使用隨機種子,並增加了訓練時間。

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

對此,論文作者也給了正面的回應:  

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

第二,KAN 和MLP 從方法上沒有本質不同。

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

「是的,這顯然是一回事。他們在KAN 中先做激活,然後再做線性組合,而在MLP 中先做線性組合,然後再做激活。 ##除了對方法的質疑之外,研究者也呼籲對這篇論文的評價回歸理性:

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP

「我認為人們需要停止將KAN 論文視為深度學習基本單元的巨大轉變,而只是將其視為一篇關於深度學習可解釋性的好論文。

##第三,有研究者表示,KAN 的想法並不新奇。

「人們在20 世紀80 年代對此進行了研究。Hacker News 的討論中提到了一篇義大利論文討論過這個問題。所以這根本不是什麼新鮮事。 ,KAN 論文的作者也沒有掩蓋這個問題。

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP「這些想法並不新鮮,但我不認為作者迴避了這一點。他只是把所有東西都很好地打包起來,並對toy 數據進行了一些很好的實驗。 1302.4389)也被提到,一些研究者認為二者「雖然略有不同,但想法有點相似」。

作者:最初研究目標確實是可解釋性

#熱烈討論的結果就是,作者之一 Sachin Vaidya 站出來了。

作為論文的作者之一,我想說幾句。 KAN 受到的關注令人驚嘆,而這種討論正是將新技術推向極限、找出哪些可行或不可行所需要的。

我想我應該分享一些關於動機的背景資料。我們實現 KAN 的主要想法源於我們正在尋找可解釋的人工智慧模型,這種模型可以「學習」物理學家發現自然規律的洞察力。因此,正如其他人所意識到的那樣,我們完全專注於這一目標,因為傳統的黑箱模型無法提供對科學基礎發現至關重要的見解。然後,我們透過與物理學和數學相關的例子表明,KAN 在可解釋性方面大大優於傳統方法。我們當然希望,KAN 的實用性將遠遠超出我們最初的動機。

在GitHub 主頁中,論文作者之一劉子鳴也對這項研究受到的評價進行了回應:

爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP最近我被問到到的最常見的問題是KAN 是否會成為下一代LLM。我對此沒有很清楚的判斷。

KAN 專為關心高精度和可解釋性的應用程式而設計。我們確實關心 LLM 的可解釋性,但可解釋性對 LLM 和科學來說可能意味著截然不同的事情。我們關心 LLM 的高精度嗎?縮放定律似乎意味著如此,但可能精度不太高。此外,對於 LLM 和科學來說,準確性也可能意味著不同的事情。

我歡迎人們批評 KAN,實踐是檢驗真理的唯一標準。很多事情我們事先並不知道,直到它們經過真正的嘗試並被證明是成功還是失敗。儘管我願意看到 KAN 的成功,但我同樣對 KAN 的失敗感到好奇。

KAN 和 MLP 不能互相替代,它們在某些情況下各有優勢,在某些情況下各有限制。我會對包含兩者的理論架構感興趣,甚至可以提出新的替代方案(物理學家喜歡統一理論,抱歉)。

#

KAN 論文一作劉子鳴。他是物理學家和機器學習研究員,目前是麻省理工學院和 IAIFI 的三年級博士生,導師是 Max Tegmark。他的研究興趣主要集中在人工智慧 AI 和物理的交叉領域。

以上是爆火後反轉? 「一夜解決MLP」的KAN:其實我也是MLP的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
及時工程中的思想圖是什麼及時工程中的思想圖是什麼Apr 13, 2025 am 11:53 AM

介紹 在迅速的工程中,“思想圖”是指使用圖理論來構建和指導AI的推理過程的新方法。與通常涉及線性S的傳統方法不同

優化您的組織與Genai代理商的電子郵件營銷優化您的組織與Genai代理商的電子郵件營銷Apr 13, 2025 am 11:44 AM

介紹 恭喜!您經營一家成功的業務。通過您的網頁,社交媒體活動,網絡研討會,會議,免費資源和其他來源,您每天收集5000個電子郵件ID。下一個明顯的步驟是

Apache Pinot實時應用程序性能監視Apache Pinot實時應用程序性能監視Apr 13, 2025 am 11:40 AM

介紹 在當今快節奏的軟件開發環境中,確保最佳應用程序性能至關重要。監視實時指標,例如響應時間,錯誤率和資源利用率可以幫助MAIN

Chatgpt擊中了10億用戶? Openai首席執行官說:'短短幾週內翻了一番Chatgpt擊中了10億用戶? Openai首席執行官說:'短短幾週內翻了一番Apr 13, 2025 am 11:23 AM

“您有幾個用戶?”他扮演。 阿爾特曼回答說:“我認為我們上次說的是每週5億個活躍者,而且它正在迅速增長。” “你告訴我,就像在短短幾週內翻了一番,”安德森繼續說道。 “我說那個私人

pixtral -12b:Mistral AI'第一個多模型模型 - 分析Vidhyapixtral -12b:Mistral AI'第一個多模型模型 - 分析VidhyaApr 13, 2025 am 11:20 AM

介紹 Mistral發布了其第一個多模式模型,即Pixtral-12b-2409。該模型建立在Mistral的120億參數Nemo 12B之上。是什麼設置了該模型?現在可以拍攝圖像和Tex

生成AI應用的代理框架 - 分析Vidhya生成AI應用的代理框架 - 分析VidhyaApr 13, 2025 am 11:13 AM

想像一下,擁有一個由AI驅動的助手,不僅可以響應您的查詢,還可以自主收集信息,執行任務甚至處理多種類型的數據(TEXT,圖像和代碼)。聽起來有未來派?在這個a

生成AI在金融部門的應用生成AI在金融部門的應用Apr 13, 2025 am 11:12 AM

介紹 金融業是任何國家發展的基石,因為它通過促進有效的交易和信貸可用性來推動經濟增長。交易的便利和信貸

在線學習和被動攻擊算法指南在線學習和被動攻擊算法指南Apr 13, 2025 am 11:09 AM

介紹 數據是從社交媒體,金融交易和電子商務平台等來源的前所未有的速度生成的。處理這種連續的信息流是一個挑戰,但它提供了

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
4 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

Atom編輯器mac版下載

Atom編輯器mac版下載

最受歡迎的的開源編輯器

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

將Eclipse與SAP NetWeaver應用伺服器整合。

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

mPDF

mPDF

mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),