數千年來,演算法一直在幫助數學家們進行基本運算。早在很久之前,古埃及人就發明了一種不需要乘法表就能將兩個數字相乘的演算法。希臘數學家歐幾裡得描述了一種計算最大公約數的演算法,這種演算法至今仍在使用。在伊斯蘭的黃金時代,波斯數學家 Muhammad ibn Musa al-Khwarizmi 設計了一種求解線性方程式和二次方程式的新演算法,這些演算法都對後來的研究產生了深遠的影響。
事實上,演算法一詞的出現,有這樣一種說法:波斯數學家Muhammad ibn Musa al-Khwarizmi 名字中的al-Khwarizmi 一詞翻譯為拉丁語為Algoritmi的意思,從而引出了演算法一詞。不過,雖然今天我們對演算法很熟悉,可以從課堂中學習、在科研領域也經常遇到,似乎整個社會都在使用演算法,然而發現新演算法的過程是非常困難的。
現在,DeepMind 用 AI 來發現新演算法。
在最新一期Nature 封面論文《Discovering faster matrix multiplication algorithms with reinforcement learning》中,DeepMind 提出了AlphaTensor,並表示它是第一個可用於為矩陣乘法等基本任務發現新穎、高效且可證明正確的演算法的人工智慧系統。簡單來說,使用 AlphaTensor 能夠發現新演算法。這項研究揭示了 50 年來在數學領域一個懸而未決的問題,即找到兩個矩陣相乘最快方法。
AlphaTensor 建立在AlphaZero 的基礎上,而AlphaZero 是一種在國際象棋、圍棋和將棋等棋盤遊戲中可以打敗人類的智能體。這項工作展示了 AlphaZero 從用於遊戲到首次用於解決未解決的數學問題的一次轉變。
矩陣乘法是代數中最簡單的運算之一,通常在高中數學課上教授。但在課堂之外,這種不起眼的數學運算在當代數位世界中產生了巨大的影響,在現代計算中無處不在。
兩個 3x3 矩陣相乘的範例。
你可能沒注意到,我們生活中處處隱藏著矩陣相乘,如智慧型手機中的影像處理、辨識語音指令、為電腦遊戲產生圖形等都有它在背後運算。遍布世界各地的公司都願意花費大量的時間和金錢開發計算硬體以有效地解決矩陣相乘。因此,即使是對矩陣乘法效率的微小改進也會產生廣泛的影響。
幾個世紀以來,數學家認為標準矩陣乘法演算法是效率最高的演算法。但在 1969 年,德國數學家 Volken Strassen 透過證明確實存在更好的演算法,這項研究震驚了整個數學界。
標準演算法與Strassen 演算法對比,後者少進行了一次乘法運算,為7 次,而前者需要8 次,整體效率大幅提升。
透過研究非常小的矩陣(大小為2x2),Strassen 發現了一種巧妙的方法來組合矩陣的項以產生更快的演算法。之後數十年,研究者都在研究更大的矩陣,甚至找到 3x3 矩陣相乘的高效方法,都還沒有解決。
DeepMind 的最新研究探討了現代 AI 技術如何推動新矩陣乘法演算法的自動發現。基於人類直覺(human intuition)的進步,對於更大的矩陣來說,AlphaTensor 發現的演算法比許多 SOTA 方法更有效。該研究表明 AI 設計的演算法優於人類設計的演算法,這是演算法發現領域向前邁出的重要一步。
首先將發現矩陣乘法高效演算法的問題轉換為單人遊戲。其中,board 是一個三維度張量(數字數組),用於捕捉當前演算法的正確程度。透過一組與演算法指令相對應的所允許的移動,玩家嘗試修改張量並將其條目歸零。
當玩家設法這樣做時,將為任何一對矩陣產生可證明是正確的矩陣乘法演算法,並且其效率由將張量清除所採取的步驟數來衡量。
這個遊戲非常具有挑戰性,要考慮的可能演算法的數量遠遠大於宇宙中原子的數量,即使對於矩陣乘法這樣小的情況也是如此。與幾十年來一直是人工智慧挑戰的圍棋遊戲相比,該遊戲每一步可能的移動數量要多30 個數量級(DeepMind 考慮的一種設定是10^33 以上。)
為了解決這個與傳統遊戲明顯不同的領域所面臨的挑戰,DeepMind 開發了多個關鍵組件,包括一個結合特定問題歸納偏置的全新神經網路架構、一個生成有用合成數據的程式以及一種利用問題對稱性的方法。
接著,DeepMind 訓練了一個利用強化學習的智能體 AlphaTensor 來玩這個遊戲,該智能體在開始時沒有任何現有矩陣乘法演算法的知識。透過學習,AlphaTensor 隨時間逐漸地改進,重新發現了歷史上的快速矩陣演算法(如 Strassen 演算法),並且發現演算法的速度比以往已知的要快。
AlphaTensor 玩的單人遊戲,目標是找到正確的矩陣乘法演算法。遊戲狀態是一個由數字組成的立方數組(灰色表示 0,藍色表示 1,綠色表示 - 1),它代表了要完成的剩餘工作。
舉例而言,如果學校裡教的傳統演算法可以使用100 次乘法完成4x5 與5x5 矩陣相乘,透過人類的聰明才智可以將這一數字降至80 次。與之相比,AlphaTensor 發現的演算法只需使用 76 次乘法即可完成相同的運算,如下圖所示。
除了上述範例之外,AlphaTensor 發現的演算法還首次在有限領域中改進了Strassen 的二階演算法.這些用於小矩陣相乘的演算法可以當作原語來乘以任意大小的更大矩陣。
AlphaTensor 還發現了具有SOTA 複雜性的多樣化演算法集,其中每種大小的矩陣乘法演算法多達數千,表明矩陣乘法演算法的空間比以前想像的要豐富。
在這個豐富空間中的演算法具有不同的數學和實用屬性。利用這種多樣性,DeepMind 對 AlphaTensor 進行了調整,以專門發現在給定硬體(如 Nvidia V100 GPU、Google TPU v2)上運行速度快的演算法。這些演算法在相同硬體上進行大矩陣相乘的速度比常用演算法快了 10-20%,顯示了 AlphaTensor 在優化任意目標方面具備了靈活性。
AlphaTensor 具有一個對應於演算法運行時的目標。當發現正確的矩陣乘法演算法時,它會在指定硬體上進行基準測試,然後回饋給 AlphaTensor,以便在指定硬體上學習更有效率的演算法。
#从数学的角度来看,对于旨在确定解决计算问题的最快算法的复杂性理论而言,DeepMind 的结果可以指导它的进一步研究。通过较以往方法更高效地探索可能的算法空间,AlphaTensor 有助于加深我们对矩阵乘法算法丰富性的理解。
此外,由于矩阵乘法是计算机图形学、数字通信、神经网络训练和科学计算等很多计算任务的核心组成部分,AlphaTensor 发现的算法可以显著提升这些领域的计算效率。
虽然本文只专注于矩阵乘法这一特定问题,但 DeepMind 希望能够启发更多的人使用 AI 来指导其他基础计算任务的算法发现。并且,DeepMind 的研究还表明,AlphaZero 这种强大的算法远远超出了传统游戏的领域,可以帮助解决数学领域的开放问题。
未来,DeepMind 希望基于他们的研究,更多地将人工智能用来帮助社会解决数学和科学领域的一些最重要的挑战。
以上是強化學習發現矩陣乘法演算法,DeepMind再登Nature封面推出AlphaTensor的詳細內容。更多資訊請關注PHP中文網其他相關文章!