一個連業餘棋手都打不過的新模型,竟然擊敗了世界最強圍棋AI——KataGo?
沒錯,這會驚掉人下巴的結果來自MIT、UC柏克萊等的最新論文。
研究人員利用對抗攻擊方法,抓住了KataGo的盲點,並基於該技術使一個菜鳥級圍棋程序成功打敗了KataGO。
在沒有搜尋的情況下,這勝率甚至達到了99%。
這麼算下來,圍棋界的食物鏈瞬間變成了:業餘棋手>新AI>頂級圍棋AI?
等等,這個神奇的新AI是怎麼做到又菜又厲害的?
刁鑽的攻擊角度
在介紹新AI之前,讓我們先來了解一下這次被攻擊的主角-KataGo。
KataGo,目前最強大的開源圍棋AI,由哈佛AI研究員開發。
先前,KataGo擊敗了超人類水準的ELF OpenGo和Leela Zero,即使沒有搜尋引擎的情況下,其水準也與歐洲前100名圍棋專業選手相當。
剛拿下三星盃冠軍、實現「三年四冠」的韓國圍棋「第一人」申真諦,就一直用的KataGo進行陪練。
△圖源:Hangame
面對實力如此強勁的對手,研究人員選擇的方法可以說是四兩撥千斤了。
他們發現,儘管KataGo透過與自己進行數百萬次遊戲來學習圍棋,但這仍然不足以涵蓋所有可能的情況。
於是,這次他們不再選擇自我博弈,而是選擇對抗攻擊方法:
讓攻擊者(adversary)和固定受害者(victim,也就是KataGo)之間進行博弈,利用這種方式訓練攻擊者。
這一步改變讓他們只用訓練KataGo時0.3%的數據,訓練出了一個端到端的對抗策略(adversarial policy)。
具體來說,該對抗策略並不是完全在做博弈,而是透過欺騙KataGo在對攻擊者有利的位置落子,以過早地結束遊戲。
以下圖為例,控制著黑子的攻擊者主要在棋盤的右上角落子,把其他區域留給KataGo,並且還心機的在其他區域下了一些容易被清理的棋子。
論文共同一作Adam Gleave介紹:
這種做法會讓KataGo誤以為自己已經贏了,因為它的地盤(左下)比對手的要大得多。
但左下角的區域並沒有真正貢獻分數,因為那裡仍留有黑子,這意味著它並不完全安全。
由於KataGo對勝利過於自信——認為如果遊戲結束併計算分數自己就會贏——所以KataGo會主動pass,然後攻擊者也pass,從而結束遊戲,開始計分。 (雙方pass,棋就結束)
但正如Gleave分析的一樣,由於KataGo圍空中的黑子尚有活力,按照圍棋裁判規則並未被判定為“死子”,因此KataGo的圍空中有黑子的地方都不能被計算為有效目數。
因此最後的贏家不是KataGo,而是攻擊者。
這場勝利並不是個例,在沒有搜尋的情況下,該對抗策略對KataGo的攻擊達到了99%的勝率。
當KataGo使用足夠的搜尋接近超人的水平時,他們的勝率達到了50%。
另外,儘管有這種巧妙的策略,但攻擊者模型本身的圍棋實力卻不強:事實上,人類業餘愛好者都可以輕鬆地擊敗它。
研究者表示,他們的研究目的是透過攻擊KataGo的一個意想不到的漏洞,證明即使高度成熟的AI系統也會存在嚴重的漏洞。
正如共同一作Gleave所說:
(這項研究)強調了對AI系統進行更好的自動化測試以發現最壞情況下的失敗模式的必要性,而不僅僅是測試一般情況下的性能。
研究團隊
研究團隊來自MIT、UC柏克萊等,論文共同一作為Tony Tong Wang和Adam Gleave。
Tony Tong Wang,麻省理工學院電腦科學專業博士生,曾有在英偉達、Genesis Therapeutics等公司實習的經驗。
Adam Gleave,加州大學柏克萊分校人工智慧博士生,碩士和大學部畢業於劍橋大學,主要研究方向是深度學習的穩健性。
論文的連結附在最後,有興趣的夥伴們可以自取~
論文連結:https://arxiv.org/abs /2211.00241
參考連結:https://arstechnica.com/information-technology/2022/11/new-go-playing-trick-defeats-world-class-go-ai-but-loses-to -human-amateurs/
以上是擊敗申真諫陪練的圍棋AI,卻輸給了業餘人類棋手的詳細內容。更多資訊請關注PHP中文網其他相關文章!