理解人工智慧決策對研究人員、決策者和廣大人民來說非常重要。幸運的是,有一些方法可以確保我們了解更多。前沿人工智慧公司和學術屆所使用的深度學習模型已經變得如此複雜,以至於即使是建立模型的研究人員也難以理解正在做出的決策。
這一點在某項錦標賽上得到了最明顯的體現。在這場比賽中,資料科學家和職業圍棋選手經常被人工智慧在比賽中的決策所迷惑,因為它做出了非正式的遊戲,而這並不被認為是最強的一步。
為了更好地理解他們所建構的模型,人工智慧研究人員開發了三種主要的解釋方法。這些是局部解釋方法,只解釋一個具體的決定,而不是整個模型的決定,考慮到規模,這可能具有挑戰性。
透過特徵歸因,人工智慧模型將識別輸入的哪些部分對特定決策是重要的。對於X射線,研究人員可以看到熱圖或模型認為對其決策最重要的單一像素。
使用這種特徵歸因解釋,可以檢查是否有虛假相關性。例如,它會顯示水印中的像素是否被突出顯示,或者實際腫瘤中的像素是否被突出顯示。
當做出決定時,我們可能會感到困惑,不知道為什麼人工智慧會做出這樣或那樣的決定。由於人工智慧被部署在高風險的環境中,例如監獄、保險或抵押貸款,了解人工智慧拒絕因素或上訴的原因應該有助於他們在下次申請時獲得批准。
反事實解釋方法的好處是,它確切地告訴你需要如何更改輸入來翻轉決策,這可能具有實際用途。對於那些申請抵押貸款卻沒有得到的人來說,這個解釋會告訴他們需要做些什麼來達到他們想要的結果。
樣本重要性解釋需要存取模型背後的基礎資料。如果研究人員注意到他們認為是錯誤的,他們可以運行一個樣本重要性解釋,以查看人工智慧是否輸入了它無法計算的數據,從而導致判斷錯誤。
以上是研究人員正確理解人工智慧決策的三種方法的詳細內容。更多資訊請關注PHP中文網其他相關文章!