ホームページ > 記事 > テクノロジー周辺機器 > AIは学習しない!新しい研究により、人工知能のブラックボックスを解読する方法が明らかになりました
人工知能 (AI) は急速に発展していますが、人間にとって強力なモデルは「ブラック ボックス」です。
モデルの内部動作と、モデルが結論に達するプロセスを理解していません。
しかし、最近、ボン大学の化学情報学の専門家であるユルゲン・バジョラス教授と彼のチームは大きな進歩を遂げました。
彼らは、医薬品研究で使用される一部の人工知能システムがどのように動作するかを明らかにする技術を設計しました。
研究によると、人工知能モデルは、特定の化学相互作用を学習するのではなく、主に既存のデータを呼び出すことによって薬の有効性を予測します。
——言い換えれば、AI の予測は純粋に記憶のつなぎ合わせに基づいており、機械学習は実際には学習しません。
彼らの研究結果は、最近 Nature Machine Intelligence 誌に掲載されました。
#論文アドレス: https://www.nature.com/articles/s42256-023-00756-9
医学の分野では、研究者たちは病気と戦うための効果的な活性物質を熱心に探しています。どの薬物分子が最も効果的でしょうか?
通常、これらの効果的な分子 (化合物) はタンパク質にドッキングされ、特定の生理学的作用連鎖を引き起こす酵素または受容体として機能します。
特殊な場合には、特定の分子が過剰な炎症反応などの体内の有害反応をブロックする役割もあります。
考えられる化合物の数は膨大で、効果的な化合物を見つけるのは干し草の山から針を探すようなものです。
そこで研究者らは、まず AI モデルを使用して、どの分子がそれぞれの標的タンパク質に最適にドッキングして強く結合するかを予測しました。これらの薬剤候補は、実験研究でさらに詳細にスクリーニングされます。
#人工知能の発展以来、創薬研究では AI 関連技術の採用が増えています。たとえば、グラフ ニューラル ネットワーク (GNN) は、特定の分子と標的タンパク質の結合の強さを予測するのに適しています。
#グラフは、オブジェクトを表すノードとノード間の関係を表すエッジで構成されます。タンパク質-リガンド複合体のグラフ表示では、グラフの端がタンパク質またはリガンドのノードを接続し、物質の構造、またはタンパク質とリガンド間の相互作用を表します。
GNN モデルは、X 線構造から抽出されたタンパク質-リガンド相互作用マップを使用して、リガンド親和性を予測します。
ユルゲン・バジョラス教授は、GNN モデルは私たちにとってブラックボックスのようなもので、それがどのように予測を導き出すのかを知る方法はないと述べました。
ユルゲン・バジョラス教授は、ボン大学 LIMES 研究所およびボン・アーヘン国際情報技術センター (ボン・アーヘン国際センター) に勤務しています。情報技術)とラマー機械学習および人工知能研究所。
人工知能はどのように機能するのでしょうか?
研究者らは、特別に開発した「EdgeSHAPer」手法を使用して、合計 6 つの異なる GNN アーキテクチャを分析しました。
EdgeSHAPer プログラムは、GNN が化合物とタンパク質の間の最も重要な相互作用を学習したか、または他の手段で予測を行ったかを判断できます。
科学者らは、化合物の作用機序と標的タンパク質への結合の強さがわかっているタンパク質-リガンド複合体の構造から抽出されたグラフを使用して、6 つの GNN を訓練しました。
次に、トレーニングされた GNN を他の化合物でテストし、EdgeSHAPer を使用して GNN がどのように予測を生成するかを分析します。
「GNN が期待どおりに動作する場合、化合物と標的タンパク質の間の相互作用を学習し、特定の相互作用に優先順位を付けて予測を行う必要があります。」
しかし、研究チームの分析によると、6 つの GNN は基本的にこれを行うことができませんでした。ほとんどの GNN は、主にリガンドに焦点を当てて、一部のタンパク質と薬物の相互作用のみを学習します。
上の図は 6 つの GNN での実験結果を示しています。色分けされたバーは、EdgeSHAPer で決定された各予測の上位 25 のエッジを表しています。におけるタンパク質、リガンド、および相互作用の平均割合。
緑で表される相互作用がモデルが学習する必要があるものであることがわかりますが、実験全体における割合は高くなく、オレンジ色はリガンドを表しています。最も大きな割合を占めています。
分子の標的タンパク質への結合強度を予測するために、モデルは主に、標的タンパク質に関係なく、トレーニング中に遭遇した化学的に類似した分子とその結合データを「記憶」します。これらの記憶された化学的類似性が本質的に予測を決定します。
これは「賢いハンス効果」を彷彿とさせます。数えられるように見える馬と同じように、馬は実際に期待される結果を推測します。仲間の表情やしぐさの微妙な違いに基づいて。
これは、GNN のいわゆる「学習能力」が維持できない可能性があり、化学知識を使用できるため、モデルの予測が大幅に過大評価されていることを意味する可能性があります。より簡単な方法。
ただし、この研究では別の現象も見つかりました。試験化合物の効力が増加するにつれて、モデルはより多くの相互作用を学習する傾向があります。
おそらく、表現とトレーニング手法を変更することで、これらの GNN を望ましい方向にさらに改善することができます。ただし、分子グラフから物理量を学習できるという仮定は、一般に注意して扱う必要があります。
「人工知能は黒魔術ではありません。」
以上がAIは学習しない!新しい研究により、人工知能のブラックボックスを解読する方法が明らかになりましたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。