AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
この記事の著者チームはスタンフォード大学のメンバーであり、共同第一著者チームMert Yuksekgonul、Federico Bianchi、Joseph Boen、Sheng Liu , Zhi Huang
Mert Yuksekgonul はスタンフォード大学の博士課程の学生で、James Zou 教授と Carlos Guestrin 教授に師事しています。研究の方向性には、AI システムの自己最適化とその安全性と信頼性が含まれます。
Federico Bianchi は、Xyla AI エンジニアであり、スタンフォード大学の博士研究員であり、Dan Jurafsky 教授と James Zou 教授に師事しました。彼の研究の方向性は、機械学習と大規模言語モデルの開発です。
ジョセフ・ボーエンはスタンフォード大学の博士課程の学生で、ジェームズ・ゾウの下で研究しています。彼の研究の方向性は科学における AI の応用です。
Liu Sheng は、米国のスタンフォード大学の博士研究員で、James Zou 教授と Lei Xing 教授に師事し、ニューヨーク大学でデータ サイエンスと人工知能の博士号を取得しました。研究の方向性には、深層学習の安全性と信頼性、マルチモーダル大規模言語モデル、生物医学における AI の応用などが含まれます。
Huang Zhi、現在ペンシルベニア大学教授、スタンフォード大学博士研究員。パデュー大学で博士号を取得。研究の方向性は生体医工学と病理学における AI の応用です。
TextGrad チーム
勾配降下法にテキストを使用しますか? !最近、スタンフォード大学の研究者らは、大規模言語モデル (LLM) などのコンポーネントで構成される AI システムを効率的に調整および最適化し、エンドツーエンドのタスクのパフォーマンスを自動的に最適化する新しい TextGrad フレームワークを立ち上げました。
現在、エンジンとして GPT-4o を使用する TextGrad を使用して最適化された AI システムは次のことを達成できます:
- 分子薬効や毒性などの複数の最適化目標を同時に考慮します
- TextGrad Webサイト: http://www.textgrad.com /
- TextGrad 論文: https://arxiv.org/abs/2406.07496
- TextGrad Github: https://github.com/zou-group/textgrad
Generative AI がオンになっています単一モデルからの道 トレーニングから複雑なシステムの最適化へのパラダイムシフトにおいて、合成 AI システムのための原則に基づいた自動最適化手法の開発は、現時点で最も重要な新たな課題の 1 つとなっています。大規模言語モデル (LLM) などの AI コンポーネントを効率的に調整および最適化し、エンドツーエンドのタスクのパフォーマンスを自動的に最適化する方法は、今日最も差し迫った課題の 1 つとなっています。 AI の世界に何冊あるのかを知るには、スタンフォード大学を調べなければなりません。過去 2 日間で、スタンフォード大学の研究者たちはさらに大きな動きを見せ、この問題に対する新しい解決策を提供する新しい TextGrad フレームワークを立ち上げました。これは、同じくスタンフォードによってリリースされた DSPy を利用し、PyTorch の強力な勾配バックプロパゲーション機能を統合して、複雑な AI システムを自動的に最適化します。この記事では、TextGrad の中核となる概念と最適化メカニズムを深く分析し、その広範なアプリケーションの展望を探り、言語駆動型の最適化の将来に期待します。 TextGrad は、LLM アプリケーションを計算グラフ (Computation Graph) として扱い、異なるコンポーネント間の「勾配」転送を実装する媒体として自然言語を使用します。言語モデルの出力から考えられるすべての初期コンポーネントにテキスト フィードバックを逆伝播することにより、さまざまなシステムのさまざまな変数を最適化します。 TextGrad ではすべてがテキストです。つまり、言語モデルを使用して 1) 出力を評価し、2) 出力を批評し、3) 入力を更新します。このプロセスは、数値勾配を伝播する代わりに、テキスト形式のフィードバックが伝播されることを除いて、PyTorch の逆伝播に多少似ています。
この統一言語インタラクション インターフェイスは、TextGrad に強力な普遍性を与え、プロンプト、質問、出力などを微分可能にすることなく変数として扱い、強力な互換性を備えています。 TextGrad は、自然言語 I/O をサポートする任意の LLM またはその他の API とシームレスに動作し、計算グラフ内の他の関数が微分可能である必要はありません。これにより、検索やツール呼び出しなどのプラグアンドプレイ機能を統合して、柔軟で汎用性の高い複合 AI パイプラインを構築するのに非常に適しています。また、TextGrad はプロンプトを手動でデザインする必要がなく、最も懸念されるタスクの説明を自動的に検索し、最適化に直接参加します。これにより、開発者は迅速なエンジニアリングから解放され、より適切なコンテキスト内の学習パラダイムが自動的に見つかることが期待されます。
1. プロンプトプロジェクト TextGrad によって最適化されたプロンプトを通じて、GPT-3.5 ターボの QA 精度率を 78% から 92% に向上させることができ、必要な最適化の反復はわずか数回だけです。この結果を再現して TextGrad をさらに詳しく調べたい場合は、TextGrad チームが簡単なチュートリアルを用意しました。
TextGrad は、プロンプトエンジニアに非常に簡単かつ便利に適用できます。 2. モデルの出力を最適化する モデルのプロンプトを更新することに加えて、モデルの回答 (応答) とテキスト表現の出力も TextGrad によって最適化できます。上記では、TextGrad は、LLM によって生成された LeetCode 問題のコードを最適化します。 TextGrad を使用すると、化学構造の 2 つの重要な属性、つまり薬物の類似性 (つまり、薬物が体内に吸収される容易さ) と結合親和性 (つまり、どれだけ緊密であるか) を最適化できます。薬物は標的タンパク質に結合します)。薬物の類似性は 0 ~ 1 の範囲の QED スコアによって測定され、1 は薬物の特性に最もよく一致することを示します。結合親和性は Vina スコアによって測定され、マイナスのスコアが多いほど優れています。
左: 同じ標的タンパク質を標的とする臨床的に承認された薬剤と比較した、TextGrad 最適化の 10 回反復前後の分子薬剤の類似性と結合親和性の分布。右: 臨床的に承認された薬剤の特性を比較する、TextGrad 最適化の 10 回の反復の軌跡の例。 TextGrad は、放射線治療に必要な線量を決定し、治療が必要な領域を正確に特定する放射線治療計画の最適化にも使用できます。特に、治療計画の目標は、危険な線量から重要な正常組織を保護しながら、腫瘍に規定線量の放射線を照射することです。医師は通常、治療計画が臨床要件を満たすまで、試行錯誤を繰り返しながら治療計画を調整し、最適化します。これにより、プロセス全体が非効率になり、時間とコストがかかります。 TextGrad は、放射線治療計画を最適化するために AI 主導の計画システムに勾配を自動的に提供し、近くの健康な組織に対して腫瘍の重量を自動的に測定します。
TextGrad は言語を使用して、さまざまな認知モジュール間の障壁を取り除きます。これにより、LLM は独自の反復最適化に参加し、内省、判断、創造などの高度な認知能力を通じて継続的な進化を達成できます。本質的に、TextGrad の重要性はパイプラインのパフォーマンスの最適化をはるかに超えており、言語を通じて AI の自己認識と自己修正を実現できる可能性を示しています。この「言語主導の最適化」パスは、現在の多くの「幻想の問題」に対する良い薬になる可能性もあります。 TextGrad は、多くの科学上および医学上の問題を解決するために使用されてきました。より多くのアプリケーションがあなたを探索して発見するのを待っています! 以上が新しい TextGrad フレームワーク: GPT-4o をエンジンとして使用し、エンドツーエンドのタスクを自動的に最適化します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。