ホームページ > 記事 > テクノロジー周辺機器 > 「ハリー・ポッター」を一気に観る:AI大型モデル「Quantum Speed Reading」、1分は人間の5時間に相当
最近、OpenAI は GPT シリーズ モデルと ChatGPT で最も注目されている研究機関です。しかし、過去 2 年間で、AI スタートアップ企業がみんなの視野に入り始めています。この会社は Anthropic と呼ばれます。2021 年に設立されました。一般的な AI システムと言語モデルの開発に焦点を当てており、責任あるAIの使用。
2020年末にOpenAIの中核社員が集団退職したことをまだ覚えているでしょうか。当時、この事件はAI界に大きな波紋を巻き起こしました。 Anthropic は、OpenAI の元研究担当副社長である Dario Amodei 氏、GPT-3 論文の最初の著者である Tom Brown 氏などを含む、これらの退職者によって作成されました。
Anthropic は 1 月に 7 億ドル以上の資金を調達しており、最新のラウンドでは 50 億ドルと評価されています。同時に、ChatGPT のリリースから 2 か月後、同社は古いクラブ ChatGPT のベンチマークとなる人工知能システムである Claude を迅速に開発しました。
#クロード アプリケーション アクセス アドレス: https://www.anthropic.com/earlyaccess
Claude は、Anthropic 自身が開発した「憲法 AI」と呼ばれるメカニズムを使用しています。これは、AI システムを人間の意図に合わせるための「原則に基づく」アプローチを提供することを目的としています。
クロードは、要約、検索、作成支援、Q&A、コーディングなどのタスクを実行できます。ユーザーのフィードバックに基づいて、クロードは有害な出力を生成する可能性が低く、会話を継続しやすく、制御しやすくなっています。これに加えて、クロードは指示に基づいて性格、口調、行動を設定できます。
ただし、Anthropic はクロードについて多くの技術的な詳細を提供しませんでしたが、「憲法上の AI: AI フィードバックによる無害性」という論文でクロードについて説明しました。興味のある読者その背後にあるテクノロジーを確認できます。
論文アドレス: https://arxiv.org/pdf/2212.08073.pdf
1 月に遡ります。一部の研究者は、クロードが一度に処理できるテキストの最大量をテストし、クロードが 8,000 トークンの情報を思い出せることを示しました。
#この後間もなく、Anthropic は木曜日に 100K コンテキスト ウィンドウを開始しました。これにより、Claude のコンテキスト ウィンドウが 9,000 トークンから 100,000 # に拡張されました。 75,000ワードに相当します。これは、企業がクロードに内容を理解して解釈してもらうために数百ページの資料を提出できることを意味し、クロードとの会話は数時間、場合によっては数日間続くこともあります。 Anthropic API を介して 100K のコンテキスト ウィンドウにアクセスできるようになりました。
大規模なモデルが高度であればあるほど、同時に処理できるテキストが長くなることがわかっています。 75,000語?おそらく『ハリー・ポッター』の最初の部分をワンクリックで要約するのに相当するだろう。
ほとんどのエッセイ、ニュースレポート、短編小説は問題外のようです。
クロードが再び進化: 真の「AI 量子速読」
これで、クロードは 1 分以内にこれを行うことができます。
#コンテキスト ウィンドウの一般的な計算。Anthropic は初めて、『華麗なるギャツビー』の全文を Claude-Instant にロードしました (72,000 トークン、Claude には Claude と Claude Instant の 2 つのバージョンがあります。Claude は最も先進的な高性能モデルで、Claude Instant はより軽く、より安く、より高速なオプションです。)、「キャラウェイ氏はアンスロピックで機械学習に取り組んでいるソフトウェア エンジニアです。」という行を修正しました。 Anthropic がモデルに元のテキストとの相違点を見つけるように依頼したところ、モデルは 22 秒以内に正しい答えを返しました。 #クロードは、長いテキストを読むことに加えて、文書から情報を取得することも手伝って、それによってビジネス運営に利益をもたらします 。ユーザーは複数のドキュメントや書籍をプロンプトにドロップして、クロードに質問することができます (テキストの多くの部分についての包括的な知識分析が必要です)。複雑な問題の場合、これはベクトル検索ベースの方法よりもはるかに効率的である可能性があります。クロードは、人間のアシスタントと同じように、ユーザーの指示に従い、検索している情報を返すことができます。 Anthropic は、大規模な言語統合ツール LangChain API 開発者ドキュメント ( 240 ページ ) をモデルに組み込み、質問に答えます。 Anthropic 言語モデルを使用した LangChain のデモが提供されます。 一方、100,000 トークンは約 6 時間の音声に変換できます。 AssemblyAI は、長いポッドキャストを約 58,000 ワードに書き起こし、要約と Q&A に Claude を使用することで、これを見事にデモンストレーションしました。
##出典: AssemblyAI ##つまり、次のようになります。 100k コンテキスト ウィンドウを使用すると、ユーザーは次のことを実行できます: 財務諸表や研究論文などの緻密な文書をダイジェスト、要約、解釈する;
# 出典: Twitter @nathanwchan ##価格に関しては、Anthropic の技術者である Ben Mann 氏は、100K Context Windows の 100 万トークンの価格は以前のモデルと同じであると述べました。
#
以上が「ハリー・ポッター」を一気に観る:AI大型モデル「Quantum Speed Reading」、1分は人間の5時間に相当の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。