ホームページ > 記事 > テクノロジー周辺機器 > 完全な画期的な進歩として、Google は昨夜、多数の大型モデル製品を更新しました
今週火曜日、Google は Google Cloud Next 2024 で一連の AI 関連モデルのアップデートと製品をリリースしました。これには、ローカル音声 (音声) 理解機能とコード生成を初めて提供する Gemini 1.5 Pro が含まれます。新モデルCodeGemma、初の自社開発ArmプロセッサAxionなど。
Gemini 1.5 Pro は、Google の最も強力な生成 AI モデルであり、現在利用可能ですGoogle のエンタープライズ向け AI 開発プラットフォームである Vertex AI のパブリック プレビュー中。 Google の企業向け AI 開発プラットフォームです。処理できるコンテキストは 128,000 トークンから 100 万トークンに増加します。 100 万トークンは、約 700,000 ワード、または約 30,000 行のコードに相当します。これは、Anthropic の主力モデルである Claude 3 が入力として処理できるデータ量の約 4 倍、OpenAI の GPT-4 Turbo の最大コンテキスト量の約 8 倍です。
公式原文リンク: https://developers.googleblog.com/2024/04/gemini-15-pro-in-public-プレビュー -with-new-features.html
このバージョンでは、ローカル オーディオ (音声) 理解機能と新しいファイル API が初めて提供され、ファイル処理が容易になります。 Gemini 1.5 Pro の入力モードは、Gemini API および Google AI Studio でのオーディオ (音声) 理解を含むように拡張されています。さらに、Gemini 1.5 Pro は、Google AI Studio にアップロードされたビデオの画像 (フレーム) とオーディオ (音声) の推論を実行できるようになりました。
Jeff Dean によるこの講演など、117,000 トークンを超える講演の録音をアップロードできます。Gemini 1.5 Pro はそれを次のように変換できます。答えのあるテスト。 (デモが高速化されました)
Google は、主に次の 3 つの内容を含む Gemini API の改善も行いました。 AI Studio と Gemini API では、モデルの応答をガイドするために Google システム命令が使用されます。役割、形式、目標、ルールを定義して、特定のユースケースにおけるモデルの動作をガイドします。
Google AI Studio でシステム命令を簡単に設定
2.JSON モード: モデルが出力JSONオブジェクトのみ。このパターンにより、テキストや画像から構造化データを抽出できます。 cURL が利用可能になり、Python SDK のサポートも近日中に開始されます。
3. 関数呼び出しの改善: モデルの出力を制限し、信頼性を向上させるモードを選択できるようになりました。テキスト、関数呼び出し、または関数自体を選択します。
さらに、Google は、同様のモデルよりも優れた次世代のテキスト埋め込みモデルをリリースする予定です。本日より、開発者は Gemini API を通じて次世代のテキスト埋め込みモデルにアクセスできるようになります。この新しいモデル text-embedding-004 (Vertex AI では text-embedding-preview-0409) は、MTEB ベンチマークでより強力な検索パフォーマンスを実現し、同等のディメンションを持つ既存のモデルを上回るパフォーマンスを発揮します。
#MTEB ベンチマークでは、256 ディメンションの出力を使用する Text-embedding-004 (別名 Gecko) が、より大きな 768 ディメンションの出力モデルすべてを上回っています#ただし、Vertex AI および AI Studio にアクセスできないユーザーは Gemini 1.5 Pro を利用できないことに注意することが重要です。現在、ほとんどの人が Gemini チャットボットを通じて Gemini 言語モデルに取り組んでいます。 Gemini Ultra は Gemini Advanced チャットボットを強化しており、強力で長いコマンドを理解できますが、Gemini 1.5 Pro ほど高速ではありません。
3 つの主要なオープンソース ツール
2024 年の Google Cloud Next カンファレンスで、同社は主に生成 AI プロジェクトとインフラストラクチャをサポートするために使用される複数のオープンソース ツール。 1 つは Max Diffusion で、XLA (Accelerated Linear Algebra) デバイス上で実行されるさまざまな拡散モデルのリファレンス実装のコレクションです。GitHub アドレス: https://github.com/google/maxdiffusion
2 つ目は、実行生成方式の Jetstream AI モデル用の新しいエンジン。現在、JetStream は TPU のみをサポートしていますが、将来的には GPU と互換性がある可能性があります。 Google は、JetStream は Google の Gemma 7B や Meta の Llama 2 などのモデルと比べて、価格/パフォーマンスが最大 3 倍になると主張しています。
GitHub アドレス: https://github.com/google/JetStream
3 つ目は、クラウド内の TPU および Nvidia GPU 用のテキスト生成 AI モデルのコレクションである MaxTest です。 MaxText には現在、Gemma 7B、OpenAI の GPT-3、Llama 2、および AI スタートアップ Mistral のモデルが含まれており、Google によれば、これらはすべて開発者のニーズに合わせてカスタマイズおよび微調整できるとのことです。
GitHub アドレス: https://github.com/google/maxtext最初の自己Arm プロセッサ Axion の研究を行いました
Google は火曜日の発表会で、Axion はオープン基盤上に構築されているため、Google Cloud の顧客は既存の Arm ワークロードを何も変更せずに Google Cloud に持ち込むことができると強調しました。
ただし、Google はこれに関する詳細な紹介をまだリリースしていません。
コード補完および生成ツール—CodeGemma
CodeGemma には次の大きな利点があります:
##GSM8K、MATH、およびその他のデータセットに関する CodeGemma 7B モデルと Gemma 7B モデルの比較結果。
技術的な詳細と実験結果については、Google が同時に公開した論文を参照してください。
文書のアドレス: https://storage.googleapis.com/deepmind-media/gemma/codegemma_report.pdf
Google DeepMind は、一連のオープン ウェイト言語モデル - RecurrentGemma もリリースしました。 RecurrentGemma は Griffin アーキテクチャに基づいており、グローバル アテンションをローカル アテンションと線形再帰の組み合わせで置き換えることにより、長いシーケンスを生成する際の高速推論を可能にします。
#技術レポート: https://storage.googleapis.com/deepmind-media/gemma/recurrentgemma-report.pdf
RecurrentGemma-2B は、Gemma-2B (トランスフォーマー アーキテクチャ) に匹敵する、ダウンストリーム タスクで優れたパフォーマンスを実現します。
同時に、RecurrentGemma-2B は、推論中、特に長いシーケンスでより高いスループットを実現します。
Google Vids は AI 動画作成ツールです。 Google Workspace に追加された新機能。
Google Vids を使用すると、ユーザーはドキュメントやスプレッドシートなどの他の Workspace ツールと並行して動画を作成し、同僚とリアルタイムで共同作業できると Google は述べています。
Gemini Code Assist はエンタープライズ向けです。 GitHub Copilot Enterprise に対してベンチマークされた、特定のコード アシスタント AI コード補完および補助ツール。 Code Assist は、VS Code や JetBrains などの人気のあるエディタのプラグインとして利用可能になります。
画像ソース: https://techcrunch.com/2024/04/09/google-launches-code-assist-its-latest- Challenger-to-githubs-copilot/
Code Assist は Gemini 1.5 Pro を利用しています。 Gemini 1.5 Pro には 100 万トークンのコンテキスト ウィンドウがあり、これにより Google のツールは競合他社よりも多くのコンテキストを導入できます。 Googleによれば、これはCode Assistがより正確なコード提案を提供し、コードの大部分を推論して変更する機能を提供できることを意味するとしている。
Google は次のように述べています。「Code Assist を使用すると、顧客はコード ベース全体に大規模な変更を加えることができ、これまで不可能だった AI 支援によるコード変換が可能になります。」
AI エージェントは、今年注目の業界開発の方向性です。 Google は、企業による AI エージェントの構築を支援する新しいツールである Vertex AI Agent Builder を発表しました。
Google Cloud の CEO、トーマス クリアン氏は次のように述べています。「Vertex AI Agent Builder を使用すると、本番環境に対応した AI 主導の生成会話を非常に簡単かつ迅速に構築してデプロイできます。エージェントは次のことができます。」人間と同じようにエージェントをガイドして、モデルが生成した結果の品質と正確性を向上させます。」
以上が完全な画期的な進歩として、Google は昨夜、多数の大型モデル製品を更新しましたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。