AI モデル ファミリに追加された最新の Gemini 1.5 Flash-8B が、実稼働環境での一般利用が可能になりました。
Google は、Gemini 1.5 Flash AI モデルの小型で高速なバージョンを利用可能にしました。これは Google I/O で発表され、現在は実稼働環境での一般利用が可能です。 Gemini 1.5 Flash-8B と呼ばれる小型モデルは、高速かつ非常に低い遅延推論により、出力生成の効率が向上するように設計されています。
Google によると、Flash-8B AI モデルは、Gemini モデルの中でインテリジェンスあたりのコストが最も低くなります。同社は以前、Gemini 1.5 Flash AI モデルをより小型の Gemini 1.5 Flash-8B に抽出しており、これはより高速な処理とより効率的な出力生成を目的としていました。今回、Google は、この AI モデルの小規模バージョンが Google DeepMind によって数か月前に開発されたことを明らかにしました。
サイズが小さいにもかかわらず、テクノロジー大手は、新しいモデルは、単純なチャットから文字起こし、長い文脈言語の翻訳に至るまで、いくつかのベンチマークで 1.5 Flash モデルとほぼ一致すると述べています。
AI モデルの主な利点は、コスト効率です。 Google は、Gemini 1.5 Flash-8B は Gemini ファミリの中で最も低いトークン価格になると述べています。開発者には、100 万出力トークンごとに 0.15 ドル (約 12.5 ルピー)、100 万入力トークンごとに 0.0375 ドル (約 3 ルピー)、キャッシュされたプロンプトの 100 万トークンごとに 0.01 ドル (約 0.8 ルピー) が請求されます。
さらに、Google は 1.5 Flash-8B AI モデルのレート制限を 2 倍にしています。開発者は、このモデルを使用しながら、1 分あたり最大 4,000 リクエスト (RPM) を送信できるようになりました。テクノロジー大手によると、このモデルは単純で大量のタスクに最適です。開発者は、Google AI Studio と Gemini API を介してモデルを無料で試すことができます。
以上がGemini 1.5 Flash-8B AI モデルが一般提供開始の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。