ホームページ >テクノロジー周辺機器 >AI >Zhipu AI、国産チップに適合した第 3 世代大型ベースモデルを発売
・第 3 世代の大型ベース モデル ChatGLM3 は、中国語のグラフィックとテキストを理解する能力を向上させ、質問に基づいてインターネット上の関連情報を自動的に検索できるビジュアル モード GPT-4V を目指しています。回答する際には参考文献や記事へのリンクを提供してください。最終テスト モデル ChatGLM3-1.5B および ChatGLM3-3B は、vivo、Xiaomi、Samsung の携帯電話および車両プラットフォームをサポートします。
10月27日、2023年中国コンピュータカンファレンスで、中国のコグニティブ大型モデル会社北京芝埔華庄科技有限公司(以下「芝埔AI」)は、マルチ技術を採用した第3世代ベース大型モデルChatGLM3を発表した。 -段階の強化された予測により、トレーニングがより完全になり、携帯電話に展開できる ChatGLM3-1.5B および ChatGLM3-3B が発売され、vivo、Xiaomi、Samsung などのさまざまな携帯電話や車載プラットフォームがサポートされます。 。
ビジュアルモード GPT-4V を目指して、ChatGLM3 は、10 を超える国際標準画像およびテキスト評価データセットで SOTA (最高のパフォーマンス) を達成した CogVLM のマルチモーダル理解機能を含む、いくつかの新機能の反復アップグレードを実装しました。 。 、 最先端の)。 CogVLM モデルは、中国語のグラフィックスとテキストの理解を向上させ、複雑なターゲット検出を完了し、それにラベルを付けて自動データ アノテーションを完了することができます。レシピは材料の写真に基づいて提供され、対話者の好みに合わせて調整できます。
レシピは材料の写真に基づいて提供されます。
Zhipu AI の CEO、Zhang Peng 氏は The Paper (www.thepaper.cn) に対し、マルチモーダル大規模モデルは音声、視覚、自然言語のインタラクティブな認識において多くの具体的な進歩を遂げ、将来的にはマルチになると語った。 -モーダル大規模モデルは、より重要な段階に移行し、より多くのモーダルデータが統合される可能性があり、マルチモーダル事前トレーニングにより、大規模モデルの知能または認知能力のさらなる向上にもつながります。
画像の内容を分析する機能。
ChatGLM3 のコード拡張モジュール コード インタープリターは、ユーザーのニーズに応じてコードを生成および実行し、データ分析やファイル処理などの複雑なタスクを自動的に完了します。 「コード」機能は現在、画像処理、数学的計算、データ分析、その他の使用シナリオをサポートしています。
ユーザーのニーズに応じてコードを生成し、実行します。
Web 検索の強化 WebGLM のアクセス検索の強化により、質問に基づいてインターネット上の関連情報を自動的に検索し、回答時に参考文献や記事のリンクを提供できます。
ChatGLM3 は AgentTuning テクノロジーを統合し、モデル エージェント機能を有効にし、国内の大規模モデルがツール呼び出し、コード実行、ゲーム、データベース操作、ナレッジ グラフの検索と推論、オペレーティング システム、その他のシナリオをネイティブにサポートできるようにします。
現在、ChatGLM3 は、携帯電話に導入できるエンドテスト モデル ChatGLM3-1.5B および ChatGLM3-3B をリリースしています。これらは、vivo、Xiaomi、Samsung などのさまざまな携帯電話や車載プラットフォームをサポートしています。モバイル プラットフォーム上の CPU チップは 20 トークン/秒の速度です。
エンドテストモデルChatGLM3-1.5BおよびChatGLM3-3Bは、vivo、Xiaomi、Samsungの携帯電話および車両プラットフォームをサポートしています。
Zhang Peng 氏は、2022 年の初め以来、Zhipu AI によって発売された GLM シリーズ モデルは、Ascend、Sunway Supercomputing、Haiguang DCU アーキテクチャでの大規模な事前トレーニングと推論をサポートしていると述べました。現在、Zhipu AIの製品は10以上の国内ハードウェアエコシステムをサポートしており、国内チップ企業との共同イノベーションは国内ネイティブ大型モデルと国産チップの開発を支援する。
以上がZhipu AI、国産チップに適合した第 3 世代大型ベースモデルを発売の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。