ホームページ > 記事 > テクノロジー周辺機器 > Apple WWDC23では「人工知能」には言及せず、「機械学習」の使用を優先
IT House News 6 月 6 日、Apple は、Mac Pro や Vision Pro などの待望の新製品をリリースしたことに加え、月曜日の WWDC 2023 基調講演で機械学習分野における最新の進歩も披露しました。 。しかしIT Homeは、生成型人工知能を精力的に推進するMicrosoftやGoogleなどの競合他社とは異なり、Appleがスピーチの中で「人工知能」という言葉に触れず、代わりに「機械学習」や「機械学習」をより頻繁に使用していることに気づいた。 「ML」などの用語。
たとえば、iOS 17 のデモで、ソフトウェア エンジニアリング担当上級副社長の Craig Federighi 氏は、自動エラー修正と音声認識の改善について次のように説明しました。
自動エラー修正はオンデバイスの機械学習によって推進されており、私たちはこれらのモデルを長年にわたって改善し続けてきました。キーボードは、利用可能な最も高度な単語予測テクノロジであるトランスフォーマー言語モデルを活用し、自動エラー修正がこれまでよりも正確になっています。そして、Apple Silicon チップの力のおかげで、iPhone はキーを押すたびにこのモデルを実行できます。Apple が基調講演で人工知能の分野における「トランスフォーマー」という用語に言及したことは注目に値します。同社は特に「トランスフォーマー言語モデル」について語っています。これは、同社の AI モデルがトランスフォーマー アーキテクチャを使用していることを意味します。これは、DALL-E 画像ジェネレーターや ChatGPT チャットボットなど、最近の多くの生成 AI で使用されている基盤テクノロジーです。トランスフォーマー モデル (2017 年に最初に提案された概念) は、シーケンス内の異なる単語や要素に優先順位を付けることを可能にする自己注意メカニズムを使用する自然言語処理 (NLP) 用のニューラル ネットワーク アーキテクチャです。入力を並行して処理する機能により効率が大幅に向上し、翻訳、要約、質問応答などの NLP タスクの画期的な進歩が可能になります。
Apple によると、iOS 17 の新しいトランスフォーマー モデルは文レベルでの自動エラー修正を実現し、スペースバーを押すと単語または文全体を完成させることができます。また、あなたの文章スタイルに基づいて学習し、推奨事項を導き出します。 Appleはまた、音声認識は「ニューラルエンジンを利用して音声認識をより正確にするトランスフォーマーベースの音声認識モデルを使用している」とも述べている。
基調講演では、Apple も iPad の新しいロック画面機能について説明する際など、「機械学習」について何度も言及しました(「Live Photo を選択すると、高度な機械学習モデルを使用して「追加フレーム」を合成します) ); iPadOS PDF 機能 (「新しい機械学習モデルのおかげで、iPadOS は PDF 内のフィールドを認識できるため、オートフィルを使用して名前、住所、連絡先から取得した名前、電子メールなどの情報をすばやく入力できます。」)、AirPodsアダプティブオーディオ機能 (「カスタマイズされた音量により、機械学習を使用して、時間の経過とともにリスニングの好みがどのように変化するかを学習します」)、および Apple Watch ウィジェット機能 Smart Stack (「スマート スタックは機械学習を使用して、必要なときに関連情報を表示します」) 。
Apple はまた、オンデバイスの機械学習を使用してパーソナライズされた推奨事項を提供し、ジャーナリングのインスピレーションをユーザーに提供する Journal という新しいアプリもリリースしました。これらの提案は、写真、人物、場所、身体トレーニングなどを含むユーザーの最近のアクティビティに基づいてインテリジェントに生成され、ユーザーがより簡単に記録を開始できるようにします。
最後に、同社は Vision Pro ヘッドセットのデモ中に、ユーザーの目に映る動的な画像は、顔をスキャンして作成された特別な 3D アバターであることを明らかにしました (もちろん機械学習のおかげです)。
以上がApple WWDC23では「人工知能」には言及せず、「機械学習」の使用を優先の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。