ホームページ > 記事 > テクノロジー周辺機器 > Microsoft が、次のようなネガティブなオンライン コンテンツを自動的に検出できる Azure AI Content Safety を発表
IT House News 5 月 24 日、Microsoft は、コミュニティ環境における破損のリスクを軽減することを目的として、人工知能 (AI) を活用したコンテンツ レビュー サービス製品、Azure AI Content Safety (Azure AI Content Security Service) を開始しました。 。
この製品は、画像やテキスト内の偏見、憎悪、暴力などに関連するネガティブなコンテンツを検出できる一連の訓練された AI モデルを提供し、8 か国語の画像やテキストを理解してタグ付けされているものとして検出できます コンテンツの重大度人間のレビュー担当者にアクションが必要なコンテンツを示すためにスコア付けされます。
▲ 画像出典 Azure公式サイト
Azure AI Content Security Service は Azure OpenAI サービスに組み込まれており、サードパーティ開発者に公開されており、英語、スペイン語、ドイツ語、フランス語、中国語、日本語、ポルトガル語、イタリア語を含む 8 つの言語をサポートしています。 Azure OpenAI サービスは、Microsoft が管理するエンタープライズ向けのサービス製品であり、企業に AI Lab OpenAI のテクノロジーと追加のガバナンス機能へのアクセスを提供します。他の同様の製品と比較して、Azure AI コンテンツ セキュリティ サービスはテキスト コンテンツと文化的背景をよりよく理解でき、データとコンテンツをより正確に処理できます。
Microsoft は、他の同様の製品と比較して、この製品は公平性とコンテキストの理解において大幅に向上していますが、データとコンテンツのマーク付けには依然として人間のレビュー担当者に依存する必要があると述べました。つまり、その公平性は最終的には人間に依存することになります。データを処理してコンテンツをレビューする場合でも、人間のレビュー担当者には個人的な偏見がある可能性があるため、中立性と慎重性を完全に達成することはできません。
機械学習の視覚に関する問題に対処する際、2015 年に Google の AI 画像認識ソフトウェアが有色人種 (黒人) をオランウータンと分類し、大きな論争を巻き起こしました。 8年が経った今でも、今日のテクノロジー大手は依然として「ポリティカル・コレクトネス」「過去の過ちを繰り返す」ことを懸念している。今月初め、OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、米上院小委員会の公聴会で政府に対し人工知能(AI)を規制するよう求めた。同氏は、このテクノロジーにおけるエラーの可能性とその深刻な結果を強調し、世界的に甚大な損害を引き起こす可能性があると強調した。 IT Houseは、最先端の人工知能技術であっても悪意を持って使用されたり、誤って使用されたりする可能性があるため、人工知能を規制し規制することが重要であることを思い出させます。
以上がMicrosoft が、次のようなネガティブなオンライン コンテンツを自動的に検出できる Azure AI Content Safety を発表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。