Heim >Technologie-Peripheriegeräte >KI >Microsoft führt Azure AI Content Safety ein, das automatisch negative Online-Inhalte erkennen kann, z
IT House News Am 24. Mai hat Microsoft ein auf künstlicher Intelligenz (KI) basierendes Inhaltsüberprüfungsdienstprodukt eingeführt – Azure AI Content Safety (Azure AI Content Security Service), mit dem Ziel, negative Inhalte in den Informationen der Community-Umgebung zu reduzieren.
Dieses Produkt bietet eine Reihe trainierter KI-Modelle, die negative Inhalte im Zusammenhang mit Vorurteilen, Hass, Gewalt usw. in Bildern oder Texten erkennen und Bilder oder Texte in acht Sprachen verstehen und erkennen können, wenn markierten Inhalten Schweregrade zugewiesen werden um menschlichen Prüfern anzuzeigen, bei welchen Inhalten Maßnahmen erforderlich sind.
▲ Bildquelle Offizielle Azure-Website
Der Azure AI-Inhaltssicherheitsdienst ist in den Azure OpenAI-Dienst integriert und steht Drittentwicklern offen. Er unterstützt acht Sprachen, darunter Englisch, Spanisch, Deutsch, Französisch, Chinesisch, Japanisch, Portugiesisch und Italienisch. Der Azure OpenAI-Dienst ist ein unternehmensorientiertes Dienstangebot, das von Microsoft verwaltet wird und Unternehmen Zugriff auf die Technologie von AI Lab OpenAI und zusätzliche Governance-Funktionen bietet. Im Vergleich zu anderen ähnlichen Produkten kann der Azure AI Content Security Service Textinhalte und kulturelle Hintergründe besser verstehen und ist bei der Verarbeitung von Daten und Inhalten genauer.
Microsoft sagte, dass dieses Produkt im Vergleich zu anderen ähnlichen Produkten erhebliche Verbesserungen in Bezug auf Unparteilichkeit und Kontextverständnis aufweist, dieses Produkt jedoch weiterhin auf menschliche Prüfer angewiesen ist, um Daten und Inhalte zu kennzeichnen. Das bedeutet, dass seine Gerechtigkeit letztlich vom Menschen abhängt. Selbst bei der Verarbeitung von Daten und der Überprüfung von Inhalten können menschliche Prüfer persönliche Vorurteile haben, sodass Neutralität und Umsicht nicht vollständig gewährleistet werden können.
Bei der Behandlung von Problemen im Zusammenhang mit der visuellen Wahrnehmung durch maschinelles Lernen bezeichnete Googles KI-Bilderkennungssoftware 2015 farbige Menschen (schwarz) als Orang-Utans, was große Kontroversen auslöste. Acht Jahre später sind die heutigen Technologiegiganten immer noch besorgt darüber, dass die „politische Korrektheit“ „die Fehler der Vergangenheit wiederholen“ könnte. Anfang dieses Monats forderte Sam Altman, CEO von OpenAI, die Regierung bei einer Anhörung des Unterausschusses des US-Senats dazu auf, künstliche Intelligenz (KI) zu regulieren. Er wies auf das Fehlerpotenzial dieser Technologie und ihre schwerwiegenden Folgen hin, die weltweit großen Schaden anrichten könnten. IT House erinnert uns daran, dass selbst die fortschrittlichste Technologie der künstlichen Intelligenz böswillig oder falsch eingesetzt werden kann. Daher ist es von entscheidender Bedeutung, künstliche Intelligenz zu regulieren und zu regulieren.
Das obige ist der detaillierte Inhalt vonMicrosoft führt Azure AI Content Safety ein, das automatisch negative Online-Inhalte erkennen kann, z. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!