Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Der britische Informationskommissar warnt: KI-Tools zur Stimmungsanalyse sind keine zuverlässigen und effektiven Optionen

Der britische Informationskommissar warnt: KI-Tools zur Stimmungsanalyse sind keine zuverlässigen und effektiven Optionen

王林
王林nach vorne
2023-05-08 12:46:081154Durchsuche

Der britische Informationskommissar (ICO) warnte kürzlich Technologieführer, dass es am besten sei, keine KI-Tools zur Sentimentanalyse zu kaufen, da diese Technologie nicht so effektiv ist, wie die Leute denken, und auch zu KI-Voreingenommenheit und Diskriminierung führen kann. Unternehmen, die diese Technologie einsetzen, könnten der Prüfung und Aufsicht durch Datenaufsichtsbehörden ausgesetzt sein, es sei denn, sie können die Wirksamkeit der Technologie nachweisen.

Der britische Informationskommissar warnt: KI-Tools zur Stimmungsanalyse sind keine zuverlässigen und effektiven Optionen

Die Emotionsanalysetechnologie nutzt viele biometrische Datenpunkte, darunter Blickverfolgung, Emotionsanalyse, Gesichtsbewegung, Ganganalyse, Herzschlag, Gesichtsausdrücke und Hautfeuchtigkeitsniveaus usw., und versucht, diese Daten zu verwenden, um a zu bestimmen oder vorherzusagen bestimmte Emotion. Der emotionale Zustand einer Person.

Stephen Bonner, stellvertretender Informationsbeauftragter des britischen Informationsbeauftragten, sagte, das Problem sei, dass es keine Beweise dafür gebe, dass diese Methode tatsächlich funktioniert, und es viele Beweise dafür gebe, dass sie unzuverlässig sei. Wenn sich Unternehmen auf Umfrageergebnisse verlassen, die KI-Tools zur Stimmungsanalyse verwenden, ist die Wahrscheinlichkeit größer, dass dies zu fehlerhaften Ergebnissen führt, die Schaden anrichten können.

Er warnte davor, dass die Schwelle für eine Untersuchung „sehr niedrig“ sei, wenn ein Unternehmen bei seiner Arbeit KI-Tools zur Sentimentanalyse einsetzt.

„Manchmal denken die Leute, wenn neue Technologien gefördert werden: ‚Lasst uns abwarten und Verständnis von beiden Seiten erlangen‘, und bei anderen legitimen biometrischen Technologien tun wir das auf jeden Fall. Aber im Fall der Stimmungsanalyse-KI ist das nicht der Fall Wir werden dieses Problem sehr genau beobachten und sind bereit, schneller Maßnahmen zu ergreifen. Die Verantwortung liegt bei denen, die sich dafür entscheiden, allen zu beweisen, dass es sich lohnt Schuld scheint überhaupt keine wissenschaftliche Grundlage zu haben“, fügte er hinzu.

Emotionale Analyse-KI kann in manchen Situationen nützlich sein

Aber Bonner sagte, es gebe einige Beispiele, bei denen die Technologie implementiert oder als Anwendungsfall vorgeschlagen wurde, unter anderem durch die Bereitstellung tragbarer Tools zur Überwachung der Emotionen und des Gesundheitszustands der Arbeitnehmer Verwenden Sie verschiedene Datenpunkte, um potenzielle Gesundheitsprobleme zu erfassen und vorherzusagen.

Unausgereifte Algorithmen zur Erkennung emotionaler Signale bergen jedoch das Risiko systemischer Voreingenommenheit, Ungenauigkeit und Diskriminierung. Die Technologie basiert auf der Erfassung, Speicherung und Verarbeitung großer Mengen personenbezogener Daten, einschließlich unbewusster Verhaltens- oder emotionaler Reaktionen. Diese Verwendung von Daten birgt weitaus höhere Risiken als herkömmliche biometrische Technologien zur Verifizierung oder Identifizierung einer Person.

Es ist zu beachten, dass der britische Informationskommissar den Einsatz dieser Technologie nicht verboten, sondern lediglich gewarnt hat, dass Unternehmen, die solche Technologien implementieren, aufgrund der damit verbundenen Risiken unter die Lupe genommen werden. Solange es eine klare Aussage gibt, können Nutzer es als Gimmick oder Unterhaltungstool nutzen.

Bonner sagte: „Es gibt einen gewissen Unterschied zwischen biometrischen Messungen und der Schlussfolgerung der Absicht des Ergebnisses, aber an diesem Punkt wäre es zu weit.“ Nennen Sie ihn einen Lügner. Wir werden den Einsatz von KI nicht verbieten, um festzustellen, wer gestört aussieht, aber wenn es nur so ist, dass einige Menschen verstört sind und anhand ihrer Biometrie nicht auf Betrug schließen, dann ist das ein Problem falsch.

Der britische Informationskommissar arbeitet mit dem Ada Lovelace Institute und dem British Youth Council an der Entwicklung neuer biometrischer Leitlinien. Die Leitlinien werden „menschenzentriert“ sein und voraussichtlich im nächsten Frühjahr veröffentlicht werden. Dr. Mhairi Aitken, Ethikforscher am Alan Turing Institute, begrüßte die Warnung des britischen Informationskommissars, wies jedoch darauf hin, dass es auch wichtig sei, die Entwicklung dieser Systeme zu prüfen und sicherzustellen, dass Entwickler einen ethischen Ansatz verfolgen und bei Bedarf Tools erstellen und verwenden.

Sie sagte: „Ein ethischer Ansatz bei der Entwicklung von Technologien oder neuen Anwendungen muss bei den Personen in der Gemeinschaft beginnen, die möglicherweise betroffen sind, und sie in den Prozess einbeziehen, um zu sehen, ob sie in dem Kontext, in dem sie eingesetzt werden, tatsächlich angemessen sind.“ Wir haben die Möglichkeit, uns etwaiger Schäden bewusst zu werden, die möglicherweise nicht vorhergesehen wurden.“ insbesondere für diejenigen, die davon betroffen sind und möglicherweise nicht in das Modell passen, das beim Erstellen eines Vorhersagemodells entwickelt wurde. Sie fügte hinzu: „Dies ist ein sehr komplexer Bereich, um darüber nachzudenken, wie wir solche Dinge automatisieren und kulturelle Unterschiede und emotionale Unterschiede berücksichtigen können.“

Dr. Aitken wies darauf hin, dass dies für KI-Systeme schwierig sei Bestimmen Sie die Situation in verschiedenen Umgebungen. Welche Art von emotionaler Reaktion ist angemessen? „Die Art und Weise, wie wir Emotionen ausdrücken, hängt davon ab, mit wem wir zusammen sind und in welcher Umgebung wir uns befinden.“ Berücksichtigen Sie die Art und Weise, wie Menschen ihre Gefühle ausdrücken.“

Bonner sagte, der Schaden durch den Einsatz emotionaler KI-Tools in der Unterhaltung sei minimal, aber Dr. Aitken warnte, dass dieser Anwendungsfall seine eigenen Risiken birgt, einschließlich der Gewöhnung der Menschen an die Technologie und der Annahme, dass sie tatsächlich funktioniert. „Wenn es verwendet wird, sofern es nicht ausdrücklich zur Unterhaltung gekennzeichnet ist.“

Bonner fügte hinzu, dass das Problem bei emotionaler KI darin besteht, dass es so viele Datenpunkte und Unterschiede zwischen den einzelnen Personen gibt, dass es schwierig ist, ein ideales Modell zu entwickeln. Dies wurde in mehreren Forschungsarbeiten zu dieser Technologie nachgewiesen. „Wenn jemand sagen würde: ‚Wir haben das Problem gelöst und können genaue Vorhersagen treffen‘, dann könnte er Wunder bewirken, aber ich glaube nicht, dass das passieren wird.“

Das obige ist der detaillierte Inhalt vonDer britische Informationskommissar warnt: KI-Tools zur Stimmungsanalyse sind keine zuverlässigen und effektiven Optionen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen