Heim > Artikel > Technologie-Peripheriegeräte > Selektives Risiko könnte die Fairness und Genauigkeit der KI verbessern
Forscher des MIT Artificial Intelligence Laboratory haben ein neues Papier veröffentlicht, in dem sie den Einsatz selektiver Regression in bestimmten Szenarien verurteilen wollen, da diese Technik die Gesamtleistung von Modellen für Gruppen verschlechtern kann, die in einem Datensatz unterrepräsentiert sind.
Diese unterrepräsentierten Gruppen sind in der Regel Frauen und farbige Menschen, und diese Vernachlässigung von ihnen führt zu einigen Berichten von Rassismus und Sexismus in der künstlichen Intelligenz. In einem Bericht wurde die zur Risikobewertung eingesetzte künstliche Intelligenz fälschlicherweise als doppelt so wahrscheinlich für schwarze Häftlinge eingestuft wie für weiße Häftlinge. In einem anderen Fall wurden Fotos von Männern ohne Hintergrund häufiger als Ärzte und Hausfrauen identifiziert als von Frauen.
Mit der selektiven Regression kann das KI-Modell für jede Eingabe zwei Entscheidungen treffen: vorhersagen oder sich enthalten. Das Modell trifft nur dann Vorhersagen, wenn es sich seiner Entscheidung sicher ist, und über mehrere Tests hinweg wird die Leistung des Modells durch den Ausschluss von Eingaben verbessert, die nicht korrekt ausgewertet werden können.
Wenn jedoch Eingaben entfernt werden, verstärkt dies Verzerrungen, die bereits im Datensatz vorhanden sind. Dies wird zu weiteren Ungenauigkeiten für unterrepräsentierte Gruppen führen, sobald das KI-Modell im wirklichen Leben eingesetzt wird, da es unterrepräsentierte Gruppen nicht wie während der Entwicklung entfernen oder ablehnen kann. Letztendlich möchten Sie sicherstellen, dass Sie die gruppenübergreifenden Fehlerraten auf sinnvolle Weise berücksichtigen, anstatt nur eine allgemeine Fehlerrate für Ihr Modell zu minimieren. Die MIT-Forscher führten außerdem eine neue Technik ein, die die Leistung des Modells innerhalb jeder Untergruppe verbessern soll. Diese Technik wird als monotones selektives Risiko bezeichnet, bei der ein Modell nicht darauf verzichtet und stattdessen sensible Attribute wie Rasse und Geschlecht einbezieht, während das andere dies nicht tut. Gleichzeitig treffen beide Modelle Entscheidungen, und das Modell ohne sensible Daten wird als Kalibrierung für Verzerrungen im Datensatz verwendet.
Für dieses spezielle Problem das richtige Konzept der Fairness zu entwickeln, ist eine Herausforderung. Durch die Durchsetzung dieses Kriteriums, des monotonen Auswahlrisikos, können wir jedoch sicherstellen, dass die Modellleistung bei einer Reduzierung der Abdeckung tatsächlich in allen Untergruppen besser wird.
Bei Tests mit dem Medicare-Datensatz und dem Kriminalitätsdatensatz konnte die neue Technik die Fehlerraten für unterrepräsentierte Gruppen reduzieren, ohne die Gesamtleistung des Modells wesentlich zu beeinträchtigen. Die Forscher planen, die Technologie auf neue Anwendungen wie Immobilienpreise, Notendurchschnitte von Studenten und Kreditzinsen anzuwenden und zu prüfen, ob sie für andere Aufgaben eingesetzt werden kann.
Das obige ist der detaillierte Inhalt vonSelektives Risiko könnte die Fairness und Genauigkeit der KI verbessern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!