Heim > Artikel > Technologie-Peripheriegeräte > Kann künstliche Intelligenz dabei helfen, Voreingenommenheit zu beseitigen?
„Wir sehen die Dinge nicht so, wie sie sind, wir sehen sie einfach so, wie wir sie sehen.“ Sie beschreibt ziemlich prägnant die verschiedenen unglücklichen Vorurteile, die unser Gehirn mit sich bringt.
In Geschäftsumgebungen sind Affinitätsbias, Bestätigungsbias, Attributionsbias und der Halo-Effekt einige dieser besser bekannten Denkfehler, die eigentlich nur oberflächlich sind. Gemeinsam hinterlassen sie eine Spur von Beleidigungen und Fehlern.
Natürlich sind die schädlichsten menschlichen Vorurteile diejenigen, die unsere Mitmenschen aufgrund von Alter, Rasse, Geschlecht, Religion oder Aussehen voreingenommen oder gegen uns gerichtet haben. Trotz unserer Bemühungen, uns selbst, unser Arbeitsumfeld und unsere Gesellschaft von diesen Verzerrungen zu befreien, durchdringen sie immer noch unsere Gedanken und Verhaltensweisen, einschließlich moderner Technologien wie künstlicher Intelligenz.
Da KI erstmals in der Personalbeschaffung, Kreditgenehmigung, Modellierung von Versicherungsprämien, Gesichtserkennung, Strafverfolgung und einer Vielzahl anderer Anwendungen eingesetzt wurde, weisen Kritiker (aus vielen Gründen) darauf hin voreingenommene Tendenzen der Technologie.
Zum Beispiel ist Googles neues Sprachmodell BERT (Bidirektionale Encoder-Repräsentationen von Transformers) ein führendes Modell für die Verarbeitung natürlicher Sprache (NLP), mit dem Entwickler ihre eigene KI erstellen können. BERT wurde ursprünglich mit Wikipedia-Text als Hauptquelle erstellt. Stimmt daran etwas nicht? Die Mitwirkenden auf Wikipedia sind überwiegend weiße Männer aus Europa und Nordamerika. Infolgedessen hatte eine der wichtigsten Quellen sprachbasierter KI zu Beginn eine voreingenommene Perspektive.
Ähnliche Probleme wurden bei Computer Vision gefunden, einem weiteren Schlüsselbereich der Entwicklung künstlicher Intelligenz. Gesichtserkennungsdatensätze enthalten Hunderttausende annotierte Gesichter, die für die Entwicklung von Gesichtserkennungsanwendungen für Cybersicherheit, Strafverfolgung und sogar den Kundenservice von entscheidender Bedeutung sind. Es stellt sich jedoch heraus, dass Entwickler (wahrscheinlich meist weiße Männer mittleren Alters) unwissentlich besser darin sind, für Leute wie sie Genauigkeit zu erreichen. Frauen, Kinder, ältere Erwachsene und farbige Menschen hatten viel höhere Fehlerquoten als weiße Männer mittleren Alters. Infolgedessen waren IBM, Amazon und Microsoft im Jahr 2020 gezwungen, den Verkauf ihrer Gesichtserkennungstechnologie an Strafverfolgungsbehörden einzustellen, weil sie befürchteten, dass Vorurteile zu Fehlidentifizierungen von Verdächtigen führen könnten.
Um mehr zu erfahren, schauen Sie sich die wichtige und manchmal erschreckende Dokumentation Coded Bias an.
Ein besseres Verständnis des Phänomens der Voreingenommenheit in der KI deutet jedoch darauf hin, dass KI lediglich implizite Vorurteile aufdeckt und verstärkt, die bereits vorhanden sind, aber ignoriert oder missverstanden werden. Die KI selbst ist immun gegen Hautfarbe, Geschlecht, Alter und andere Vorurteile. Es ist weniger anfällig für die logischen Irrtümer und kognitiven Vorurteile, die den Menschen plagen. Der einzige Grund, warum wir eine Voreingenommenheit in der KI sehen, liegt darin, dass Menschen sie manchmal mit heuristischen Fehlern und voreingenommenen Daten trainieren.
Seit die oben genannten Vorurteile entdeckt wurden, arbeiten alle großen Technologieunternehmen hart daran, ihre Datensätze zu verbessern und Vorurteile zu beseitigen. Eine Möglichkeit, Voreingenommenheit in der KI zu beseitigen? – Durch den Einsatz künstlicher Intelligenz. Wenn das unwahrscheinlich erscheint, lassen Sie uns weiter forschen.
Das klassische Beispiel sind Stellenangebote. Frauen und farbige Menschen sind bei den begehrtesten Beschäftigungsmöglichkeiten notorisch unterrepräsentiert. Dieses Phänomen setzt sich fort, da neue Mitarbeiter zu leitenden Führungskräften werden, die für die Personalbeschaffung verantwortlich sind. Affinitätsbias stellt sicher, dass „Menschen wie ich“ weiterhin eingestellt werden, während Attributionsbias diese Entscheidungen auf der Grundlage der bisherigen Mitarbeiterleistung rechtfertigt.
Aber das könnte sich ändern, wenn KI bei der Personalbeschaffung eine größere Rolle spielt. Tools wie Textio, Gender Decoder und Ongig nutzen künstliche Intelligenz, um versteckte Vorurteile in Bezug auf Geschlecht und andere Merkmale zu hinterfragen. Knockri, Ceridian und Gapjumpers nutzen künstliche Intelligenz, um identifizierende Merkmale wie Geschlecht, nationale Herkunft, Hautfarbe und Alter zu entfernen oder zu ignorieren, sodass sich Personalmanager ausschließlich auf die Qualifikationen und Erfahrung eines Kandidaten konzentrieren können. Einige dieser Lösungen reduzieren auch Aktualitäts-, Affinitäts- und Geschlechterbias im Vorstellungsgespräch, indem sie die Soft Skills eines Kandidaten objektiv bewerten oder die Stimme eines Kandidaten am Telefon ändern, um sein Geschlecht zu verschleiern.
Ein ähnlicher Ansatz kann in der Risikokapitalwelt verfolgt werden. In der Welt des Risikokapitals sind 80 % der Partner Männer, während Frauen nur 2,2 % der Investitionen erhalten, obwohl sie 40 % der neuen Startups gründeten. Beispielsweise hat Founders Factory, ein britischer Startup-Beschleuniger, eine Software geschrieben, um Programmkandidaten anhand erkennbarer Merkmale des Startup-Erfolgs zu überprüfen. In ähnlicher Weise hat F4capital, eine von Frauen geführte gemeinnützige Organisation, einen FICO-Score für Startups entwickelt, um die Reife, Chancen und Risiken eines Startups zu bewerten und Voreingenommenheit im Risikoentscheidungsprozess zu beseitigen. Dieser Ansatz sollte weit verbreitet sein, nicht nur, weil es ethisch vertretbar ist, sondern auch, weil er bessere Renditen liefert – 184 % höher als Investitionen ohne die Hilfe von KI.
Künstliche Intelligenz kann auch dazu beitragen, bessere Entscheidungen im Gesundheitswesen zu treffen. Beispielsweise arbeitet das medizinische Diagnostikunternehmen Flow Health daran, mithilfe künstlicher Intelligenz kognitive Vorurteile zu überwinden, die Ärzte häufig bei der Diagnose von Patienten nutzen. Beispielsweise ermutigt die „Verfügbarkeitsheuristik“ Ärzte dazu, häufige, aber manchmal falsche Diagnosen zu stellen, während die „Ankerheuristik“ dazu führt, dass sie an einer falschen Erstdiagnose festhalten, auch wenn neue Informationen ihnen widersprechen. Ich glaube, dass künstliche Intelligenz ein wichtiger Teil der sich schnell entwickelnden Welt der datengesteuerten personalisierten Medizin sein wird.
KI kann sogar dazu beitragen, weniger bösartige, aber immer noch sehr starke Vorurteile zu reduzieren, die oft unser geschäftliches Urteilsvermögen trüben. Denken Sie an die Voreingenommenheit (in englischsprachigen Ländern) gegenüber auf Englisch veröffentlichten Informationen, die Voreingenommenheit bei Startups gegenüber älteren Menschen trotz ihres größeren Wissens und ihrer Erfahrung, die Tendenz in der Fertigung, dieselben Lieferanten und Methoden zu nutzen, anstatt neue, möglicherweise bessere Ansätze auszuprobieren; . Vergessen Sie nicht, dass Supply-Chain-Führungskräfte und Wall-Street-Investoren in wirtschaftlich schwierigen Zeiten kurzfristige Entscheidungen auf der Grundlage von Emotionen treffen.
Wenn man KI in all diesen Bereichen arbeiten lässt, kann man effektiv nach unerkannten Vorurteilen im Entscheidungsprozess suchen.
Wenn es in der Natur des Menschen liegt, Fehler zu machen, könnte KI die Lösung sein, die wir brauchen, um die kostspieligen und unethischen Folgen unserer versteckten Vorurteile zu vermeiden. Aber was ist mit der Beeinträchtigung der KI selbst? Wie kann KI eine nützliche Lösung sein, wenn sie voreingenommene Daten falsch interpretiert und voreingenommene menschliche Heuristiken verstärkt? Das vom People and AI Research Team (PAIR) von Google entwickelte What-If-Tool ermöglicht es Entwicklern, die Leistung von KI mithilfe einer umfangreichen Bibliothek von „Fairness-Metriken“ zu untersuchen, während das Bias-Analysator-Tool von PWC, das AI Fairness 360-Tool von IBM Research usw O 'Jedes der LIME-Tools von Reilly hilft uns zu erkennen, ob in unserem KI-Code Voreingenommenheit besteht.
Wenn Sie als leitender Angestellter oder Vorstandsmitglied darüber nachdenken, wie KI Vorurteile in Ihrem Unternehmen reduzieren könnte, empfehle ich Ihnen dringend, KI als eine vielversprechende neue Waffe in Ihrem Arsenal zu betrachten und nicht als Allheilmittel, das das Problem vollständig löst . Aus ganzheitlicher und praktischer Sicht müssen Sie dennoch Grundlagen zur Reduzierung von Vorurteilen festlegen, Ihre Mitarbeiter darin schulen, versteckte Vorurteile zu erkennen und zu vermeiden, und externes Feedback von Kunden, Lieferanten oder Beratern einholen. Voreingenommene Bewertungen sind nicht nur eine gute Idee, in manchen Fällen sind sie sogar Gesetz.
Das obige ist der detaillierte Inhalt vonKann künstliche Intelligenz dabei helfen, Voreingenommenheit zu beseitigen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!