Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Bauen Sie eine bessere Gesellschaft mit besserer künstlicher Intelligenz auf

Bauen Sie eine bessere Gesellschaft mit besserer künstlicher Intelligenz auf

WBOY
WBOYnach vorne
2023-04-08 19:31:06963Durchsuche

Künstliche Intelligenz (KI) hat ein enormes Potenzial, jeden Aspekt der Gesellschaft durch Innovation zu verbessern, von traditionellen technischen Systemen über das Gesundheitswesen bis hin zu kreativen Prozessen in Kunst und Unterhaltung. In Hollywood beispielsweise nutzen Studios KI, um Vorurteile in Drehbüchern aufzudecken und zu messen – Werkzeuge, die Produzenten und Autoren benötigen, um gerechtere und integrativere Medien zu schaffen.

Bauen Sie eine bessere Gesellschaft mit besserer künstlicher Intelligenz auf

Allerdings ist KI nur so intelligent wie die Daten, auf denen sie trainiert wird, was reale Vorurteile widerspiegelt. Um die Aufrechterhaltung von Stereotypen und Exklusivität zu vermeiden, befassen sich Technologen mit Fragen der Gerechtigkeit und Inklusion im wirklichen Leben und bei Innovationen.

Angeborene menschliche Voreingenommenheit

Da Technologen versuchen, mithilfe von KI menschenzentrierte Lösungen zu finden, um Branchenpraktiken und das tägliche Leben zu optimieren, ist es wichtig, sich darüber im Klaren zu sein, dass unsere angeborenen Vorurteile unbeabsichtigte Folgen haben können.

„Als Menschen sind wir sehr voreingenommen“, sagte Ammanath, weltweiter Leiter des Deloitte AI Institute und Leiter für Technologie und KI-Ethik bei Deloitte. „Da diese Vorurteile im System verankert sind, werden Teile der Gesellschaft wahrscheinlich zurückgelassen – unterrepräsentierte Minderheiten, Menschen, die keinen Zugang zu bestimmten Instrumenten haben – was zu mehr Ungleichheit in der Welt führen könnte.“​​​​​ ​​

Wenn Systeme mit verzerrten Daten trainiert werden oder Forscher nicht berücksichtigen, wie ihre eigenen Perspektiven die Richtung der Forschung beeinflussen, dann können gute Projekte, die am Anfang damit beginnen, gleiche Ergebnisse zu erzielen oder vergangene Ungleichheiten abzumildern, dennoch zu Verzerrungen führen.

Ammanath sagte, dass Anpassungen der KI-Voreingenommenheit bisher typischerweise als Reaktion auf die Entdeckung voreingenommener Algorithmen oder das nachträgliche Auftauchen unterrepräsentierter Bevölkerungsgruppen erfolgten. Allerdings müssen Unternehmen jetzt lernen, proaktiv zu sein, diese Probleme frühzeitig zu entschärfen und die Verantwortung für Fehltritte bei ihren KI-Bemühungen zu übernehmen.

Algorithmische Verzerrung in der künstlichen Intelligenz

In der künstlichen Intelligenz tritt Verzerrung in Form einer algorithmischen Verzerrung auf. „Algorithmische Verzerrung stellt eine Reihe von Herausforderungen beim Aufbau von KI-Modellen dar“, erklärte Kirk Bresniker, Chefarchitekt bei HP Labs und Vizepräsident bei Hewlett Packard Enterprise (HPE). „Wir können auf Herausforderungen stoßen, weil unsere Algorithmen nicht mit unterschiedlichen Eingaben umgehen können oder weil wir keinen ausreichend breiten Datensatz gesammelt haben, um ihn in unser Modelltraining zu integrieren. In beiden Fällen haben wir nicht genügend Daten.“ durch ungenaue Verarbeitung, veränderte Daten oder durch das Einschleusen falscher Signale verursacht werden. Ob beabsichtigt oder nicht, diese Voreingenommenheit kann zu unfairen Ergebnissen führen, die eine Gruppe bevorzugen oder eine andere vollständig ausschließen können.

Ammanath beschreibt beispielsweise einen Algorithmus, der verschiedene Arten von Schuhen identifizieren soll, etwa Flip-Flops, Sandalen, Abendschuhe und Turnschuhe. Allerdings konnte der Algorithmus bei der Veröffentlichung Damenschuhe mit hohen Absätzen nicht erkennen. Das Entwicklungsteam bestand aus einer Gruppe frischgebackener Hochschulabsolventen – alles Männer –, die nie daran gedacht hatten, es in Frauenschuhen zu trainieren.

„Dies ist ein triviales Beispiel, aber man erkennt, dass der Datensatz begrenzt ist“, sagte Ammanath. „Denken Sie nun an einen ähnlichen Algorithmus, der historische Daten zur Diagnose von Krankheiten oder Krankheiten verwendet. Was wäre, wenn er nicht für bestimmte Körpertypen, bestimmte Geschlechter oder bestimmte Rassen trainiert wäre?“​​​​

„Entscheidend.“ Sie sagte: „Wenn Sie diese Vielfalt nicht haben, verpassen Sie bestimmte Szenarien.“

Bessere KI bedeutet Selbstregulierung und Ethik

Einfach Zugang zu mehr (und mehr Vielfalt) Datensätzen Eine gewaltige Herausforderung, insbesondere wenn die Datenkonzentration immer größer wird. Der Datenaustausch wirft viele Probleme auf, von denen Sicherheit und Datenschutz die wichtigsten sind.

Nathan Schneider, Assistenzprofessor für Medienwissenschaften an der University of Colorado Boulder, sagte: „Derzeit stehen wir vor einer Situation, in der einzelne Benutzer weitaus weniger Macht haben als die großen Unternehmen, die ihre Daten sammeln und verarbeiten.“

Erweiterte Gesetze und die Vorschriften sind sehr streng. Sie können letztendlich bestimmen, wann und wie Daten weitergegeben und verwendet werden. Aber Innovation wird nicht auf den Gesetzgeber warten. Derzeit haben KI-Entwicklungsorganisationen die Verantwortung, Daten gut zu verwalten und die Privatsphäre des Einzelnen zu schützen, während sie gleichzeitig daran arbeiten, algorithmische Verzerrungen zu reduzieren. Ammanath von Deloitte sagte, da die Technologie so schnell ausgereift sei, sei es unmöglich, sich auf Vorschriften zu verlassen, die jedes mögliche Szenario abdecken. „Wir werden in eine Ära eintreten, in der die Einhaltung bestehender Vorschriften und die Selbstregulierung in Einklang gebracht werden.“

Diese Selbstregulierung bedeutet, die Standards in der gesamten Technologielieferkette zu erhöhen, die KI-Lösungen aufbaut, von den Daten über die Schulung bis hin zur Nutzung der dafür erforderlichen Infrastruktur Lösungen möglich. Darüber hinaus müssen Organisationen abteilungsübergreifende Möglichkeiten schaffen, damit Einzelpersonen Bedenken hinsichtlich Voreingenommenheit äußern können. Obwohl es unmöglich ist, Voreingenommenheit vollständig zu beseitigen, müssen Unternehmen die Wirksamkeit ihrer KI-Lösungen regelmäßig überprüfen.

Aufgrund der stark kontextbezogenen Natur der KI wird die Selbstregulierung für jedes Unternehmen anders aussehen. Beispielsweise hat HPE ethische KI-Richtlinien entwickelt. Eine Vielzahl von Personen aus dem gesamten Unternehmen haben fast ein Jahr lang zusammengearbeitet, um die KI-Prinzipien des Unternehmens zu entwickeln und diese anschließend mit einem breiten Spektrum von Mitarbeitern zu überprüfen, um sicherzustellen, dass sie befolgt werden können und für die Unternehmenskultur sinnvoll sind.

Bresniker von HPE sagte: „Wir wollen das allgemeine Verständnis dieser Probleme verbessern und dann Best Practices sammeln. Das ist jedermanns Aufgabe – es gibt genug Bewusstsein in diesem Bereich.“

Die Technologie der künstlichen Intelligenz ist ausgereift, von Forschung und Entwicklung bis hin zu Praxisnahe Anwendung und Wertschöpfung, branchenübergreifend. Die zunehmende Verbreitung von KI in der Gesellschaft bedeutet, dass Unternehmen nun die ethische Verantwortung haben, leistungsstarke, integrative und zugängliche Lösungen bereitzustellen. Diese Verantwortung veranlasst Unternehmen dazu, die Daten, die sie in ihre Prozesse einbeziehen, manchmal zum ersten Mal zu untersuchen. „Wir möchten, dass die Menschen diese Vision entwickeln und messbares Vertrauen in die eingehenden Daten haben“, sagte Bresniker. „Sie haben die Macht, anhaltende systemische Ungleichheiten zu stoppen und gerechte Ergebnisse für eine bessere Zukunft zu schaffen.“

Das obige ist der detaillierte Inhalt vonBauen Sie eine bessere Gesellschaft mit besserer künstlicher Intelligenz auf. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen