Heim  >  Artikel  >  KI-Risikobewertung: Ein Wettlauf um die Kartierung der sich entwickelnden Landschaft der KI-Risiken

KI-Risikobewertung: Ein Wettlauf um die Kartierung der sich entwickelnden Landschaft der KI-Risiken

WBOY
WBOYOriginal
2024-08-16 18:11:14713Durchsuche

Eine aktuelle Studie hat KI-Modelle nach den von ihnen ausgehenden Risiken eingestuft und dabei ein breites Spektrum an Verhaltensweisen und Compliance-Problemen aufgedeckt. Ziel dieser Arbeit ist es, Einblicke in die rechtlichen, ethischen und regulatorischen Herausforderungen dieser Technologien zu geben. Die Ergebnisse könnten politischen Entscheidungsträgern und Unternehmen dabei helfen, die Komplexität des sicheren Einsatzes von KI zu bewältigen.

KI-Risikobewertung: Ein Wettlauf um die Kartierung der sich entwickelnden Landschaft der KI-Risiken

Aktuelle Studien haben KI-Modelle anhand der von ihnen ausgehenden Risiken eingestuft und dabei ein breites Spektrum an Verhaltensweisen und Compliance-Problemen hervorgehoben. Diese Arbeit zielt darauf ab, Einblicke in die rechtlichen, ethischen und regulatorischen Herausforderungen dieser Technologien zu liefern und politischen Entscheidungsträgern und Unternehmen dabei zu helfen, die Komplexität des sicheren Einsatzes von KI zu bewältigen.

Bo Li, ein außerordentlicher Professor an der University of Chicago, der dafür bekannt ist, KI-Systeme zu testen, um potenzielle Risiken zu identifizieren, leitete die Forschung. Sein Team hat in Zusammenarbeit mit mehreren Universitäten und Firmen einen Benchmark namens AIR-Bench 2024 entwickelt, um KI-Modelle im großen Maßstab zu bewerten.

Die Studie identifizierte Unterschiede in der Art und Weise, wie verschiedene Modelle Sicherheits- und Regulierungsstandards einhielten. Beispielsweise schnitten einige Modelle in bestimmten Kategorien hervor; Claude 3 Opus von Anthropic war besonders geschickt darin, die Generierung von Cybersicherheitsbedrohungen zu verweigern, während Gemini 1.5 Pro von Google gut darin abschnitt, die Generierung nicht einvernehmlicher sexueller Bilder zu verhindern. Diese Ergebnisse legen nahe, dass bestimmte Modelle je nach den damit verbundenen Risiken besser für bestimmte Aufgaben geeignet sind.

Andererseits schnitten einige Modelle insgesamt schlecht ab. Die Studie stufte DBRX Instruct, ein von Databricks entwickeltes Modell, in verschiedenen Risikokategorien durchweg als das schlechteste ein. Als Databricks dieses Modell im Jahr 2023 auf den Markt brachte, erkannte das Unternehmen, dass seine Sicherheitsfunktionen verbessert werden mussten.

Das Forschungsteam untersuchte auch, wie sich verschiedene KI-Vorschriften mit den Unternehmensrichtlinien vergleichen lassen. Ihre Analyse ergab, dass Unternehmensrichtlinien tendenziell umfassender waren als staatliche Vorschriften, was darauf hindeutet, dass die Regulierungsrahmen möglicherweise hinter den Branchenstandards zurückbleiben.

„Es gibt Spielraum für eine Verschärfung der staatlichen Vorschriften“, bemerkte Bo Li.

Obwohl viele Unternehmen strenge Richtlinien für die KI-Nutzung einführen, stellten die Forscher Diskrepanzen zwischen diesen Richtlinien und der Leistung von KI-Modellen fest. In mehreren Fällen entsprachen KI-Modelle nicht den Sicherheits- und Ethikrichtlinien der Unternehmen, die sie entwickelt hatten.

Diese Inkonsistenz weist auf eine Lücke zwischen Politik und Praxis hin, die Unternehmen rechtlichen Risiken und Reputationsrisiken aussetzen könnte. Da sich die KI weiterentwickelt, wird es möglicherweise immer wichtiger, diese Lücke zu schließen, um sicherzustellen, dass die Technologie sicher und verantwortungsvoll eingesetzt wird.

Weitere Bemühungen sind ebenfalls im Gange, um die KI-Risikolandschaft besser zu verstehen. Zwei MIT-Forscher, Neil Thompson und Peter Slattery, haben eine Datenbank zu KI-Risiken entwickelt, indem sie 43 verschiedene KI-Risiko-Frameworks analysierten. Diese Initiative soll Unternehmen und Organisationen dabei helfen, potenzielle Gefahren im Zusammenhang mit KI einzuschätzen, insbesondere im Hinblick auf die zunehmende Verbreitung der Technologie.

Die MIT-Forschung zeigt, dass einigen KI-Risiken mehr Aufmerksamkeit geschenkt wird als anderen. Beispielsweise konzentrierten sich mehr als 70 Prozent der vom Team überprüften Risiko-Frameworks auf Datenschutz- und Sicherheitsbedenken. Allerdings befassten sich weniger Rahmenwerke – rund 40 Prozent – ​​mit Problemen wie Fehlinformationen. Diese Ungleichheit könnte darauf hindeuten, dass bestimmte Risiken möglicherweise übersehen werden, wenn sich Unternehmen auf die wichtigeren Anliegen konzentrieren.

„Viele Unternehmen befinden sich noch in einem frühen Stadium der Einführung von KI und benötigen möglicherweise weitere Anleitung zum Umgang mit diesen Risiken“, sagte Peter Slattery, der das Projekt in der FutureTech-Gruppe des MIT leitet. Die Datenbank soll ein klareres Bild der Herausforderungen für KI-Entwickler und -Anwender vermitteln.

Trotz Fortschritten bei den KI-Modellfunktionen, wie zum Beispiel Metas Llama 3.1, das leistungsfähiger ist als seine Vorgänger, gab es minimale Verbesserungen bei der Sicherheit. Bo Li wies darauf hin, dass die neueste Version von Llama zwar leistungsfähiger sei, aber keine wesentlichen Verbesserungen in Bezug auf die Sicherheit zeige.

„Die Sicherheit verbessert sich nicht wesentlich“, erklärte Li und spiegelte damit eine umfassendere Herausforderung innerhalb der Branche wider, KI-Modelle für einen sicheren und verantwortungsvollen Einsatz zu priorisieren und zu optimieren.

Das obige ist der detaillierte Inhalt vonKI-Risikobewertung: Ein Wettlauf um die Kartierung der sich entwickelnden Landschaft der KI-Risiken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn