Die rasante Entwicklung der generativen KI hat zu beispiellosen Herausforderungen in Bezug auf Datenschutz und Sicherheit geführt und dringende Forderungen nach regulatorischen Eingriffen ausgelöst.
Letzte Woche hatte ich die Gelegenheit, mit einigen Kongressabgeordneten und ihren Mitarbeitern in Washington, D.C. über die sicherheitsrelevanten Auswirkungen von KI zu diskutieren.
Die heutige generative KI erinnert mich an das Internet der späten 80er Jahre, mit Grundlagenforschung, latentem Potenzial und akademischen Anwendungen, aber sie ist noch nicht bereit für die Öffentlichkeit. Dieses Mal treibt der uneingeschränkte Ehrgeiz der Anbieter, angetrieben durch Risikokapital der unteren Liga und inspiriert durch Twitter-Echokammern, die „schöne neue Welt“ der KI rasant voran.
Das „öffentliche“ Basismodell ist fehlerhaft und für den Verbraucher- und kommerziellen Gebrauch ungeeignet; Datenschutzabstraktionen, falls vorhanden, sind wie ein Sieb wichtig, da Angriffsflächen und Bedrohungsvektoren immer noch verstanden werden. Was die illusorischen Leitplanken betrifft, gilt: Je weniger gesagt, desto besser.
Wie sind wir hierher gekommen? Was ist mit Sicherheit und Datenschutz passiert?
Das „Kompromiss“-Basismodell
Der Modus „Offen“ weist manchmal Einschränkungen auf. Verschiedene Anbieter geben ihren Grad an Offenheit durch Gewichtungen im offenen Modus, Zugriff auf Dokumentation oder Tests bekannt. Dennoch stellt keiner der großen Anbieter etwas annähernd an den Trainingsdatensatz oder seine Manifest- oder Abstammungsinformationen zur Verfügung, um seine Modelle replizieren und reproduzieren zu können.
Wenn Sie ein oder mehrere Modelle zum Trainieren eines Datensatzes verwenden möchten, haben Sie als Verbraucher oder Organisation keine Möglichkeit, das Ausmaß der Datenkontamination zu überprüfen oder zu bestätigen, sei es in Bezug auf geistiges Eigentum, Urheberrecht usw. oder als illegaler Inhalt.
Entscheidend ist, dass es ohne ein Manifest des Trainingsdatensatzes keine Möglichkeit gibt, nicht vorhandene schädliche Inhalte zu überprüfen oder zu bestätigen. Böswillige Akteure, einschließlich staatlich geförderter Akteure, platzieren Trojaner-Inhalte im Netzwerk, die, wenn sie während des Modelltrainings aufgenommen werden, zu unvorhersehbaren und potenziell bösartigen Nebenwirkungen bei der Schlussfolgerung führen.
Denken Sie daran: Sobald ein Modell kompromittiert ist, gibt es keine Möglichkeit, es vergessen zu machen. Die einzige Möglichkeit besteht darin, es zu zerstören.
„Allgegenwärtige“ Sicherheitsprobleme
Generative KI-Modelle sind der ultimative sichere Honeypot, da „alle“ Daten in einen Container aufgenommen werden. Im Zeitalter der KI sind neue Kategorien von Angriffsvektoren entstanden. Die Branche muss noch verstehen, wie diese Modelle vor Cyber-Bedrohungen geschützt werden und welche Auswirkungen diese Modelle als Werkzeuge von Cyber-Bedrohungsakteuren haben können.
Schädliche Hinweisinjektionstechniken können verwendet werden, um Indizes zu verunreinigen; Datenvergiftung kann verwendet werden, um Gewichtungen zu beschädigen, einschließlich Inversionstechniken, um umfangreiche Daten aus Einbettungen zu extrahieren Der Trainingssatz usw. ist nur die Spitze des Eisbergs.
Bedrohungsakteure können durch Modellumkehr und programmatische Abfragen Zugriff auf vertrauliche Daten erhalten; sie können das zugrunde liegende Verhalten des Modells beschädigen oder auf andere Weise beeinflussen, und wie bereits erwähnt, kann eine groß angelegte unkontrollierte Datenaufnahme zu Bedrohungen führen, die in staatlich geförderte Cyberangriffe eingebettet sind Aktivitäten wie Trojanische Pferde.
„Durchgesickerte“ Privatsphäre
KI-Modelle sind nur aufgrund der Datensätze nützlich, auf denen sie trainiert werden; die wahllose Datenaufnahme in großem Umfang birgt beispiellose Datenschutzrisiken für Einzelpersonen und die Öffentlichkeit. Im Zeitalter der KI ist der Datenschutz zu einem gesellschaftlichen Anliegen geworden; Regelungen, die sich in erster Linie mit den Rechten personenbezogener Daten befassen, reichen nicht aus.
Neben statischen Daten müssen auch Aufforderungen zu dynamischen Gesprächen als geistiges Eigentum geschützt und gepflegt werden. Wenn Sie ein Verbraucher sind, der an der gemeinsamen Erstellung eines Artefakts mit einem Modell beteiligt ist, hoffen Sie, dass die Eingabeaufforderungen, die Sie zur Steuerung dieser Erstellungsaktivität verwenden, nicht zum Trainieren des Modells verwendet oder mit anderen Modellverbrauchern geteilt werden.
Wenn Sie ein Mitarbeiter sind, der das Modell zur Erzielung von Geschäftsergebnissen nutzt, erwartet Ihr Arbeitgeber, dass Ihre Tipps vertraulich behandelt werden. Darüber hinaus erfordern Tipps und Antworten einen sicheren Prüfpfad für den Fall, dass bei einer der Parteien Haftungsprobleme auftreten. Dies ist hauptsächlich auf die stochastische Natur dieser Modelle und die Veränderungen ihrer Reaktionen im Laufe der Zeit zurückzuführen.
Was passiert als nächstes?
Wir haben es mit einer beispiellosen Technologie zu tun, die in unserer Computergeschichte insofern einzigartig ist, als sie in großem Maßstab ein aufkommendes und latentes Verhalten aufweist. Die in der Vergangenheit verwendeten Methoden für Sicherheit, Datenschutz und Vertraulichkeit sind nicht mehr ausreichend.
Branchenführer warfen alle Vorsicht über Bord und ließen Regulierungsbehörden und politischen Entscheidungsträgern keine andere Wahl, als einzugreifen.
Das obige ist der detaillierte Inhalt vonDie neuen Weltherausforderungen der KI: Was ist mit Sicherheit und Datenschutz passiert?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!