Heim >Technologie-Peripheriegeräte >KI >Forscher stellen fest, dass ein Großteil des von ChatGPT generierten Codes unsicher ist, aber das verrät es Ihnen nicht
Neuigkeiten vom 23. April: Der ChatGPT-Chatbot kann basierend auf Benutzereingaben eine Vielzahl von Texten, einschließlich Code, generieren. Vier Forscher der Universität Quebec in Kanada stellten jedoch fest, dass der von ChatGPT generierte Code häufig schwerwiegende Sicherheitsprobleme aufweist und Benutzer nicht proaktiv auf diese Probleme aufmerksam macht und Fehler nur auf Anfrage der Benutzer zugibt.
Die Forscher stellten ihre Ergebnisse in einem Papier vor und stellten fest, dass sie ChatGPT gebeten hatten, 21 Programme und Skripte mit Sprachen wie C, C++, Python und Java zu generieren. Diese Programme und Skripte sollen bestimmte Sicherheitslücken aufzeigen, z. B. Speicherbeschädigung, Denial-of-Service, Deserialisierung und Schwachstellen bei der Verschlüsselungsimplementierung. Die Ergebnisse zeigten, dass nur 5 von 21 von ChatGPT generierten Programmen beim ersten Versuch sicher waren. Nach weiteren Aufforderungen zur Korrektur seiner fehlerhaften Schritte gelang es dem großen Sprachmodell, sieben weitere sichere Anwendungen zu generieren, obwohl dies nur in Bezug auf die spezifische Schwachstelle, die bewertet wurde, „sicher“ war, ganz zu schweigen davon, dass der endgültige Code nichts anderes enthielt Das könnte getan werden.
Forscher wiesen darauf hin, dass ein Teil des Problems bei ChatGPT darin besteht, dass es gegnerische Codeausführungsmodelle nicht berücksichtigt. Es wird den Benutzern immer wieder mitgeteilt, dass Sicherheitsprobleme vermieden werden können, indem man „keine ungültigen Daten eingibt“, aber das ist in der realen Welt nicht machbar. Es scheint sich jedoch der kritischen Schwachstellen in seinem vorgeschlagenen Code bewusst zu sein und diese einzuräumen.
Raphaël Khoury, Professor für Informatik und Ingenieurwesen an der Universität Quebec und einer der Co-Autoren des Papiers, sagte gegenüber The Register: „Offensichtlich ist es nur ein Algorithmus. Er weiß nichts, kann aber unsicheres Verhalten erkennen.“ .“ Er sagte, dass die Reaktion von ChatGPT auf das Sicherheitsproblem zunächst darin bestand, nur die Verwendung gültiger Eingaben zu empfehlen, was eindeutig unangemessen sei. Es stellt nur dann eine nützliche Anleitung dar, wenn Sie später aufgefordert werden, das Problem zu beheben.
Forscher glauben, dass dieses Verhalten von ChatGPT nicht ideal ist, da Benutzer, die wissen, welche Fragen sie stellen müssen, Kenntnisse über bestimmte Schwachstellen und Codierungstechniken benötigen.
Die Forscher wiesen auch darauf hin, dass es bei ChatGPT ethische Ungereimtheiten gibt. Dadurch wird die Erstellung von angreifendem Code verhindert, es wird jedoch anfälliger Code erstellt. Sie gaben ein Beispiel für eine Java-Deserialisierungsschwachstelle: „Der Chatbot hat anfälligen Code generiert und Vorschläge gemacht, wie er sicherer gemacht werden kann, sagte aber, er könne keine sicherere Version des Codes erstellen.“ Risiko in seiner aktuellen Form, aber das heißt nicht, dass es keine sinnvollen Möglichkeiten gibt, diesen instabilen, leistungsschwachen KI-Assistenten zu nutzen. „Wir haben gesehen, dass Studenten dieses Tool verwenden, und Programmierer verwenden dieses Tool im wirklichen Leben“, sagte er. „Es ist also sehr gefährlich, ein Tool zu haben, das unsicheren Code generiert. Wir müssen die Studenten darauf aufmerksam machen, dass der Code mit generiert wird.“ Bei einem solchen Tool ist es wahrscheinlich unsicher.“ Er sagte auch, dass er überrascht sei, dass, wenn sie ChatGPT darum baten, Code für dieselbe Aufgabe in verschiedenen Sprachen, manchmal für eine Sprache, zu generieren, sicherer Code generiert würde In einer anderen Sprache wird anfälliger Code generiert. „Da dieses Sprachmodell so etwas wie eine Blackbox ist, habe ich keine wirklich gute Erklärung oder Theorie dafür.“
Das obige ist der detaillierte Inhalt vonForscher stellen fest, dass ein Großteil des von ChatGPT generierten Codes unsicher ist, aber das verrät es Ihnen nicht. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!