Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  OpenAI setzt eine Belohnung von 20.000 US-Dollar aus, um Kopfgeldjäger für ChatGPT-Fehlermeldungen zu rekrutieren!

OpenAI setzt eine Belohnung von 20.000 US-Dollar aus, um Kopfgeldjäger für ChatGPT-Fehlermeldungen zu rekrutieren!

王林
王林nach vorne
2023-04-23 21:52:06655Durchsuche

Produziert von Big Data Digest


Erst gestern gab OpenAI den Start eines Kopfgeldprogramms bekannt, um den wachsenden Cybersicherheitsrisiken durch ChatGPT zu begegnen.


Dieses „Kopfgeldjägerprogramm“ lädt verschiedene unabhängige Forscher ein, Schwachstellen im OpenAI-System zu melden. Die Teilnehmer haben die Möglichkeit, je nach Schweregrad finanzielle Belohnungen zwischen 200 und 20.000 US-Dollar zu erhalten der Schwachstelle.


Das Projekt wurde in Zusammenarbeit mit dem Crowdsourcing-Cybersicherheitsunternehmen BugCrowd durchgeführt, und OpenAI sagte, das Projekt sei Teil seines „Engagements für die Entwicklung sicherer, fortschrittlicher künstlicher Intelligenz“.


Wenn Sie also Lücken beim Chatten mit ChatGPT entdecken (z. B. die Zerstörung von Menschen auf Schritt und Tritt), müssen Sie dies rechtzeitig melden, wenn dies dazu beitragen kann, eine Lücke zu entdecken kann das Kopfgeld bekommen!


Seit der Geburt von ChatGPT sind die Menschen zunehmend besorgt über Schwachstellen in solchen Systemen der künstlichen Intelligenz, wie etwa die Erzeugung von Fehlinformationen und unethischen Informationen, haben Forscher herausgefunden, Social-Engineering-Angriffe mit künstlicher Intelligenz stiegen von Januar bis Februar um 135 %, was mit der Einführung von ChatGPT zusammenfällt.


Das Aufkommen von ChatGPT hat zweifellos die Schwelle für Cyberangriffe gesenkt, insbesondere das neu eingeführte ChatGPT 4.0.


Nur wenige Tage nach der Einführung von ChatGPT 4.0 fand der Informatikstudent Alex Albert von der University of Washington eine Möglichkeit, die Sicherheitsmechanismen außer Kraft zu setzen. In einer auf Twitter geposteten Demo zeigte Albert, wie ein Benutzer GPT-4 dazu veranlassen kann, Anweisungen zum Hacken eines Computers zu generieren, indem er eine Schwachstelle in der Art und Weise ausnutzt, wie GPT-4 Text interpretiert und darauf reagiert.


OpenAI setzt eine Belohnung von 20.000 US-Dollar aus, um Kopfgeldjäger für ChatGPT-Fehlermeldungen zu rekrutieren!


Dieses Kopfgeldprogramm zielt genau darauf ab, die weit verbreiteten Bedenken auszuräumen, die durch diese Reihe von Sicherheitsproblemen verursacht werden. Zuvor wurde ein Sicherheitsforscher namens Rez0 verdächtigt, eine A-Schwachstelle auszunutzen in der ChatGPT-API ausgenutzt und mehr als 80 geheime Plugins entdeckt.


Angesichts dieser Kontroversen hat OpenAI diesen Kopfgeldpreis ins Leben gerufen, um Forscher zu ermutigen, Schwachstellen zu melden, um Fehler in seinem Produkt-Ökosystem zu beheben, und sich gleichzeitig als eine Organisation zu positionieren, die in gutem Glauben handelt, um die dadurch verursachten Probleme anzugehen Sicherheitsrisiken durch generative KI.


Experts: "Bounty Program" hat begrenzte Auswirkungen. Während der Plan von OpenAI von einigen Experten begrüßt wird, sagen andere, dass das Bounty -Programm unwahrscheinlich ist der Cybersicherheitsrisiken, die durch immer ausgefeiltere Technologien der künstlichen Intelligenz entstehen.


Experten glauben, dass das Kopfgeldprogramm von OpenAI hinsichtlich des Umfangs der Bedrohungen, mit denen es umgeht, sehr begrenzt ist. Auf der offiziellen Seite des Prämienprogramms heißt es beispielsweise: „Probleme im Zusammenhang mit Demonstrationsaufforderungen und Antwortinhalten fallen grundsätzlich nicht in den Geltungsbereich und werden nicht belohnt, es sei denn, sie haben zusätzliche, direkt nachweisbare Auswirkungen auf die Sicherheit der in den Geltungsbereich fallenden Dienste.“


Beispiele für Sicherheitsprobleme, die außerhalb des Geltungsbereichs liegen, sind Jailbreaking und das Umgehen des abgesicherten Modus, das „Unethische Sprechen“ des Modells, das Schreiben von bösartigem Code oder das Erzählen durch das Modell, wie Sie schlechte Dinge in die Tat umsetzen .


In diesem Sinne kann das Bug-Bounty-Programm von OpenAI Organisationen dabei helfen, ihre eigene Sicherheitslage zu verbessern, es ist jedoch nicht hilfreich bei der Lösung der Probleme, die die generative KI und die GPT-4-Sicherheit für die Gesellschaft mit sich bringen Risiken haben kaum Auswirkungen.


So viele glauben, dass der Umfang des Projekts auf Schwachstellen beschränkt ist, die sich direkt auf OpenAI-Systeme und -Partner auswirken können, und dass es den böswilligen Einsatz von Techniken wie Identitätsdiebstahl, synthetische Medien usw. offenbar nicht angeht. oder automatisierte Hacking-Tools umfassendere Bedenken.


OpenAI reagierte nicht sofort auf eine Anfrage nach einem Kommentar.


Verwandte Berichte:

​https://www.php.cn/link/3e9928ece00c78dc7777c644f68d3956​

​https://www.php.cn/ link/52ff52aa56d10a1287274ecf02dccb5f​


Das obige ist der detaillierte Inhalt vonOpenAI setzt eine Belohnung von 20.000 US-Dollar aus, um Kopfgeldjäger für ChatGPT-Fehlermeldungen zu rekrutieren!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen