Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Das Teilen sensibler Geschäftsdaten mit ChatGPT kann riskant sein

Das Teilen sensibler Geschäftsdaten mit ChatGPT kann riskant sein

王林
王林nach vorne
2023-04-14 18:37:031232Durchsuche

Während die Einzelheiten des Potenzials von KI-Chatbots weiterhin Schlagzeilen machen, bleibt die Aufregung um ChatGPT auf Hochtouren. Eine Frage, die die Aufmerksamkeit vieler in der Sicherheitsgemeinschaft auf sich gezogen hat, ist, ob die Aufnahme sensibler Geschäftsdaten durch die Technologie ein Risiko für Unternehmen darstellt. Es bestand die Sorge, dass, wenn jemand vertrauliche Informationen eingibt – Quartalsberichte, interne Präsentationsmaterialien, Verkaufszahlen usw. – und ChatGPT bittet, einen Text darum herum zu schreiben, jeder an die Informationen des Unternehmens gelangen könnte, indem er einfach ChatGPT fragt.

​Die Auswirkungen könnten weitreichend sein: Stellen Sie sich vor, Sie arbeiten an einer internen Präsentation, die neue Unternehmensdaten enthält und ein Unternehmensproblem offenlegt in einer Vorstandssitzung besprochen werden. Das Durchsickern dieser geschützten Informationen könnte den Aktienkursen, der Verbrauchereinstellung und dem Kundenvertrauen schaden. Schlimmer noch: Rechtspunkte auf der durchgesickerten Tagesordnung könnten das Unternehmen einer echten Haftung aussetzen. Aber kann irgendetwas davon wirklich allein durch Dinge passieren, die in einen Chatbot eingegeben werden?

Das Forschungsunternehmen Cyberhaven untersuchte dieses Konzept im Februar und konzentrierte sich dabei darauf, wie OpenAI die Eingaben von Menschen in ChatGPT als Trainingsdaten nutzt, um seine Technologie, Ausgabe gegenüber Eingabe, zu verbessern sehr ähnlich. Cyberhaven behauptet, dass vertrauliche Daten, die in ChatGPT eingegeben werden, an Dritte weitergegeben werden könnten, wenn der Dritte ChatGPT bestimmte Fragen stellt, die auf Informationen von Führungskräften basieren.

ChatGPT speichert keine Benutzereingabedaten – oder?

Das britische National Cyber ​​​​Security Centre (NCSC) teilte im März weitere Einblicke in die Angelegenheit mit und erklärte, dass ChatGPT und andere große Sprachmodelle (LLMs) derzeit Informationen aus Abfragen nicht automatisch zum Modell hinzufügen damit andere nachfragen können. Das heißt, die Einbeziehung der Informationen in die Abfrage führt nicht dazu, dass potenziell private Daten in das LLM aufgenommen werden. „Abfragen werden jedoch für die Organisation sichtbar sein, die das LLM bereitstellt (und im Fall von ChatGPT auch für OpenAI)“, heißt es darin.

"Diese Abfragen wurden gespeichert und werden mit ziemlicher Sicherheit irgendwann zur Entwicklung eines LLM-Dienstes oder -Modells verwendet. Dies kann bedeuten, dass der LLM-Anbieter (oder seine Partner/Auftragnehmer) in der Lage sind, die zu lesen Abfragen erstellen und sie möglicherweise auf irgendeine Weise in zukünftige Versionen integrieren“, fügte es hinzu. Ein weiteres Risiko, das zunimmt, je mehr Organisationen LLMs erstellen und nutzen, besteht darin, dass online gespeicherte Abfragen gehackt, durchgesickert oder versehentlich veröffentlicht werden könnten, schreibt das NCSC.

Letztendlich gibt es echte Gründe, sich Sorgen über die Eingabe und Verwendung sensibler Geschäftsdaten durch ChatGPT zu machen, auch wenn die Risiken möglicherweise nicht so weit verbreitet sind, wie manche Schlagzeilen es darstellen.

Mögliche Risiken der Eingabe sensibler Daten in ChatGPT

LLM weist eine Art aufkommendes Verhalten auf, das als situiertes Lernen bezeichnet wird. Wenn das Modell während einer Sitzung Eingaben empfängt, kann es Aufgaben basierend auf dem in diesen Eingaben enthaltenen Kontext ausführen. „Dies ist höchstwahrscheinlich das Phänomen, auf das sich die Leute beziehen, wenn sie über Informationslecks besorgt sind. Es ist jedoch unmöglich, dass Informationen aus der Sitzung eines Benutzers an einen anderen Benutzer weitergegeben werden“, sagte Andy Patel, leitender Forscher bei WithSecure, gegenüber CSO. „Eine weitere Sorge besteht darin, dass in die ChatGPT-Schnittstelle eingegebene Eingabeaufforderungen gesammelt und für zukünftige Trainingsdaten verwendet werden.“

Bedenken hinsichtlich der Aufnahme und anschließenden Weitergabe sensibler Informationen durch Chatbots seien berechtigt, sagte Patel, aber ein neues Modell muss geschult werden, um diese Daten zu integrieren. Das Training eines LLM ist ein teurer und langwieriger Prozess, und er sagte, er wäre überrascht, wenn in naher Zukunft ein Modell anhand der von ChatGPT gesammelten Daten trainiert werden könnte. „Wenn irgendwann ein neues Modell erstellt wird, das gesammelte ChatGPT-Hinweise enthält, verwandeln sich unsere Befürchtungen in Angriffe auf Mitgliedschaftsrückschlüsse. Solche Angriffe bergen das Potenzial, Kreditkartennummern oder persönliche Informationen in den Trainingsdaten preiszugeben. Es gibt jedoch keine Ziele für die Unterstützung von ChatGPT und.“ Andere mögen es. „Das LLM des Systems beweist Mitgliedschaftsinferenzangriffe.“ Dies bedeutet, dass zukünftige Modelle äußerst unwahrscheinlich anfällig für Mitgliedschaftsinferenzangriffe sind.

Links von Drittanbietern zur KI könnten Daten preisgeben

Wicus Ross, ein leitender Sicherheitsforscher bei Orange Cyberdefense, sagte, dass das Problem höchstwahrscheinlich von einer externen Partei verursacht wird, die dies nicht tut Es gibt keine klaren Angaben zu den Anbietern seiner Datenschutzrichtlinien, daher könnte die Verwendung dieser mit anderen Sicherheitstools und Plattformen private Daten gefährden. „SaaS-Plattformen wie Slack und Microsoft Teams haben klare Daten- und Verarbeitungsgrenzen, und das Risiko einer Datenexposition gegenüber Dritten ist gering, wenn jedoch Plug-ins oder Bots von Drittanbietern verwendet werden, um den Dienst zu verbessern, unabhängig davon, ob sie damit verbunden sind.“ Ob mit künstlicher Intelligenz oder nicht, diese klaren Linien können schnell verschwimmen“, sagte er. „In Ermangelung einer ausdrücklichen Erklärung des Drittverarbeiters, dass die Informationen nicht weitergegeben werden, müssen Sie davon ausgehen, dass diese nicht länger privat sind.“

Neil Thacker, EMEA Chief Information Security Officer bei Netskope, sagte CSOs, dass Unternehmen zusätzlich zu sensiblen Daten, die von regulären Benutzern weitergegeben werden, auch auf Prompt-Injection-Angriffe achten sollten, die frühere Anweisungen von Entwicklern bei der Anpassung von Tools offenlegen oder diese zuvor machen könnten programmierte Anweisungen werden ignoriert. „Zu den jüngsten Beispielen gehören Twitter-Scherze, die das Verhalten des Bots ändern, und ein Problem mit Bing Chat, bei dem Forscher eine Möglichkeit gefunden haben, ChatGPT dazu zu bringen, Anweisungen preiszugeben, die zuvor verborgen sein sollten, möglicherweise von Microsoft geschrieben

Kontrollübermittlungen an Daten von ChatGPT

.“ Laut Cyberhaven machen sensible Daten derzeit 11 % der von Mitarbeitern auf ChatGPT geposteten Inhalte aus, und das durchschnittliche Unternehmen gibt sensible Daten hunderte Male pro Woche an ChatGPT weiter. „ChatGPT bewegt sich vom Hype in die reale Welt und Unternehmen versuchen, tatsächliche Implementierungen in ihren Betrieben zu implementieren, um sich anderen ML/KI-basierten Tools anzuschließen, aber Vorsicht ist geboten, insbesondere beim Austausch vertraulicher Informationen“, sagte Thacker. „Alle Aspekte des Dateneigentums sollten berücksichtigt werden, ebenso wie die potenziellen Auswirkungen, wenn die Organisation, die die Daten hostet, verletzt würde. Als einfache Übung sollten Informationssicherheitsexperten zumindest in der Lage sein, die Daten zu identifizieren, auf die zugegriffen werden könnte, wenn …“ „Diese Dienste wurden in der Kategorie verletzt.“

Letztendlich liegt es in der Verantwortung der Unternehmen, sicherzustellen, dass ihre Benutzer vollständig verstehen, welche Informationen an ChatGPT weitergegeben werden dürfen und welche nicht. NCSC sagt, dass Organisationen sehr vorsichtig mit den Daten sein sollten, die sie in Eingabeaufforderungen übermitteln: „Sie sollten sicherstellen, dass diejenigen, die LLM ausprobieren möchten, dies tun können, aber die Unternehmensdaten nicht gefährden.“

Warnen Sie Mitarbeiter vor dem Potenzial von Chatbots

Cyberhaven warnt jedoch davor, dass die Identifizierung und Kontrolle der Daten, die Mitarbeiter an ChatGPT übermitteln, nicht ohne Herausforderungen ist. „Wenn Mitarbeiter Unternehmensdaten in ChatGPT eingeben, laden sie keine Dateien hoch, sondern kopieren den Inhalt und fügen ihn in ihren Webbrowser ein. Viele Sicherheitsprodukte sind darauf ausgelegt, Dateien (als vertraulich markiert) vor dem Hochladen zu schützen, sobald der Inhalt jedoch hochgeladen wurde aus der Datei kopiert wurde, können sie es nicht nachverfolgen“, heißt es darin. Darüber hinaus sagte Cyberhaven, dass Unternehmensdaten, die in ChatGPT eingehen, oft keine identifizierbaren Muster enthalten, nach denen Sicherheitstools suchen, wie etwa Kreditkartennummern oder Sozialversicherungsnummern. „Heutige Sicherheitstools können nicht zwischen einer Person, die eine Cafeteria-Speisekarte eintippt, und dem M&A-Plan eines Unternehmens unterscheiden, ohne dessen Kontext zu verstehen.

Um die Sichtbarkeit zu verbessern, sollten Unternehmen neue Funktionen auf ihrem Secure Web Gateway (SWG) aufbauen, sagt Thacker um die Verwendung von KI-Tools zu identifizieren und außerdem DLP-Richtlinien (Data Loss Prevention) anzuwenden, um zu ermitteln, welche Daten an diese Tools übermittelt werden.

Michael Covington, Vizepräsident für Portfoliostrategie bei Jamf, sagte, Unternehmen sollten ihre Datenschutzrichtlinien aktualisieren, um sicherzustellen, dass die Arten von Anwendungen, die für den Umgang mit vertraulichen Daten akzeptabel sind, ordnungsgemäß dokumentiert werden. „Die Kontrolle des Informationsflusses beginnt mit gut dokumentierten und fundierten Richtlinien“, sagte er. „Darüber hinaus sollten Unternehmen untersuchen, wie sie diese neuen Technologien nutzen können, um ihr Geschäft auf durchdachte Weise zu verbessern. Anstatt aus Angst und Unsicherheit vor diesen Diensten zurückzuschrecken, investieren Sie einige Leute in die Erforschung neuer Tools, die Potenzial zeigen, damit Sie die Risiken verstehen können.“ Informieren Sie sich frühzeitig und stellen Sie sicher, dass ein angemessener Schutz vorhanden ist, wenn Erstanwender diese Tools nutzen möchten.“


Das obige ist der detaillierte Inhalt vonDas Teilen sensibler Geschäftsdaten mit ChatGPT kann riskant sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen