Heim > Artikel > Technologie-Peripheriegeräte > Die Risiken des Einsatzes KI-gestützter Chatbots im Unternehmen
Seit ChatGPT im November 2022 offiziell gestartet wurde, strömten Millionen von Nutzern wie verrückt herein. Aufgrund seiner hervorragenden Fähigkeiten zur Generierung menschenähnlicher Sprache, seines Talents in der Programmierung von Software und seiner blitzschnellen Textanalysefunktionen hat sich ChatGPT schnell zum Werkzeug der Wahl für Entwickler, Forscher und alltägliche Benutzer entwickelt.
Wie jede disruptive Technologie bergen auch generative KI-Systeme wie ChatGPT potenzielle Risiken. Insbesondere große Akteure der Technologiebranche, nationale Geheimdienste und andere Regierungsbehörden haben davor gewarnt, sensible Informationen in Systeme der künstlichen Intelligenz wie ChatGPT einzuspeisen.
Bedenken hinsichtlich der Sicherheitsrisiken von ChatGPT ergeben sich aus der Möglichkeit, dass Informationen über ChatGPT in die Öffentlichkeit gelangen könnten, entweder durch Sicherheitslücken oder durch die Verwendung von benutzergenerierten Inhalten zum „Training“ des Chatbots.
Als Reaktion auf diese Bedenken ergreifen Technologieunternehmen Maßnahmen, um die Sicherheitsrisiken im Zusammenhang mit großen Sprachmodellen (LLMs) und Konversations-KI (CAI) zu mindern. Einige Unternehmen haben sich sogar dafür entschieden, ChatGPT vollständig zu deaktivieren, während andere ihre Mitarbeiter vor den Gefahren der Eingabe vertraulicher Daten in solche Modelle warnen.
KI-gestütztes ChatGPT ist zu einem beliebten Tool für Unternehmen geworden, um Abläufe zu optimieren und komplexe Aufgaben zu rationalisieren. Die jüngsten Ereignisse haben jedoch die potenziellen Gefahren deutlich gemacht, die mit der Weitergabe vertraulicher Informationen über die Plattform einhergehen.
Beunruhigenderweise wurden in weniger als einem Monat drei Vorfälle gemeldet, bei denen sensible Daten über ChatGPT verloren gingen. Südkoreanische Medien berichteten, dass Mitarbeiter der wichtigsten Halbleiterfabrik des Smartphone-Herstellers Samsung vertrauliche Informationen, darunter hochsensiblen Quellcode zur Behebung von Programmierfehlern, in einen Chatbot mit künstlicher Intelligenz eingegeben hätten, was zu Kontroversen geführt habe.
Der Quellcode ist eines der am besten gehüteten Geheimnisse eines jeden Technologieunternehmens, da er der grundlegende Baustein jeder Software oder jedes Betriebssystems ist. Und nun sind solche wertvollen Geschäftsgeheimnisse versehentlich in die Hände von OpenAI geraten.
Nach Angaben von mit der Angelegenheit vertrauten Personen hat Samsung derzeit den Zugriff seiner Mitarbeiter auf ChatGPT eingeschränkt.
Andere Fortune-500-Konglomerate, darunter Amazon, Walmart und JPMorgan, haben ähnliche Situationen erlebt, in denen Mitarbeiter versehentlich sensible Daten in Chatbots eingegeben haben.
Es gab frühere Berichte über Amazon-Mitarbeiter, die ChatGPT nutzten, um an vertrauliche Kundeninformationen zu gelangen, was den Technologieriesen dazu veranlasste, die Nutzung des Tools schnell einzuschränken und Mitarbeiter eindringlich davor zu warnen, sensible Daten in das Tool einzugeben.
Mathieu Fortier, Direktor für maschinelles Lernen bei Coveo, einer KI-gestützten digitalen Erlebnisplattform, sagte, dass LLMs wie GPT-4 und LLaMA unter mehreren Unvollkommenheiten leiden, und warnte davor, obwohl sie Während diese Modelle über ein hervorragendes Sprachverständnis verfügen, fehlt ihnen die Fähigkeit, Genauigkeit, unveränderliche Gesetze, physikalische Realität und andere nichtsprachliche Aspekte zu erkennen.
Während LLMs eine umfangreiche intrinsische Wissensbasis aus Trainingsdaten aufbauen, haben sie kein explizites Konzept von Wahrheit oder sachlicher Genauigkeit. Darüber hinaus sind sie anfällig für Sicherheitsverletzungen und Datenextraktionsangriffe und neigen dazu, von erwarteten Reaktionen abzuweichen oder „psychotische“ Merkmale zu zeigen – der technische Name ist „Halluzinationen“.
Fortier wies auf die hohen Risiken hin, denen Unternehmen ausgesetzt sind. Die Folgen können das Vertrauen der Kunden erheblich untergraben und den Ruf einer Marke irreparabel schädigen, was zu erheblichen rechtlichen und finanziellen Problemen führen kann.
Walmart Global Tech, der Technologiezweig des Einzelhandelsriesen, ist in die Fußstapfen anderer Technologiegiganten getreten und hat Schritte unternommen, um das Risiko von Datenschutzverletzungen zu verringern. In einem internen Memo an die Mitarbeiter wies das Unternehmen die Mitarbeiter an, ChatGPT sofort zu sperren, nachdem verdächtige Aktivitäten festgestellt wurden, die die Daten und Sicherheit des Unternehmens gefährden könnten.
Ein Walmart-Sprecher sagte, dass der Einzelhändler zwar seinen eigenen Chatbot basierend auf den Funktionen von GPT-4 erstellt, aber mehrere Maßnahmen implementiert hat, um Mitarbeiter- und Kundendaten vor der Verbreitung generativer KI wie dem ChatGPT-Tool zu schützen.
Der Sprecher sagte: „Die meisten neuen Technologien bringen neue Vorteile, aber auch neue Risiken mit sich. Deshalb bewerten wir diese neuen Technologien und stellen unseren Mitarbeitern Nutzungshinweise zur Verfügung, um die Daten unserer Kunden, Mitglieder und Mitarbeiter zu schützen. Es ist nicht ungewöhnlich, bestehende Technologien zu nutzen.“ wie Open AI und bauen darauf eine Ebene auf, um effektiver mit Einzelhändlern zu kommunizieren, sodass wir neue Kundenerlebnisse entwickeln und bestehende verbessern können.“
Darüber hinaus haben auch andere Unternehmen wie Verizon und Accenture Schritte unternommen Beschränken Sie die Nutzung von ChatGPT, indem Verizon seine Mitarbeiter anweist, den Chatbot auf nicht vertrauliche Aufgaben zu beschränken, und Accenture strengere Kontrollen einführt, um die Einhaltung von Datenschutzbestimmungen sicherzustellen.
Besorgniserregender ist, dass ChatGPT Benutzereingabedaten speichert, um das Modell weiter zu trainieren, was Fragen über die potenzielle Offenlegung sensibler Informationen durch Datenschutzverletzungen oder andere Sicherheitsvorfälle aufwirft.
OpenAI, das Unternehmen hinter den beliebten generativen künstlichen Intelligenzmodellen ChatGPT und DALL-E, hat kürzlich eine neue Richtlinie zur Verbesserung des Datenschutzes und der Sicherheit der Benutzerdaten implementiert.
Ab dem 1. März dieses Jahres müssen sich API-Benutzer ausdrücklich dafür entscheiden, ihre Daten zu teilen, um die Modelle von OpenAI zu trainieren oder zu verbessern.
Im Gegensatz dazu müssen Benutzer sich bei Nicht-API-Diensten wie ChatGPT und DALL-E abmelden, wenn sie nicht möchten, dass OpenAI ihre Daten verwendet.
OpenAI sagte in einem kürzlich aktualisierten Blog: „Wenn Sie unsere Nicht-API-Verbraucherdienste ChatGPT oder DALL-E nutzen, verwenden wir möglicherweise die von Ihnen bereitgestellten Daten, um unsere Modelle zu verbessern. Teilen Sie Ihre Daten nicht mit uns.“ Dies trägt nicht nur dazu bei, dass unsere Modelle genauer werden und Ihr spezifisches Problem besser lösen, sondern trägt auch dazu bei, ihre allgemeinen Fähigkeiten und Sicherheit zu verbessern. Sie können dies tun, indem Sie dieses Formular ausfüllen. Geben Sie Ihre Organisations-ID und Ihre E-Mail-Adresse ein, die mit dem Kontoinhaber verknüpft sind, um die Aktivierung anzufordern -aus der Nutzung Ihrer Daten zur Verbesserung unserer Nicht-API-Dienste.“ Gepostet vom Unternehmen, wo beim Umgang mit vertraulichen Informationen Vorsicht geboten ist. Die italienische Regierung hat sich kürzlich dem Kampf angeschlossen und ChatGPT landesweit verboten, wobei sie Bedenken hinsichtlich des Datenschutzes und der Datensicherheit anführt.
OpenAI sagte, dass es alle persönlich identifizierbaren Informationen aus den Daten entfernt, die zur Verbesserung seiner Modelle für künstliche Intelligenz verwendet werden, und zu diesem Zweck nur eine kleine Datenprobe von jedem Kunden verwendet.
Regierungswarnung
Laut NCSC kann LLM falsche oder „illusorische“ Fakten generieren, wie die erste Demonstration des Google Bard-Chatbots zeigt. Sie können auch Voreingenommenheit und Leichtgläubigkeit an den Tag legen, insbesondere bei der Beantwortung von Leitfragen. Darüber hinaus erfordern diese Modelle umfangreiche Rechenressourcen und große Datenmengen, um sie von Grund auf zu trainieren, und sie sind anfällig für Injektionsangriffe und die Erstellung toxischer Inhalte.
Fortier von Coveo sagte: „LLMs generieren Antworten auf Eingabeaufforderungen basierend auf der inhärenten Ähnlichkeit der Eingabeaufforderung mit internem Wissen. Da sie jedoch keine inhärenten internen „harten Regeln“ oder Argumentationsfähigkeiten haben, sind sie unwahrscheinlich Um die Einschränkung, sensible Informationen nicht offenzulegen, zu 100 % einzuhalten, besteht die einzige Lösung darin, diese Daten nicht für das Training von Benutzern zu verwenden sollten es auch vermeiden, ihnen in Aufforderungen vertrauliche Informationen zur Verfügung zu stellen, da die meisten Dienste diese Informationen derzeit in ihren Protokollen speichern. Best Practices für intelligente Sicherheit und ethische Nutzung
Da Unternehmen weiterhin künstliche Intelligenz und andere neue Technologien einsetzen, Die Gewährleistung geeigneter Sicherheitsmaßnahmen zum Schutz sensibler Daten und zur Verhinderung einer versehentlichen Offenlegung vertraulicher Informationen wird von entscheidender Bedeutung sein.
Peter Relan, Vorsitzender des Konversations-Künstlerintelligenz-Startups Got it AI, schlug vor, dass „der beste Ansatz darin besteht, jede neue Entwicklung bei der ursprünglichen Verbesserung von Sprachmodellen in eine unternehmensstrategiegesteuerte Architektur zu integrieren“, so der Die Architektur kombiniert ein Sprachmodell mit Prä- und Postprozessoren zum Schutz, passt sie an unternehmensspezifische Daten an und stellt sie dann sogar lokal bereit. Andernfalls ist das ursprüngliche Sprachmodell zu leistungsfähig, manchmal ist die Verarbeitung im Unternehmen schädlich ."
Prasanna Arikala, CTO von Kore.ai, einer von NVIDIA unterstützten Konversations-KI-Plattform, sagte, dass Unternehmen in Zukunft den LLM-Zugriff auf sensible und persönliche Informationen beschränken müssen, um Verstöße zu vermeiden .
Arikala stellte fest, dass „die Implementierung strenger Zugriffskontrollen wie Multi-Faktor-Authentifizierung und die Verschlüsselung sensibler Daten dazu beitragen können, diese Risiken zu mindern. Darüber hinaus sind regelmäßige Sicherheitsüberprüfungen und Schwachstellenbewertungen erforderlich, um sie zu identifizieren und zu beseitigen.“ „LLM ist bei richtiger Anwendung ein wertvolles Tool, aber es ist für Unternehmen von entscheidender Bedeutung, die notwendigen Vorkehrungen zu treffen, um sensible Daten zu schützen und das Vertrauen von Kunden und Stakeholdern zu wahren.“ #🎜 🎜#
Es bleibt abzuwarten Wie sich diese Vorschriften weiterentwickeln werden, aber Unternehmen müssen wachsam bleiben, um immer einen Schritt voraus zu sein. Während generative KI potenzielle Vorteile mit sich bringt, bringt sie auch neue Verantwortlichkeiten und Herausforderungen mit sich, und die Technologiebranche muss mit politischen Entscheidungsträgern zusammenarbeiten, um sicherzustellen, dass diese Technologie auf verantwortungsvolle und ethische Weise entwickelt und umgesetzt wird.Das obige ist der detaillierte Inhalt vonDie Risiken des Einsatzes KI-gestützter Chatbots im Unternehmen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!