Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Bauen Sie ein generatives KI-Innovationssicherheitssystem auf. Der Chief Security Officer von Amazon verrät Ihnen drei Tipps

Bauen Sie ein generatives KI-Innovationssicherheitssystem auf. Der Chief Security Officer von Amazon verrät Ihnen drei Tipps

WBOY
WBOYnach vorne
2024-04-17 18:40:02412Durchsuche

Bauen Sie ein generatives KI-Innovationssicherheitssystem auf. Der Chief Security Officer von Amazon verrät Ihnen drei Tipps

Amazon Cloud Technology hat Millionen von Kunden auf der ganzen Welt und verfolgt täglich Milliarden von Ereignissen, wodurch Amazon Cloud Technology mehr Sicherheitsbedrohungen erkennen kann.

Im Jahr 2019 kündigte Steve Schmidt, Chief Security Officer von Amazon Cloud Technology, offiziell den Start von Amazon Cloud Technology re:Inforce an, der ersten Konferenz, die sich auf Cloud-Sicherheitsfragen konzentriert. Die Konferenz fand mittlerweile fünf Mal statt und hat sich zu einem Maßstab für die Cloud entwickelt Sicherheit.

Im Jahr 2010 kam Steve Schmidt zu Amazon und war 12 Jahre lang Chief Information Security Officer von Amazon Cloud Technology. Seit 2022 ist er Chief Security Officer von Amazon. Kürzlich wurde er vom Wall Street Journal zum Thema Unternehmenssicherheit im Zeitalter generativer KI interviewt.

Steve Schmidt sagte, dass die Aufgabe des Sicherheitsteams darin besteht, Unternehmen dabei zu helfen, die Vorteile und Risiken innovativer Technologien wie KI zu verstehen und diese zur Verbesserung der Sicherheitseffizienz des Unternehmens zu nutzen.

Bauen Sie ein generatives KI-Innovationssicherheitssystem auf. Der Chief Security Officer von Amazon verrät Ihnen drei Tipps

Steve Schmidt, Chief Security Officer von Amazon Cloud Technology

Generative KI-Sicherheit, Unternehmen müssen drei Fragen stellen

Steve Schmidt glaubt, dass jedes Unternehmen drei Fragen stellen muss, wenn es über die Sicherheitsprobleme generativer KI spricht und diese nutzt für mich selbst: Wird KI missbraucht, gehackt oder manipuliert?

Erstens: Wo sind die Daten?

Unternehmen müssen den gesamten Arbeitsablauf beim Training von Modellen mit Daten verstehen, woher die Daten kommen und wie sie verarbeitet und geschützt werden.

Zweitens: Was passiert mit meiner Anfrage und allen damit verbundenen Daten?

Trainingsdaten sind nicht der einzige sensible Datensatz, auf den Unternehmen achten müssen. Wenn Unternehmen und ihre Benutzer beginnen, generative KI und große Sprachmodelle zu verwenden, werden sie schnell lernen, wie sie Abfragen effektiver gestalten können. Anschließend werden der Abfrage weitere Details und spezifische Anforderungen hinzugefügt, was zu besseren Ergebnissen führt. Unternehmen, die generative KI für Abfragen verwenden, müssen klar verstehen, wie generative KI die in das Modell eingegebenen Daten und die Abfrageergebnisse verarbeitet. Unternehmensabfragen selbst sind ebenfalls sensibel und sollten Teil eines Datenschutzplans sein.

Drittens: Ist die Ausgabe des generativen KI-Modells genau genug?

Aus Sicherheitssicht definieren die Einsatzszenarien generativer KI Risiken, und verschiedene Szenarien stellen unterschiedliche Anforderungen an die Genauigkeit. Wenn Sie ein großes Sprachmodell verwenden, um benutzerdefinierten Code zu generieren, müssen Sie bestätigen, dass der Code gut geschrieben ist, Ihren Best Practices folgt usw.

Nachdem Steve Smith die Sicherheitsprobleme beim Einsatz generativer KI verstanden hatte, gab er außerdem drei Sicherheitsvorschläge für den Einsatz generativer KI für Innovationen:

Erstens ist es für Sicherheitsteams leicht, „Nein“ zu sagen, aber das ist keine korrekte Praxis . Schulen Sie interne Mitarbeiter darin, die Unternehmensrichtlinien zum Einsatz künstlicher Intelligenz zu verstehen, um sie sicher zu nutzen. Weisen Sie die Mitarbeiter an, Methoden zu verwenden, die mit der KI-Nutzungsrichtlinie des Unternehmens im Einklang stehen. Für das Sicherheitsteam ist es leicht, „Nein“ zu sagen, aber es ist für alle Geschäftsteams, Entwickler usw. genauso einfach, das Sicherheitsteam zu umgehen.

Zweitens Sichtbarkeit. Unternehmen benötigen Transparenztools, um zu verstehen, wie Mitarbeiter Daten nutzen, den Datenzugriff über den Arbeitsbedarf hinaus einzuschränken und zu überwachen, wie sie externe Dienste nutzen, um auf diese Daten zuzugreifen. Wenn ein Verstoß gegen die Richtlinie festgestellt wird, beispielsweise der Zugriff auf sensible Daten außerhalb arbeitsfreier Anforderungen, wird dieses Verhalten gestoppt. In anderen Fällen, wenn die von einem Mitarbeiter verwendeten Daten weniger vertraulich sind, aber möglicherweise gegen die Richtlinien verstoßen, wird der Mitarbeiter proaktiv kontaktiert, um den wahren Zweck zu verstehen und nach einer Lösung zu suchen.

Drittens: Probleme durch Mechanismen lösen. Mechanismen sind wiederverwendbare Werkzeuge, die es Unternehmen ermöglichen, bestimmte Verhaltensweisen im Laufe der Zeit präzise zu steuern. Wenn ein Mitarbeiter beispielsweise gegen Vorschriften verstößt, weist das System den Mitarbeiter über ein Popup-Fenster darauf hin, empfiehlt die Verwendung bestimmter interner Tools und meldet entsprechende Probleme.

Bereitstellung generativer KI-Funktionen für Sicherheitsdienste

Sicherheit hatte schon immer höchste Priorität bei der Amazon Cloud-Technologie, und Steve Schmidt ist auch einer der Praktiker und Befürworter der Sicherheitskultur von Amazon.

„Sicherheitsteams sollten sofort einsatzbereite generative KI-Anwendungen nutzen, um das Upgrade der Sicherheitsbranche bereits in der Codephase voranzutreiben. Das gilt für jedes Unternehmen, einschließlich Amazon.“

Denn der Einsatz generativer KI zur Verbesserung des Schreibens von sicherem Code kann die gesamte Branche effektiv auf ein höheres Sicherheitsniveau bringen.

Der Code-Assistent Amazon CodeWhisperer und der neue generative KI-Assistent Amazon Q können Unternehmen dabei helfen, besseren Code zu generieren oder direkt Vorschläge zu machen, während Software-Ingenieure Code schreiben.

Amazon CodeWhisperer ist ein KI-Codierungsassistent mit integrierter Sicherheitsscanfunktion, der Entwicklern helfen kann, Code basierend auf Kommentaren zu generieren, Open-Source-Referenzen zu verfolgen, Schwachstellen zu scannen und zu finden, und ist für einzelne Entwickler kostenlos. Es bietet außerdem Anpassungsfunktionen, die es Unternehmen ermöglichen, CodeWhisperer sicher mit dem internen Codespeicher des Unternehmens zu verbinden, um die Effektivität von CodeWhisperer zu verbessern und die Fertigstellung von Entwicklungsaufgaben zu beschleunigen.

Amazon Q kann verschiedene Code-bezogene Fragen von Entwicklern in Amazon CodeWhisperer beantworten und Codes anhängen, die mit einem Klick implementiert werden können, und bietet Code-Konvertierungsfunktionen, die Entwicklern dabei helfen, den Aufwand für die Wartung und Aktualisierung von Anwendungen erheblich zu reduzieren und so die Zeit zu verkürzen erforderlich von Tagen bis Minuten.

Gleichzeitig stellte Amazon Cloud Technology auf der Amazon Cloud Technology 2023 re:Invent Global Conference auch Sicherheitsdienstfunktionen mit generativen KI-Funktionen vor.

Die Amazon Lambda-Funktionscode-Scanfunktion von Amazon Inspector nutzt jetzt generative KI und automatisierte Argumentation für Codekorrekturen. Während frühere Scan-Funktionen die Position problematischen Codes und mögliche Auswirkungen aufzeigten und Empfehlungen lieferten, kann die generative KI nun auch kontextrelevante Code-Patches für mehrere Klassen von Schwachstellen erstellen. Entwickler können Vorgänge wie Verifizierung und Code-Ersetzung schnell durchführen, um Probleme schnell und effektiv zu lösen.

Amazon Detective ist jetzt in der Lage, mithilfe generativer KI Zusammenfassungen von Entdeckungsgruppen bereitzustellen, die Entdeckungsgruppen automatisch analysiert und Erkenntnisse in natürlicher Sprache liefert, um Sicherheitsuntersuchungen zu beschleunigen. Der Zweck des Amazon Detective-Dienstes besteht darin, Benutzern die Analyse, Untersuchung und schnelle Ermittlung der Grundursache potenzieller Sicherheitsprobleme oder verdächtiger Aktivitäten zu erleichtern. Neue generative KI-Funktionen können bestimmten Benutzern eine breitere Sicherheitsperspektive und mehr Sicherheitswissen bieten.

Kürzlich erwähnten Amazon Cloud Technology und NVIDIA in der neuesten gemeinsamen Veröffentlichung auch, dass GB200 von der verbesserten Sicherheit des Amazon Nitro-Systems profitieren wird, um die Sicherheit von Kundencode und -daten während der Verarbeitung auf dem Client und in der Cloud zu schützen.

Steve Schmidt sagte, dass es nicht darum geht, was das Sicherheitsteam selbst tun möchte, sondern darum, sicherzustellen, dass wir unseren Kundenteams und internen Teams stets dabei helfen, ihre Ziele zu erreichen.

Das obige ist der detaillierte Inhalt vonBauen Sie ein generatives KI-Innovationssicherheitssystem auf. Der Chief Security Officer von Amazon verrät Ihnen drei Tipps. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen