Heim >Technologie-Peripheriegeräte >KI >Die weltweit ersten „AI System Security Development Guidelines' wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor

Die weltweit ersten „AI System Security Development Guidelines' wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor

WBOY
WBOYnach vorne
2023-11-28 14:34:431009Durchsuche

Die weltweit ersten „AI System Security Development Guidelines wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor

Am 26. November 2023 haben die Cybersicherheitsregulierungsbehörden von 18 Ländern, darunter den Vereinigten Staaten, dem Vereinigten Königreich und Australien, gemeinsam die weltweit ersten „AI System Security Development Guidelines“ herausgegeben, um Modelle der künstlichen Intelligenz vor böswilliger Manipulation zu schützen. und forderte KI-Unternehmen auf, bei der Entwicklung oder Verwendung von KI-Modellen mehr auf „Security by Design“ zu achten.

Die weltweit ersten „AI System Security Development Guidelines wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor

Als einer der Hauptteilnehmer erklärte die U.S. Cybersecurity and Infrastructure Security Agency (CISA), dass die Welt einen Wendepunkt in der rasanten Entwicklung der KI-Technologie erlebe und die KI-Technologie wahrscheinlich die einflussreichste Technologie sei Heute. Die Gewährleistung der Cybersicherheit ist jedoch der Schlüssel zum Aufbau sicherer, zuverlässiger und vertrauenswürdiger KI-Systeme. Zu diesem Zweck haben wir die Regulierungsbehörden für Cybersicherheit mehrerer Länder zusammengebracht und mit technischen Experten von Unternehmen wie Google, Amazon, OpenAI und Microsoft zusammengearbeitet, um gemeinsam diese Richtlinie zu verfassen und zu veröffentlichen, mit dem Ziel, die Sicherheit von KI-Technologieanwendungen zu verbessern

Es versteht sich, dass es sich bei dieser Richtlinie um das weltweit erste von einer offiziellen Organisation herausgegebene Leitliniendokument zur Entwicklungssicherheit von KI-Systemen handelt. Die Richtlinien verlangen eindeutig, dass KI-Unternehmen der Gewährleistung sicherer Ergebnisse für Kunden Vorrang einräumen, sich aktiv für Transparenz- und Rechenschaftsmechanismen für KI-Anwendungen einsetzen und die Managementstruktur der Organisation so aufbauen müssen, dass das Sicherheitsdesign oberste Priorität hat. Die Richtlinien zielen darauf ab, die Cybersicherheit von KI zu verbessern und dazu beizutragen, die sichere Gestaltung, Entwicklung und Bereitstellung von KI-Technologie zu gewährleisten.

Darüber hinaus verlangen die Richtlinien auf der Grundlage der langjährigen Erfahrung der US-Regierung im Cybersicherheitsrisikomanagement, dass alle KI-Forschungs- und Entwicklungsunternehmen ausreichende Tests durchführen, bevor sie neue KI-Tools öffentlich veröffentlichen, um sicherzustellen, dass Sicherheitsmaßnahmen ergriffen wurden, um soziale Schäden zu minimieren (z (z. B. Vorurteile und Diskriminierung) und Datenschutzbedenken. Die Richtlinien verlangen außerdem von KI-Forschungs- und Entwicklungsunternehmen, dass sie sich dazu verpflichten, Dritten die Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen durch ein Bug-Bounty-System zu erleichtern, damit Schwachstellen schnell entdeckt und behoben werden können die sichere Entwicklung von KI-Systemen.

1. Priorisieren Sie „Safety by Design“ und „Safety by Default“.

KI-Entwicklungsunternehmen haben wiederholt die Prinzipien „Safety by Design“ und „Safety by Default“ betont. in den Richtlinien. Das bedeutet, dass sie proaktiv Maßnahmen ergreifen sollten, um KI-Produkte vor Angriffen zu schützen. Um die Richtlinien einzuhalten, sollten KI-Entwickler bei ihren Entscheidungsprozessen der Sicherheit Priorität einräumen und sich nicht nur auf die Produktfunktionalität und -leistung konzentrieren. Die Richtlinien empfehlen außerdem, dass Produkte die sicherste Standardanwendungsoption bieten und den Benutzern die Risiken einer Überschreibung dieser Standardkonfiguration klar mitteilen. Darüber hinaus sollten Entwickler von KI-Systemen, wie in den Richtlinien gefordert, für nachgelagerte Anwendungsergebnisse verantwortlich sein, anstatt sich darauf zu verlassen, dass Kunden die Sicherheit kontrollieren Komponenten) mangelt es oft an ausreichender Transparenz und Fachwissen, um die mit den von ihnen verwendeten KI-Systemen verbundenen Risiken vollständig zu verstehen, zu bewerten oder anzugehen. Daher sollten sich Anbieter von KI-Komponenten gemäß dem „Security by Design“-Prinzip darüber Gedanken machen Sicherheit der nachgelagerten Benutzer in der Lieferkette.“ Trainingsdatensätze und APIs. Ein großes Lieferantennetzwerk bietet eine größere Angriffsfläche für das KI-System und jede Schwachstelle darin kann sich negativ auf die Sicherheit des Produkts auswirken. Daher verlangen die Richtlinien von Entwicklern, dass sie die Sicherheitsrisiken vollständig bewerten, wenn sie sich entscheiden, auf Komponenten von Drittanbietern zu verweisen. Bei der Zusammenarbeit mit Drittanbietern sollten Entwickler die Sicherheitslage des Anbieters überprüfen und überwachen, von ihm verlangen, dass er die gleichen Sicherheitsstandards wie sein eigenes Unternehmen einhält, und das Scannen und die Quarantäne von importiertem Code von Drittanbietern implementieren.

Angeforderter Auszug

: „Entwickler geschäftskritischer Systeme müssen darauf vorbereitet sein, auf alternative Lösungen umzusteigen, wenn Komponenten von Drittanbietern die Sicherheitsstandards nicht erfüllen. Unternehmen können Ressourcen wie die Supply Chain Guidance von NCSC sowie die Software nutzen.“ Artifact Supply Chain Level (SLSA) und andere Ressourcen zur Verfolgung der Lieferkette und der Zertifizierung des Softwareentwicklungslebenszyklus. 3 Berücksichtigen Sie die einzigartigen Risiken, denen KI-Anwendungen ausgesetzt sind Daher müssen Entwickler die einzigartigen Sicherheitsfaktoren von KI-Systemen vollständig berücksichtigen. Ein wichtiger Bestandteil eines „Secure by Design“-Ansatzes für KI-Systeme besteht darin, Sicherheitsleitplanken für die Ausgabe von KI-Modellen einzurichten, um den Verlust sensibler Daten zu verhindern und den Betrieb von KI-Komponenten einzuschränken, die für Aufgaben wie die Dateibearbeitung verwendet werden. Entwickler sollten KI-spezifische Bedrohungsszenarien in Tests vor der Veröffentlichung integrieren und Benutzereingaben auf böswillige Versuche überwachen, das System auszunutzen.

Angeforderter Auszug: „Der Begriff ‚Adversarial Machine Learning‘ (AML) wird verwendet, um die Ausnutzung von Sicherheitslücken in Komponenten des maschinellen Lernens, einschließlich Hardware, Software, Arbeitsabläufen und Lieferketten, zu beschreiben, die es Angreifern ermöglicht, Fähigkeiten des maschinellen Lernens auszunutzen Im System werden unerwartete Verhaltensweisen verursacht, darunter: Beeinträchtigung der Klassifizierungs- oder Regressionsleistung des Modells, Ermöglichung der Durchführung nicht autorisierter Vorgänge und Extraktion vertraulicher Modellinformationen.

4 Die Entwicklung der KI-Systemsicherheit sollte kontinuierlich erfolgen Die Richtlinien beschreiben die besten Sicherheitspraktiken für die gesamten Lebenszyklusphasen von KI-Systemen, einschließlich Entwurf, Entwicklung, Bereitstellung, Betrieb und Wartung, und betonen die Bedeutung einer kontinuierlichen Überwachung eingesetzter KI-Systeme, um Änderungen im Modellverhalten und verdächtige Benutzereingaben zu erkennen. Das Prinzip „Security by Design“ ist ein zentraler Bestandteil jedes Software-Updates, und die Richtlinien empfehlen, dass Entwickler standardmäßig automatisch aktualisieren. Abschließend wird den Entwicklern empfohlen, das Feedback und den Informationsaustausch der riesigen KI-Community zu nutzen, um die Sicherheit des Systems kontinuierlich zu verbessern , Veröffentlichen Sie beispielsweise Ankündigungen als Reaktion auf die Offenlegung von Sicherheitslücken, einschließlich detaillierter und vollständiger Aufzählungen häufiger Sicherheitslücken. Entwickler sollten Maßnahmen ergreifen, um die Probleme schnell und angemessen zu entschärfen und zu beheben Der Inhalt lautet wie folgt: Im November 2023 gaben die Vereinigten Staaten, das Vereinigte Königreich und globale Partner eine Erklärung heraus:

4 Kernpunkte der globalen Sicherheitsrichtlinien für künstliche Intelligenz

Das obige ist der detaillierte Inhalt vonDie weltweit ersten „AI System Security Development Guidelines' wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen