Heim >Technologie-Peripheriegeräte >KI >Die weltweit ersten „AI System Security Development Guidelines' wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor
Am 26. November 2023 haben die Cybersicherheitsregulierungsbehörden von 18 Ländern, darunter den Vereinigten Staaten, dem Vereinigten Königreich und Australien, gemeinsam die weltweit ersten „AI System Security Development Guidelines“ herausgegeben, um Modelle der künstlichen Intelligenz vor böswilliger Manipulation zu schützen. und forderte KI-Unternehmen auf, bei der Entwicklung oder Verwendung von KI-Modellen mehr auf „Security by Design“ zu achten.
Als einer der Hauptteilnehmer erklärte die U.S. Cybersecurity and Infrastructure Security Agency (CISA), dass die Welt einen Wendepunkt in der rasanten Entwicklung der KI-Technologie erlebe und die KI-Technologie wahrscheinlich die einflussreichste Technologie sei Heute. Die Gewährleistung der Cybersicherheit ist jedoch der Schlüssel zum Aufbau sicherer, zuverlässiger und vertrauenswürdiger KI-Systeme. Zu diesem Zweck haben wir die Regulierungsbehörden für Cybersicherheit mehrerer Länder zusammengebracht und mit technischen Experten von Unternehmen wie Google, Amazon, OpenAI und Microsoft zusammengearbeitet, um gemeinsam diese Richtlinie zu verfassen und zu veröffentlichen, mit dem Ziel, die Sicherheit von KI-Technologieanwendungen zu verbessern
Es versteht sich, dass es sich bei dieser Richtlinie um das weltweit erste von einer offiziellen Organisation herausgegebene Leitliniendokument zur Entwicklungssicherheit von KI-Systemen handelt. Die Richtlinien verlangen eindeutig, dass KI-Unternehmen der Gewährleistung sicherer Ergebnisse für Kunden Vorrang einräumen, sich aktiv für Transparenz- und Rechenschaftsmechanismen für KI-Anwendungen einsetzen und die Managementstruktur der Organisation so aufbauen müssen, dass das Sicherheitsdesign oberste Priorität hat. Die Richtlinien zielen darauf ab, die Cybersicherheit von KI zu verbessern und dazu beizutragen, die sichere Gestaltung, Entwicklung und Bereitstellung von KI-Technologie zu gewährleisten.
Darüber hinaus verlangen die Richtlinien auf der Grundlage der langjährigen Erfahrung der US-Regierung im Cybersicherheitsrisikomanagement, dass alle KI-Forschungs- und Entwicklungsunternehmen ausreichende Tests durchführen, bevor sie neue KI-Tools öffentlich veröffentlichen, um sicherzustellen, dass Sicherheitsmaßnahmen ergriffen wurden, um soziale Schäden zu minimieren (z (z. B. Vorurteile und Diskriminierung) und Datenschutzbedenken. Die Richtlinien verlangen außerdem von KI-Forschungs- und Entwicklungsunternehmen, dass sie sich dazu verpflichten, Dritten die Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen durch ein Bug-Bounty-System zu erleichtern, damit Schwachstellen schnell entdeckt und behoben werden können die sichere Entwicklung von KI-Systemen.
1. Priorisieren Sie „Safety by Design“ und „Safety by Default“.
: „Entwickler geschäftskritischer Systeme müssen darauf vorbereitet sein, auf alternative Lösungen umzusteigen, wenn Komponenten von Drittanbietern die Sicherheitsstandards nicht erfüllen. Unternehmen können Ressourcen wie die Supply Chain Guidance von NCSC sowie die Software nutzen.“ Artifact Supply Chain Level (SLSA) und andere Ressourcen zur Verfolgung der Lieferkette und der Zertifizierung des Softwareentwicklungslebenszyklus. 3 Berücksichtigen Sie die einzigartigen Risiken, denen KI-Anwendungen ausgesetzt sind Daher müssen Entwickler die einzigartigen Sicherheitsfaktoren von KI-Systemen vollständig berücksichtigen. Ein wichtiger Bestandteil eines „Secure by Design“-Ansatzes für KI-Systeme besteht darin, Sicherheitsleitplanken für die Ausgabe von KI-Modellen einzurichten, um den Verlust sensibler Daten zu verhindern und den Betrieb von KI-Komponenten einzuschränken, die für Aufgaben wie die Dateibearbeitung verwendet werden. Entwickler sollten KI-spezifische Bedrohungsszenarien in Tests vor der Veröffentlichung integrieren und Benutzereingaben auf böswillige Versuche überwachen, das System auszunutzen.
Angeforderter Auszug: „Der Begriff ‚Adversarial Machine Learning‘ (AML) wird verwendet, um die Ausnutzung von Sicherheitslücken in Komponenten des maschinellen Lernens, einschließlich Hardware, Software, Arbeitsabläufen und Lieferketten, zu beschreiben, die es Angreifern ermöglicht, Fähigkeiten des maschinellen Lernens auszunutzen Im System werden unerwartete Verhaltensweisen verursacht, darunter: Beeinträchtigung der Klassifizierungs- oder Regressionsleistung des Modells, Ermöglichung der Durchführung nicht autorisierter Vorgänge und Extraktion vertraulicher Modellinformationen.
4 Kernpunkte der globalen Sicherheitsrichtlinien für künstliche Intelligenz
Das obige ist der detaillierte Inhalt vonDie weltweit ersten „AI System Security Development Guidelines' wurden veröffentlicht und schlagen vier Aspekte der Sicherheitsüberwachungsanforderungen vor. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!