IT하우스 뉴스는 지난 11월 28일 미국 사이버보안 및 인프라 보안청(CISA)과 영국 국립사이버보안센터(NCSC)가 '보안 AI 시스템 개발을 위한 지침' 백서를 공식 발표했다고 밝혔다.
본 백서는 "최초의 글로벌 AI 보안 표준"으로, AI 시스템의 보안을 설계 단계부터 강화하여 발생할 수 있는 보안 위험을 예방하는 것을 목표로 합니다.
이 지침은 미국, 영국, 독일, 프랑스, 일본, 한국, 싱가포르 등 18 개국과 Microsoft, Google, OpenAI, Anthropic, 그리고 AI 확장.
▲ 사진 출처 : 영국 관련 부서
구체적으로 가이드라인은 보안 설계, 보안 개발, 보안 배포, 보안 운영(운영 및 유지 관리)의 4가지 주요 부분으로 구성됩니다. 가이드라인은 개발자가 관련 보안을 줄일 수 있도록 각 부분에 대해 발생할 수 있는 보안 위험과 회피 방법을 제안합니다. 위험.
▲ 사진 출처 : 영국 관련 부서
IT House는 이 가이드의 주요 목적이 AI 시스템 개발에 필요한 조언을 제공하는 것이라고 지적하고, AI 시스템 개발은 "보안 설계" 원칙을 따라야 함을 강조합니다. CISA UK는 이 지침이 고객 보안, 투명성, 책임뿐만 아니라 "설계에 따른 보안" 조직 구조 확립을 우선시한다고 지적했습니다
이 지침은 업계의 "최첨단 모델"을 다루는 모든 유형의 AI 시스템 외에도 외부 호스팅 또는 API 시스템을 사용하는 다른 모델에도 적용됩니다.
위 내용은 영국, 미국 및 기타 국가가 공동으로 세계 최초의 관련 안전 표준인 'AI 시스템 개발 지침'을 발표했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!