3월 18일 뉴스에 따르면 Tencent Technology 보고서에 따르면 Turing Award 수상자 Joshua Bengio, Jeffrey Hinton, Yao Qizhi 등을 포함한 수십 명의 중국 및 외국 전문가가 최근 베이징에서 공동 회의를 열고 "베이징"에 서명했습니다. 인공 지능의 두 가지 주요 부분인 "위험 레드 라인"과 "경로"를 포함하는 Zhiyuan 연구소에서 시작한 AI 보안 국제 합의. "위험 레드 라인"에는 "자율 복제 및 개선"과 "권력 추구"가 포함됩니다. 4개 섹션: "나쁜 행위자 지원" 및 "기만".
이 사이트는 대략 다음과 같이 콘텐츠의 네 부분으로 구성됩니다.
인공 지능의 "자율 복제 및 개선": 이 프로세스에서 인간의 역할을 강조하고 모든 인공 지능 시스템, AI 발전에 '긴장 저주'를 걸다. 또한 합의는 위의 한계선을 넘지 않도록 방지하는 열쇠는 보다 안전한 기술을 지속적으로 개발하는 동시에 거버넌스 메커니즘을 구축 및 개선하려는 업계 모든 당사자의 공동 노력에 있다는 점을 강조합니다. AI의 개발 경로에는 '거버넌스', '측정 및 평가', '기술 협력'이라는 세 가지 측면이 포함됩니다. 구체적으로, 거버넌스 메커니즘의 확립은 AI 개발의 올바른 방향을 보장하기 위한 기초이며, 측정 및 평가는 AI 기술 적용의 효과를 객관적으로 평가하는 핵심이며, 기술 협력은 모든 당사자가 AI를 공동으로 촉진하는 중요한 보장입니다. AI의 발전. 이러한 측면의 조화로운 개발은 잠재적인 위험을 피하면서 AI 기술의 건전한 개발을 보장하는 데 도움이 될 것입니다. 거버넌스: 특정 컴퓨팅 또는 기능 임계값을 초과하는 인공 지능 모델 및 훈련 동작에 대한 국가 수준 등록을 즉시 구현하는 것이 좋습니다.
측정 및 평가: 상당한 위험이 발생하기 전에 포괄적인 방법과 기술을 개발하고,
빨간 경계선을 구체적으로 만들고 예방 작업을 운영위 내용은 Yao Qizhi와 수십 명의 중국 및 외국 전문가들이 AI 보안에 관한 베이징 국제 합의에 서명했습니다. AI는 자체적으로 복제하는 것이 금지되어 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!