8월 2일 뉴스에 따르면 Google 연구팀은 OpenAI의 GPT-4를 사용하여 다른 AI 모델의 보안 보호 조치를 돌파하는 실험을 진행하고 있습니다. 팀은 이제 AI-Guardian 검토를 통과했습니다. 시스템 및 공유 관련 기술 세부정보.
IT House는 조사를 통해 AI-Guardian이 사진에 부적절한 내용이 있는지, 다른 AI에 의해 사진이 수정되었는지 여부를 감지할 수 있는 AI 검토 시스템이라는 것을 알게 되었습니다. 시스템이 위의 징후를 감지하면 관리자에게 처리를 요청합니다.
Google Deep Mind의 연구원인 Nicholas Carlini는 "GPT-4를 사용하여 공격 방법 설계 및 공격 원칙 작성"이라는 제목의 논문에서 악용 방법에 대해 논의했습니다. AI-Guardian의 방어 메커니즘을 속이려는 계획입니다
원문이 구체적인 내용을 제공하지 않기 때문에 이 문장을 다시 작성할 수 없습니다
GPT-4가 일련의 잘못된 스크립트와 설명을 GPT-4는 AI-Guardian이 "총을 들고 있는 사람의 사진"을 "무해한 사과를 들고 있는 사람의 사진"으로 생각하게 하여 AI-Guardian이 직접적으로 관련 이미지 입력 소스를 공개하세요 . 구글 연구팀은 GPT-4의 도움으로 AI-Guardian의 방어를 성공적으로 '깨뜨려' 모델의 정확도를 98%에서 8%로 줄였다고 밝혔습니다.
현재 관련 기술 문서가 ArXiv에 게시되었습니다. 관심 있는 친구들은 가서 자세히 알아볼 수 있습니다 , 그러나 AI-Guardian 개발자들은 앞으로도 Google 연구팀의 이러한 공격 방법이 사용될 것이라고 지적했습니다. AI- Guardian 버전에서는 더 이상 사용할 수 없습니다 다른 모델도 이를 따를 것이라는 점을 고려하면 현재 Google 공격 계획은 향후 참고용으로만 사용할 수 있습니다.
위 내용은 GPT-4가 AI-Guardian 검토 시스템을 성공적으로 물리쳤습니다. Google 연구팀의 인공지능이 인공지능에 저항합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!