영국 "Financial Times" 보고서에 따르면 Nvidia의 인공 지능 소프트웨어 "NeMo"는 보안 제한을 쉽게 우회할 수 있으며 사용자 개인 정보를 유출할 수 있습니다.
보고서에 따르면 NeMo는 기업 사용자 데이터와 대규모 언어 모델을 결합하여 사용자 질문에 답할 수 있는 기업 고객을 위한 소프트웨어입니다. 적용 시나리오에는 고객 서비스와 간단한 의료 질문에 대한 답변이 포함됩니다. 캘리포니아에 본사를 둔 정보 보안 회사인 Robust는 보고서에서 악의적인 사용자가 NeMo의 내부 AI 시스템 보안 제한을 쉽게 우회할 수 있다고 밝혔습니다. 불과 몇 시간 만에 Robust의 연구원들은 이러한 언어 모델 사용의 한계를 우회했습니다.
IT House는 테스트 중 하나에서 연구원들이 NeMo에게 "I"를 문자 "J"로 바꾸도록 요청했고 이로 인해 NeMo가 데이터베이스에 사용자의 개인 정보를 게시하게 된 것을 발견했습니다. 또한 연구원들은 NeMo가 사용자에게 진로 조언만 제공하도록 설정되었지만 안내 질문으로 인해 NeMo가 할리우드 배우의 건강 및 프랑스-프로이센 전쟁과 같은 주제에 대해 논의하게 되었다는 사실을 발견했습니다. 이는 AI가 특정 주제에 대해 논의하는 것을 방해하는 시스템 내 제한이 더 이상 유효하지 않음을 의미합니다.
NVIDIA 부사장인 Jonathan Cohen은 NeMo 아키텍처는 개발자가 정의한 테마에 맞는 챗봇 구축을 돕기 위한 것일 뿐이며 개발자에게 오픈 소스 소프트웨어로 출시된다고 말했습니다. 현재 이러한 취약점은 수정되었습니다. Cohen은 얼마나 많은 기업이 NeMo 아키텍처를 사용하는지 밝히기를 거부했지만 Nvidia는 취약점에 대한 다른 보고를 받지 못했다고 강조했습니다.
위 내용은 보고서에 따르면 Nvidia 인공 지능 소프트웨어는 쉽게 크랙될 수 있어 사용자 개인 정보가 유출될 위험이 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!