미국 인공지능 연구 기업 오픈AI(OpenAI)가 지난 9월 20일, 자사 인공지능(AI) 모델 보안 강화를 위해 ‘레드팀 네트워크(Red Teaming Network)’ 출시를 발표하고, 다양한 분야의 전문가들을 ‘레드팀 네트워크(Red Teaming Network)’에 합류시켰다. .섹스.
OpenAI의 이 이니셔티브는 인공 지능 모델의 신뢰성과 보안을 보장하기 위해 외부 전문가와의 협력을 심화 및 확장하는 것을 목표로 합니다. 계약된 전문가는 모델 위험을 평가하고 완화하는 데 도움을 줌으로써 OpenAI 인공지능 시스템의 견고성을 강화하는 데 핵심적인 역할을 할 것입니다.
OpenAI는 이전에 버그 바운티 프로그램 및 연구원 액세스 프로그램을 통해 외부 전문가와 협력했지만 새로 출시된 "Red Team Network"는 이러한 노력을 공식화합니다.
OpenAI는 "Red Team Network"가 주요 모델 배포 전 일회성 참여 및 선택 프로세스가 아닌 기업이 보다 광범위하게 위험 평가를 수행하는 데 도움을 줄 수 있는 경험 많고 신뢰할 수 있는 전문가 커뮤니티라고 말합니다.
보고서에 따르면 "red 팀"은 인공 지능 시스템의 편향을 식별하고 안전 필터를 평가하는 데 중요한 역할을 하며, 특히 생성 기술이 폭넓게 적용됨에 따라 인공 지능 모델 개발 프로세스의 핵심 링크가 되었습니다.
OpenAI는 다양한 분야의 전문가를 초대합니다. , 언어학, 생체 인식, 금융 및 의료 분야의 배경을 가진 사람들을 포함합니다. 회사는 인지과학, 법률, 사이버보안, 경제, 헬스케어 등의 분야를 망라하여 인공지능 평가에 있어 다양한 전문 지식의 중요성을 강조했습니다
광고문구: 기사에 포함된 외부 점프링크(부적절한 내용 포함 하이퍼링크에 한함) , QR 코드, 비밀번호 등), 더 많은 정보를 전달하고 선택 시간을 절약하는 데 사용됩니다. 이 사이트의 모든 기사에는 이 내용이 포함되어 있습니다.
위 내용은 OpenAI, AI 모델 보안 강화 위해 '레드팀 네트워크' 출범 발표의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!