ChatGPT로 대표되는 대규모 언어 모델의 인기로 인해 보안에 대한 사람들의 불안은 점점 더 분명해졌습니다. 이탈리아가 3월 31일 개인 정보 보호 및 보안 문제로 ChatGPT를 일시적으로 금지했다고 발표한 후, 캐나다도 4월 4일 ChatGPT 모회사인 OpenAI에서 데이터 보안 문제를 조사 중이라고 발표했습니다. 지난 4월 5일, OpenAI 공식 블로그에는 사람들의 우려에 대한 부차적인 대응이라고 볼 수 있는 AI의 보안을 어떻게 보장하는지에 초점을 맞춘 기사가 업데이트되었습니다.
기사에는 최신 GPT-4 모델을 완전히 트레이닝한 후 팀이 내부 테스트에 6개월 이상을 투자했다고 언급되어 있습니다. 강력한 인공지능 시스템이 대중에게 공개되고, 강력한 인공지능 시스템이 엄격한 보안 평가를 거쳐야 한다고 생각한다면, 감독 보장을 기반으로 최선의 감독 방법을 마련하기 위해 정부와 적극적으로 협력해야 합니다.
기사에서는 실험 테스트 과정에서 모든 위험을 예측하는 것은 불가능하지만 AI는 더 안전한 버전을 반복하기 위해 지속적으로 경험을 학습하고 실제 사용에서 개선해야 하며 사회가 점점 더 적응할 시간이 필요하다고 믿고 있다고 언급했습니다. 강력한 AI.
기사에서는 안전 작업의 핵심 중 하나가 어린이를 보호하는 것이라고 밝혔습니다. AI 도구를 사용하는 사용자는 18세 이상이거나 부모의 감독 하에 있는 13세 이상이어야 합니다.
OpenAI는 증오, 괴롭힘, 폭력 또는 성인용 콘텐츠를 생성하는 데 자사 기술을 사용하는 것을 허용하지 않는다고 강조합니다. GPT-3.5에 비해 GPT-4는 금지된 콘텐츠에 대한 응답 거부 능력이 82% 향상되었습니다. 사용자가 영상 도구에 아동 성적 학대 자료를 업로드하려고 시도하는 경우와 같이 학대 가능성을 감지하기 위해 모니터링 시스템을 통과하며, 이는 차단되고 국립실종착취아동센터에 보고됩니다.
기사에 따르면 OpenAI의 대규모 언어 모델은 공개적으로 사용 가능한 콘텐츠, 라이선스가 부여된 콘텐츠, 인간 검토자가 생성한 콘텐츠를 포함한 광범위한 텍스트 코퍼스에서 훈련되었으며 사용되지 않을 것입니다. 데이터가 사용됩니다. 서비스 판매, 광고 및 사용자 보관. OpenAI는 훈련 과정에서 공용 인터넷에서 개인정보를 수집한다는 사실을 인정하지만, 가능한 경우 훈련 데이터 세트에서 개인정보를 제거하고, 개인정보 요청을 거부하도록 모델을 미세 조정하며, 다음 요청에 적극적으로 대응하도록 노력할 것입니다. 시스템에 관련된 개인을 제거합니다. 정보 콘텐츠를 요청합니다.
제공되는 콘텐츠의 정확성 측면에서 기사에서는 허위 콘텐츠 표시에 대한 사용자 피드백을 통해 GPT-4에서 생성된 콘텐츠의 정확성이 GPT-3.5보다 40% 더 높다고 밝혔습니다.
기사에서는 AI 보안 문제를 해결하는 실제 방법은 효과적인 완화 기술을 연구하고 실험 환경의 실제 사용 시나리오에서 남용을 테스트하기 위해 더 많은 시간과 자원을 투자하는 것뿐만 아니라 더 중요한 것은 보안과 능력을 향상시키는 것이라고 믿습니다. AI 개선 OpenAI는 가장 강력한 AI 모델과 최고의 보안 보호 기능을 결합하고 더욱 주의를 기울여 더욱 강력한 모델을 생성 및 배포할 수 있으며 AI 시스템과 함께 발전할 것입니다. 개발은 계속해서 보안 조치를 강화합니다. .
위 내용은 ChatGPT의 보안은 우려를 낳고 있습니다. 모회사는 항상 보안에 주의하고 있다는 문서를 발행했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!