>기술 주변기기 >일체 포함 >GPT-5가 중지되나요? OpenAI는 이른 아침에 답변을 발표했습니다. AI의 안전을 보장하기 위해 우리는 '모퉁이를 자르지' 않습니다.

GPT-5가 중지되나요? OpenAI는 이른 아침에 답변을 발표했습니다. AI의 안전을 보장하기 위해 우리는 '모퉁이를 자르지' 않습니다.

PHPz
PHPz앞으로
2023-04-07 14:48:031053검색

최근 OpenAI에게는 '다사다난한 시간'이라고 할 수 있습니다.

ChatGPT와 GPT-4로 인해 발생할 수 있는 보안 문제로 인해 OpenAI는 외부 세계로부터 일부 비판과 방해를 받았습니다.

  • Musk를 포함한 수천 명의 사람들이 공동으로 "모든 인공 지능 연구소는 GPT보다 훈련을 즉시 중단해야 합니다. -4 더 크고 강력한 모델의 경우 이 기간은 최소 6개월입니다.";
  • 이탈리아는 ChatGPT를 금지하고 OpenAl은 "이 요구 사항을 구현하기 위해 회사가 취한 조치를 유럽의 대표자를 통해 20일 이내에 알려야 합니다." ;
  • ChatGPT는 다수의 계정을 금지했습니다.
  • ChatGPT Plus는 중단되었습니다.
  • ......

이러한 이벤트는 AI가 인류 사회에 많은 혜택을 가져올 수 있음을 보여줍니다. , 기술은 항상 양날의 검이며 인류 사회에 실질적인 위험을 가져올 것이며 AI도 예외는 아닙니다.

4월 6일, OpenAI는 "인공지능 시스템을 안전하게 구축, 배포 및 사용"하는 방법을 논의하는 "AI 안전에 대한 우리의 접근 방식"이라는 제목의 블로그 기사를 공식 발표했습니다.

GPT-5가 중지되나요? OpenAI는 이른 아침에 답변을 발표했습니다. AI의 안전을 보장하기 위해 우리는 모퉁이를 자르지 않습니다.

OpenAI는 강력한 인공 지능을 안전하고 광범위하게 (인간 사회에) 유익하게 유지하기 위해 최선을 다하고 있습니다. 우리의 AI 도구는 오늘날 사람들에게 많은 이점을 제공합니다.

전 세계 사용자들은 ChatGPT가 생산성을 높이고 창의력을 향상하며 맞춤형 학습 경험을 제공하는 데 도움이 된다고 말합니다.

또한 다른 기술과 마찬가지로 이러한 도구에도 실제 위험이 따른다는 점을 인식하고 있으므로 모든 수준에서 시스템에 보안이 내장되도록 열심히 노력하고 있습니다.

1. 점점 더 안전해지는 인공 지능 시스템 구축

새로운 시스템을 출시하기 전에 엄격한 테스트를 수행하고, 피드백에 외부 전문가를 참여시키고, 인간 피드백을 통한 강화 학습과 같은 기술을 사용하여 모델의 동작을 개선하기 위해 노력하고, 광범위한 보안 및 모니터링 시스템.

예를 들어, 최신 모델인 GPT-4가 교육을 마친 후 공개 출시되기 전에 모든 직원이 6개월 이상을 더욱 안전하고 일관되게 만들었습니다.

우리는 강력한 인공 지능 시스템이 엄격한 보안 평가를 거쳐야 한다고 믿습니다. 이러한 접근 방식이 채택되도록 하려면 규제가 필요하며 우리는 이 규제가 취할 수 있는 최선의 형태를 모색하기 위해 정부와 적극적으로 협력하고 있습니다.

2. 실제 사용을 통해 학습하여 안전 장치 개선

배포 전에 예측 가능한 위험을 방지하기 위해 노력하지만 실험실에서 배울 수 있는 내용에는 한계가 있습니다. 광범위한 연구와 테스트에도 불구하고 사람들이 우리 기술을 사용하는 유익한 방법이나 오용하는 방법을 모두 예측할 수는 없습니다. 이것이 바로 우리가 실제 사용을 통해 학습하는 것이 시간이 지남에 따라 점점 더 안전한 AI 시스템을 만들고 출시하는 핵심 구성 요소라고 믿는 이유입니다.

우리는 많은 안전 장치를 갖춘 새로운 AI 시스템을 점진적으로 신중하게 출시하여 꾸준히 증가하는 인구에게 적용하고, 배운 내용을 기반으로 지속적으로 개선합니다.

우리는 개발자가 이 기술을 애플리케이션에서 직접 사용할 수 있도록 자체 서비스와 API를 통해 가장 유능한 모델을 제공합니다. 이를 통해 우리는 남용에 대해 모니터링하고 조치를 취할 수 있으며 남용이 어떤 모습일지에 대한 이론뿐만 아니라 사람들이 시스템을 남용하는 실제 방식에 대한 완화 조치를 지속적으로 구축할 수 있습니다.

실제 사용으로 인해 우리는 사람들에게 실제 위험을 초래하는 행동을 방지하는 동시에 우리 기술의 많은 유익한 사용을 허용하기 위해 점점 더 미묘한 정책을 개발하게 되었습니다.

결정적으로, 우리는 사회에 점점 더 능력이 향상되는 AI를 업데이트하고 적응할 시간이 주어져야 하며 이 기술의 영향을 받는 모든 사람이 AI 중요한 목소리의 추가 개발에 이해관계를 가져야 한다고 믿습니다. 반복 배포를 통해 다양한 이해관계자들이 이러한 도구를 직접 경험하지 않았을 때보다 AI 기술 채택에 대한 대화를 더 효과적으로 유도할 수 있습니다.

3. 어린이 보호

안전의 핵심은 어린이를 보호하는 것입니다. 우리는 AI 도구를 사용하는 사람들이 18세 이상이거나 부모의 승인이 있는 13세 이상이어야 하며 검증 옵션을 마련하기 위해 노력하고 있습니다.

저희 기술을 사용하여 증오, 괴롭힘, 폭력, 성인 콘텐츠 등의 (유해한) 카테고리를 생성하는 것을 허용하지 않습니다. 최신 모델인 GPT-4는 허용되지 않는 콘텐츠 요청에 대한 응답률이 GPT-3.5에 비해 82% 낮으며 남용을 모니터링하기 위한 강력한 시스템을 구축했습니다. 이제 ChatGPT Plus 사용자가 GPT-4를 사용할 수 있으며, 시간이 지남에 따라 더 많은 사람들이 사용할 수 있게 되기를 바랍니다.

저희 모델이 어린이에게 유해한 콘텐츠를 제작할 가능성을 최소화하기 위해 많은 노력을 기울였습니다. 예를 들어, 사용자가 이미지 도구에 아동에게 안전한 학대 자료를 업로드하려고 하면 해당 작업을 차단하고 국립실종학대아동센터에 신고합니다.

기본 안전 가드레일 외에도 우리는 학생을 위한 가상 교사와 교사를 위한 교실 보조 역할을 모두 수행하는 AI 기반 보조 장치를 구축한 비영리 Khan Academy와 같은 개발자와 협력하여 용도에 맞게 보안 완화를 조정합니다. 사례. 우리는 또한 이 기능을 원하는 개발자와 사용자를 더 잘 지원하기 위해 개발자가 모델 출력에 대해 보다 엄격한 표준을 설정할 수 있는 기능을 개발하고 있습니다.

4. 개인 정보 보호

저희의 대규모 언어 모델은 공개 콘텐츠, 승인된 콘텐츠는 물론 검토자가 생성한 콘텐츠를 포함한 광범위한 텍스트 모음에 대해 훈련되었습니다. 우리는 서비스, 광고를 판매하거나 사람들에 대한 프로필을 구축하기 위해 데이터를 사용하지 않습니다. 우리는 모델을 사람들에게 더 유용하게 만들기 위해 데이터를 사용합니다. 예를 들어, ChatGPT는 대화에 대해 사람들을 추가로 교육하여 기능을 향상시킵니다.

우리 훈련 데이터 중 일부에는 공용 인터넷의 개인 정보가 포함되어 있지만 우리는 모델이 개인 세계가 아닌 세계에 대해 배우기를 원합니다. 따라서 당사는 가능한 경우 훈련 데이터 세트에서 개인 정보를 제거하고, 개인 정보에 대한 요청을 거부하도록 모델을 미세 조정하며, 당사 시스템에서 개인 정보를 제거해 달라는 개인의 요청에 응답하기 위해 노력하고 있습니다. 이러한 단계는 우리 모델이 개인 정보가 포함된 콘텐츠를 생성할 가능성을 최소화합니다.

5. 사실적 정확성 향상

대형 언어 모델은 사용자가 제공한 텍스트 입력을 포함하여 이전에 본 패턴을 기반으로 다음 단어 시퀀스를 예측하고 생성합니다. 어떤 경우에는 다음으로 가능성이 가장 높은 단어가 실제로 정확하지 않을 수도 있습니다.

사실의 정확성을 높이는 것은 OpenAI 및 기타 많은 AI 개발자에게 중요한 작업이며 우리는 진전을 이루고 있습니다. 기본 데이터 소스로 잘못된 것으로 표시된 ChatGPT 출력에 대한 사용자 피드백을 활용합니다.

우리는 환각 가능성을 더욱 줄이고 대중에게 이러한 AI 도구의 현재 한계에 대해 교육하기 위해 수행해야 할 작업이 훨씬 더 많다는 것을 알고 있습니다.

6. 지속적인 연구 및 참여

AI 보안 문제를 해결하는 실용적인 방법은 효과적인 완화 및 조정 기술을 연구하고 실제 남용에 대해 테스트하는 데 더 많은 시간과 자원을 투자하는 것이라고 믿습니다.

중요하게, 우리는 AI의 안전성과 역량 향상이 함께 이루어져야 한다고 믿습니다. 지금까지 우리의 최고의 보안 작업은 가장 유능한 모델을 사용하여 작업한 것입니다. 왜냐하면 모델이 사용자 지침을 더 잘 따르고 안내하거나 "코칭"하기가 더 쉽기 때문입니다.

더 많은 유능한 모델이 생성되고 배포됨에 따라 우리는 점점 더 주의를 기울일 것이며, AI 시스템이 더욱 발전함에 따라 안전 예방 조치를 계속 강화할 것입니다.

GPT-4의 기능, 이점 및 위험을 더 잘 이해하기 위해 배포하는 데 6개월 이상을 기다렸지만 AI 시스템의 보안을 개선하는 데 때로는 그보다 더 오랜 시간이 걸릴 수 있습니다. 따라서 정책 입안자와 AI 공급업체는 AI의 개발 및 배포가 전 세계적으로 효과적으로 관리되고 가능한 한 빨리 성공하기 위해 누구도 "모퉁이를 잘라내지" 않도록 해야 합니다. 이는 기술적, 제도적 혁신이 필요한 어려운 도전이지만, 우리가 열망하는 기여이기도 합니다.

보안 문제를 해결하려면 AI 시스템 동작의 경계를 포함하여 광범위한 토론, 실험 및 참여가 필요합니다. 우리는 안전한 AI 생태계를 만들기 위해 이해관계자들 간의 협력과 열린 대화를 계속해서 장려해 왔으며 앞으로도 그럴 것입니다.

위 내용은 GPT-5가 중지되나요? OpenAI는 이른 아침에 답변을 발표했습니다. AI의 안전을 보장하기 위해 우리는 '모퉁이를 자르지' 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제