>  기사  >  기술 주변기기  >  OpenAI 회사, GPT-4 등 인공지능 모델 구축 시 사용되는 보안 대책 공개

OpenAI 회사, GPT-4 등 인공지능 모델 구축 시 사용되는 보안 대책 공개

WBOY
WBOY앞으로
2023-04-13 20:52:10732검색

OpenAI 회사, GPT-4 등 인공지능 모델 구축 시 사용되는 보안 대책 공개

OpenAI는 최근 인공 지능 도구에 보안 조치를 구축할 것이라고 발표했습니다. 이 회사는 ChatGPT 챗봇 및 기타 인공 지능 시스템의 핵심인 강력한 GPT-4 대규모 언어 인공 지능 모델의 개발자입니다. 회사의 공개는 생성 AI 시스템 개발에 대한 더 많은 통제에 대한 요구가 커지고 있는 가운데 나온 것입니다.

블로그 게시물에서 OpenAI 회사는 인공 지능 시스템이 유해한 콘텐츠를 생성하는 것을 방지하고 데이터 개인 정보 보호 규정을 위반하지 않기 위해 취하고 있는 조치를 자세히 설명했습니다. 회사가 개발한 AI 도구는 생성 AI의 세계적인 붐을 주도했지만, 최근 몇 주 동안 규제 당국은 이러한 AI 시스템의 안전성에 관심을 갖게 되었으며, 이탈리아에서는 ChatGPT 사용이 금지될 가능성이 있다고 언급했습니다.

머스크와 애플의 공동 창업자인 워즈니악 등 인공지능 전문가들은 최근 공개 서한을 통해 대규모 언어 모델(LLM) 개발의 임시 중단을 촉구했고, 바이든 미국 대통령도 이 논의에 동참했다고 언론 기자들에게 말했다. 인공지능 기업은 안전을 최우선으로 생각해야 합니다.

OpenAI가 보안을 염두에 두고 GPT-4를 구축한 방법

OpenAI는 지난달 가장 발전된 GPT-4를 출시하기 전에 시스템을 완성하는 데 6개월을 투자해 악의적인 목적으로 사용되는 것을 최대한 어렵게 만들었다고 밝혔습니다.

보안 연구원들은 이전에 챗봇을 "속여" 열악한 인공 지능 시스템을 모방하는 증오심 표현이나 악성 코드를 생성함으로써 ChatGPT의 보안 제어를 우회할 수 있음을 입증했습니다. OpenAI는 GPT-3.5 모델보다 GPT-4에서 이런 일이 발생할 가능성이 낮다고 말합니다.

회사 엔지니어들은 다음과 같이 말했습니다. “GPT-3.5에 비해 GPT-4는 허용되지 않는 콘텐츠에 대한 요청에 응답할 가능성이 82% 낮으며, 우리는 인공 지능 시스템의 성능을 모니터링하는 강력한 시스템을 구축했습니다. 또한 개발자가 이러한 기능을 필요로 하는 개발자와 사용자를 더 잘 지원하기 위해 더 엄격한 모델 출력 표준을 설정할 수 있는 기능을 개발하고 있습니다.

OpenAI의 인공 지능 시스템이 인터넷 사용자에게 유출되었습니다.

회사도 이에 대응할 기회를 잡았습니다. 해당 모델이 훈련 목적으로 인터넷에서 데이터를 수집하는 방식에 대한 데이터 규제 기관의 우려에 대해 말씀드립니다. 이탈리아가 ChatGPT를 금지한 후 캐나다는 챗봇의 안전성에 대한 조사에 착수했으며 유럽의 다른 국가들도 이탈리아의 선례를 따를지 여부를 고려하고 있습니다.

OpenAI 회사는 다음과 같이 말했습니다. "우리의 대규모 언어 모델은 공개적으로 사용 가능한 콘텐츠, 라이선스가 부여된 콘텐츠, 인간 검토자가 생성한 콘텐츠를 포함하여 광범위한 텍스트 모음에 대해 훈련되었습니다. 우리는 데이터를 사용하여 서비스를 판매하거나 광고를 게시하거나 사용자를 생성하지 않습니다. 프로필.”

회사에서는 훈련 중에 개인정보가 유출되지 않도록 하는 방법에 대한 자세한 지침도 제공합니다. 회사는 다음과 같이 말했습니다. “우리 훈련 데이터 중 일부에는 공개 인터넷에서 사용할 수 있는 개인 정보가 포함되어 있지만 우리는 대규모 언어 모델이 개인이 아닌 세상에 대해 배우기를 원합니다.

따라서 가능한 경우 훈련을 통해 배우기 위해 노력합니다. 데이터 세트에서 개인 정보를 제거하고, 개인 정보 요청을 거부하도록 모델을 미세 조정하고, AI 시스템에서 개인 정보를 제거해 달라는 개인의 요청에 응답하여 당사 모델이 개인 정보가 포함된 응답을 생성할 가능성을 최소화합니다. ”

바이든 미국 대통령, 인공지능 반대 대열에 합류

OpenAI가 이 성명을 발표하기 전, 바이든 미국 대통령은 기자들에게 인공지능 개발자는 제품을 공개하기 전에 제품이 안전한지 확인할 책임이 있다고 말했습니다.

바이든은 과학기술자문위원회와 인공지능 개발에 관해 논의한 후 연설했습니다. 그는 미국 정부가 첨단 자동화 시스템의 부정적인 영향으로부터 개인을 보호하기 위해 지난해 10월 도입된 인공지능 권리장전을 진전시키는 데 전념하고 있다고 말했습니다.

Biden은 다음과 같이 말했습니다. “우리는 AI 시스템에 처음부터 중요한 보호 장치가 내장되어 다시 돌아갈 필요가 없도록 하기 위해 지난 10월 권리 장전을 제안했습니다. 미국인의 권리와 안전을 보호하고, 개인 정보를 보호하며, 편견과 허위 정보에 대처할 수 있는 적절한 가드레일을 마련하세요.”

위 내용은 OpenAI 회사, GPT-4 등 인공지능 모델 구축 시 사용되는 보안 대책 공개의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제