3월 17일 소식, 이번주 OpenAI가 GPT-4를 출시했습니다. AI 챗봇이 계속해서 새로운 기능을 추가하고 있는 가운데, AI 도구가 악의적인 목적으로 사용될 수도 있다는 우려도 커지고 있다. OpenAI 공동 창립자이자 수석 과학자인 Ilya Sutskever는 인터뷰에서 숨은 동기를 가진 사람들이 쉽게 인공 지능을 사용하여 다른 사람에게 해를 끼칠 수 있다고 인정했습니다.
“이 모델은 매우 강력하며 더욱 강해질 것입니다.”라고 그는 말했습니다. "어떤 시점에서는 누군가가 원한다면 이러한 모델로 많은 해를 끼칠 수 있습니다."
Satzkopf는 OpenAI가 더 이상 이러한 모델을 훈련하는 방법에 대한 세부 정보를 제공하지 않는 이유를 설명하면서 이렇게 말했습니다.
그는 인터뷰에서 "인공지능의 성능이 계속 향상되면서 공개하고 싶지 않은 이유가 있다"며 "몇 년 안에 그것이 모든 사람에게 매우 분명해질 것이라고 확신한다"고 말했다. 오픈소스 인공지능 실습은 현명하지 못하다.”
OpenAI CEO인 샘 알트만(Sam Altman)은 과거에도 비슷한 생각을 밝혔습니다.
올해 초 인터뷰에서 알트만은 인공지능에 대한 최선의 시나리오는 “상상조차 어려울 정도로 믿을 수 없을 정도로 좋다”고 말했지만, 최악의 시나리오는 “모두 전원을 끄자”라고 말했다. 등."
지난 달 Altman은 AI 도구가 사람들이 더 효율적이고 건강하며 똑똑해지는 데 도움이 될 수 있다고 믿는다고 트윗했지만 세상은 가능한 무서운 AI 도구에 더 가까워질 수 있다고 덧붙였습니다. 그리 멀지 않으므로 이를 규제하는 것이 " 필수적인".
위 내용은 ChatGPT 교육의 세부 사항을 발표해 보는 것은 어떨까요? OpenAI 공동 창업자: 큰 피해를 입히는 것은 쉽습니다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!