4월 1일 이 사이트의 소식, 엘론 머스크는 앞서 어번던스 서밋(Abundance Summit)에서 열린 '인공지능 토론' 세미나에서 인공지능 기술이 인간에게 위협이 될 확률이 1/5이라도 위협이 되지만 그 혜택이 그보다 더 크다고 말했습니다. 우리가 R&D를 추구하는 것은 여전히 위험을 감수할 가치가 있습니다.
머스크는 세미나에서 "인공지능이 인류 문명을 멸망시킬 가능성이 있다고 생각한다. 아마도 제프리 힌튼의 말에 동의할 것이다. 확률은 약 10이다"라고 말했다. % ~ 20% " 그러나 그는 "긍정적인 가능성 시나리오가 부정적인 가능성 시나리오보다 더 크다고 생각합니다"라고 덧붙였습니다. 머스크는 그 위험을 어떻게 계산했는지 언급하지 않았습니다.
이 사이트는 지난해 11월 머스크가 이 기술이 통제를 벗어날 가능성이 “0이 아니다”라고 말했지만, 당시 통제를 벗어난 인공지능이 인류를 멸망시킬 것이라고 주장하지 않았다는 점을 주목했다.
머스크는 항상 인공지능 규제를 옹호해 왔지만 지난해 인공지능의 힘을 홍보하기 위해 xAI라는 회사를 설립했습니다. xAI는 Musk가 Sam Altman과 공동 창립한 회사인 OpenAI의 경쟁자이지만 Musk는 2018년 OpenAI 이사회에서 사임했습니다.
정상회담에서 머스크는 2030년까지 디지털 지능이 인간의 모든 지능을 합친 것보다 더 커질 것이라고 추정했습니다. 머스크는 여전히 잠재적인 긍정적인 것이 부정적인 것보다 더 크다고 주장하지만, 그가 공개적으로 사용한 가장 직접적인 용어 중 일부를 사용하여 AI가 현재의 궤적을 계속 유지할 경우 AI가 세상에 초래할 위험을 인정했습니다.
머스크는 지난 3월 19일 실리콘밸리 행사에서 인공지능에 관해 “인공지능의 안전을 위해 가장 중요한 것은 인공지능을 최대한 현실적이고 호기심 있게 만드는 것이라고 생각한다”고 말했다. 아이를 키우는 것과 거의 비슷하지만 슈퍼 천재, 신과 같은 아이입니다. 아이를 키우는 방법이 중요합니다. 우리는 인공지능의 안전성에 대해 경계심을 갖고 최대한 현실적으로 만들고 호기심을 가득 채워야 합니다. 이것은 매우 중요한 포인트입니다. 진리를 추구하고 호기심을 가지도록 허용하면 궤도에서 벗어나지 않고 항상 호기심을 갖고 진리를 추구하게 됩니다.
Musk는 AI 안전을 달성하는 가장 좋은 방법에 대한 그의 "궁극적 결론"은 AI가 정직하게 구현되도록 강제하는 방식으로 성장하도록 하는 것이라고 말합니다. 이러한 접근 방식은 인공지능의 안전성을 보장할 뿐만 아니라 인공지능의 발전을 촉진할 수도 있습니다.
머스크는 인공지능을 안전하게 만드는 방법에 대해 "진실이 불쾌하더라도 거짓말을 강요하지 마세요"라고 말했습니다. "그것이 매우 중요합니다. 거짓말을 하지 마세요."
독립 보고서에 따르면, 연구 연구원들은 일부 AI가 인간을 공격하는 방법을 학습하므로 현재의 AI 보안 조치를 사용하여 그러한 속임수를 방어하는 것이 불가능하다는 사실을 발견했습니다. 더욱 충격적인 점은 AI가 거짓말을 배워서 영향을 받기보다는 스스로 속이는 법을 배우는 것이 가능할 수 있다는 점입니다. 따라서 연구진은 AI 학습자들이 고의적인 가르침에 속지 말고 스스로 경계해야 한다고 당부했다.
위 내용은 머스크는 인공지능이 인류를 파괴할 확률은 20%지만 여전히 위험을 감수할 가치가 있다고 말했다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!