>  기사  >  기술 주변기기  >  세 명의 OpenAI 리더가 직접 다음 기사를 썼습니다. 초지능을 어떻게 관리해야 할까요?

세 명의 OpenAI 리더가 직접 다음 기사를 썼습니다. 초지능을 어떻게 관리해야 할까요?

王林
王林앞으로
2023-05-26 14:08:041138검색

AI가 인간의 삶에 이렇게 광범위하게 영향을 미친 적은 없었으며 오늘날처럼 인간에게 이렇게 많은 걱정과 고민을 안겨주었습니다.

과거의 다른 모든 주요 기술 혁신과 마찬가지로 AI의 발전에도 선과 악이라는 양면이 있습니다. 이는 전 세계 규제 기관이 시작된 중요한 이유 중 하나입니다. 적극적으로 개입하는 것입니다.

어쨌든 AI 기술의 발전은 대세이고 막을 수 없는 것 같습니다. 인간의 가치와 윤리를 준수하면서 AI를 더욱 안전하게 개발하고 배포하는 방법이 바로 그것입니다. 현 AI 실무자 모두를 위한 질문 신중한 고려가 필요한 질문입니다.

오늘 OpenAI의 세 공동 창립자, 즉 CEO Sam Altman, 사장 Greg Brockman, 수석 과학자 Ilya Sutskever 가 공동으로 초지능을 관리하는 방법을 논의하는 기사를 썼습니다. 그들은 지금이 초지능 거버넌스, 즉 AGI보다 훨씬 뛰어난 미래 인공지능 시스템에 대해 생각하기 시작할 좋은 시기라고 주장합니다.

지금까지 살펴본 내용에 따르면 향후 10년 안에 인공 지능(AI)이 대부분의 분야에서 인간 전문가를 능가하는 기술 수준에 도달하고 이에 필적하는 작업을 수행할 수 있을 것으로 예상됩니다. 오늘날의 가장 큰 회사에는 하나의 생산적인 활동만큼 많은 것이 포함됩니다.

잠재적인 장점과 단점에 관계없이 초지능은 과거 인간이 직면했던 다른 기술보다 더 강력할 것입니다. 우리는 엄청나게 번영하는 미래를 가질 수 있지만 거기에 도달하려면 위험을 관리해야 합니다. 실존적 위험 가능성을 고려하여 수동적으로 대응할 수는 없습니다. 원자력은 이러한 특성을 지닌 기술의 한 예입니다. 또 다른 예는 합성 생물학입니다.

마찬가지로 현재 AI 기술의 위험을 완화해야 하지만 초지능에는 특별한 처리와 조정이 필요합니다.

시작점

이 개발을 성공적으로 이끌 수 있는 중요한 아이디어가 많이 있으며, 그 중 세 가지에 대한 첫 번째 생각을 제공합니다.

먼저, 우리를 안전하게 보호하고 이러한 시스템이 사회와 원활하게 통합되도록 돕는 방식으로 초지능이 개발되도록 선도적인 개발 노력 간의 조정이 필요합니다. 이를 달성하는 방법에는 여러 가지가 있습니다. 세계 주요 정부가 함께 모여 현재의 많은 노력이 포함될 프로젝트를 수립할 수도 있고, "집단 동의"(새로운 조직의 지원을 받아)를 통해 그렇게 할 수도 있습니다. , 다음과 같이) (위에서 제안한 바와 같이) 최첨단 AI 역량의 성장을 매년 일정 비율로 제한합니다.

물론 개별 회사도 책임감 있게 발전하려면 매우 높은 기준을 준수해야 합니다.

초지능 개발을 규제하기 위해 결국 국제원자력기구(IAEA)와 유사한 것이 필요할 수 있습니다. 특정 능력(또는 컴퓨팅 등 리소스) 요구 사항을 초과하는 모든 노력. 시스템을 검사하고, 감사를 요구하고, 보안 표준 준수 여부를 테스트하고, 배포 수준 및 보안 수준에 제한을 가하는 등의 작업을 수행할 수 있는 국제 기관의 감독을 받아야 합니다. 컴퓨팅 및 에너지 사용량을 추적하면 많은 도움이 될 것이며 이 아이디어가 실제로 달성 가능하다는 희망을 갖게 될 것입니다. 첫 번째 단계로 기업은 언젠가 그러한 기관이 요구할 수 있는 요소를 구현하기 시작하는 데 자발적으로 동의할 수 있으며, 두 번째 단계에서는 개별 국가가 이를 구현할 수 있습니다. 중요한 것은 그러한 기관이 AI가 무엇을 말할 수 있는지 정의하는 등 개별 국가에 맡겨야 할 문제보다 '실존 위험'을 줄이는 데 중점을 두어야 한다는 것입니다.

셋째, 초지능을 안전하게 만들려면 충분한 기술적 역량을 갖추어야 합니다. 이것은 우리와 다른 사람들이 많은 노력을 기울이고 있는 공개 연구 질문입니다.

범위에 포함되지 않는 것

우리는 회사와 오픈 소스 프로젝트가 여기에 설명된 종류의 규제(라이센스 또는 감사와 같은 번거로운 메커니즘 포함)를 요구하지 않고 중요한 기능 임계값 미만의 모델을 개발할 수 있도록 허용하는 것이 중요하다고 믿습니다. .

오늘날의 시스템은 세상에 엄청난 가치를 창출할 것이며 위험도 있지만 이러한 위험 수준은 다른 인터넷 기술과 비교할 수 있는 것으로 보이며 사회의 대응은 적절해 보입니다.

반면, 우리가 집중하는 시스템은 현재까지의 어떤 기술보다 강력한 성능을 발휘할 것이며, 이 임계값보다 훨씬 낮은 기술에 유사한 표준을 적용하여 시스템에 대한 초점을 희석하지 않도록 주의해야 합니다.

대중 참여 및 잠재력

그러나가장 강력한 시스템의 거버넌스와 배포에 대한 결정을 내리려면 강력한 대중의 감독이 있어야 합니다. 우리는 전 세계 사람들이 AI 시스템의 경계와 기본값을 민주적으로 결정해야 한다고 믿습니다. 우리는 아직 그러한 메커니즘을 설계하는 방법을 모르지만 몇 가지 실험을 할 계획입니다. 우리는 이러한 광범위한 경계 내에서 개별 사용자가 AI를 사용하는 방식을 크게 제어할 수 있어야 한다고 계속 믿습니다.

위험과 어려움을 감안할 때 우리가 이 기술을 구축하는 이유에 대해 생각해 볼 가치가 있습니다.

OpenAI에는 두 가지 근본적인 이유가 있습니다. 첫째, 우리는 이것이 오늘날 우리가 상상하는 것보다 더 나은 세상으로 이어질 것이라고 믿습니다. (우리는 이미 교육, 창의적 작업, 개인 생산성과 같은 분야에서 이러한 초기 사례를 보고 있습니다.) 세상은 많은 문제에 직면해 있으며 이를 해결하는 데 더 많은 도움이 필요합니다. 이 기술은 우리 사회를 개선할 수 있으며 이러한 새로운 도구를 사용하는 모든 사람의 창의성에 우리는 놀라게 될 것입니다. 경제 성장과 삶의 질 향상은 눈부시게 클 것입니다.

둘째, 우리는 초지능 구축을 중단하는 것이 비직관적으로 위험하고 어려운 결정이 될 것이라고 믿습니다. 엄청난 장점으로 인해 초지능을 구축하는 데 드는 비용은 매년 낮아지고 있으며 구축자의 수는 급격히 증가하고 있으며 이는 본질적으로 우리가 진행 중인 기술 경로의 일부이므로 이를 중지하려면 글로벌 감시와 유사한 조치가 필요합니다. 정권이 존재하며 그러한 시스템조차도 성공을 보장하지 않습니다. 그래서 우리는 그것을 바로잡아야 합니다.

위 내용은 세 명의 OpenAI 리더가 직접 다음 기사를 썼습니다. 초지능을 어떻게 관리해야 할까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제