재작성된 내용은 다음과 같습니다: 머신 하트 리포트
편집자: Chen Ping, Big Pan Chicken
LeCun은 대다수의 학계 동료들이 개방형 AI 연구 및 개발을 매우 지지하지만 여전히 반대자들이 있다고 말했습니다.
인공지능 위험성 문제에 대해 각계 전문가들은 서로 다른 의견을 가지고 있습니다. 누군가 인공 지능 연구소에 연구를 즉시 중단할 것을 촉구하는 공동 서한을 보냈습니다. 딥 러닝 분야의 중요한 인물인 Geoffrey Hinton과 Yoshua Bengio도 모두 이 견해를 지지합니다
지난 며칠 동안 Bengio, Hinton 등은 "급속한 개발 시대의 인공 지능 위험 관리"라는 공동 서한을 발행하여 연구원들에게 AI 시스템을 개발하기 전에 긴급 거버넌스 조치를 취하고 안전 및 윤리 관행에 집중할 것을 촉구했습니다. 정부에 AI로 인한 위험을 관리하기 위한 조치를 취할 것을 요청하십시오.
다시 쓴 내용은 다음과 같습니다. 사람들이 인공지능을 악용하는 것을 방지하기 위해 국가 기관을 참여시키는 등 일부 긴급 거버넌스 조치가 기사에 언급되어 있습니다. 효과적으로 규제하려면 정부는 AI 개발에 대한 포괄적인 이해가 필요합니다. 규제기관은 모델 등록, 내부고발자의 권익을 효과적으로 보호하고 모델 개발 및 슈퍼컴퓨터 사용을 모니터링하는 등 일련의 조치를 취해야 합니다. 또한 규제 기관은 잠재적으로 위험한 기능을 이해하기 위해 배포 전에 고급 AI 시스템을 평가해야 합니다
그뿐만 아니라, 좀 더 과거로 거슬러 올라가 올해 5월, 미국의 비영리 단체인 인공지능 안전센터에서는 인공지능도 동일한 위험을 안고 있다고 경고하는 성명을 발표했습니다. 인류를 전염병으로 몰아낸다. 이 성명을 지지하는 사람들은 Hinton, Bengio 등도 포함된다.
힌튼도 올해 5월 인공지능의 위험성에 대해 자유롭게 이야기하기 위해 구글 직장을 그만뒀다. 그는 뉴욕타임스와의 인터뷰에서 "대부분의 사람들은 이(AI의 폐해)가 아직 멀었다고 생각한다. 예전에는 아직 멀었다고 생각했다. 아마도 30~50년 이상 걸릴 것이다. 하지만 분명히 나는 지금은 그렇지 않을 것 같아요.”
힌튼 등의 입장에서는 인공지능으로 인한 위험을 관리하는 것이 시급한 과제입니다
이에도 불구하고 딥 러닝의 3대 거인 중 한 명인 Euan Lecon은 인공 지능 개발에 대해 매우 낙관적인 태도를 가지고 있습니다. 그는 인공지능의 발전이 인류에 위협이 되지 않는다고 믿으며 인공지능의 위험성에 관한 공동서한에 서명하는 것을 기본적으로 반대합니다
방금 르쿤은 X 유저들과의 대화에서 AI 위험성에 대한 네티즌들의 질문에 답변했습니다.
이 네티즌은 "'이것은 그의 기후 변화입니다': 리시 수낙이 그의 유산을 봉인하도록 돕는 전문가들"이라는 기사에 대한 그의 의견을 물었습니다. 이 기사는 Hinton, Bengio 및 다른 사람들이 공동으로 발표한 성명이 인공 지능에 대한 사람들의 견해를 바꾸었다고 믿습니다. AI를 지원 도구로 보는 것에서 잠재적인 위협으로 보는 것으로 전환하십시오. 그 기사는 계속해서 최근 몇 달 동안 영국 관찰자들이 인공 지능이 세상의 종말을 가져올 것이라고 걱정하는 사람들이 점점 더 많아지고 있다는 사실을 발견했다고 말합니다. 올해 3월 영국 정부는 인공지능 혁신을 억누르지 않겠다고 약속하는 백서를 발표했다. 그러나 불과 두 달 후 영국은 인공 지능에 대한 제한 설정에 대해 논의하기 시작했으며 미국이 글로벌 인공 지능 규칙에 대한 계획에 동참할 것을 촉구했습니다
내용을 중국어로 다시 작성해주세요. 원문은 나오지 않아도 됩니다
다시 작성해야 하는 내용은 다음과 같습니다: https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
기사에 대한 LeCun의 반응은 AI의 치명적인 위험에 대한 영국의 우려가 다른 국가로 확산되는 것을 원하지 않는다는 것이었습니다.
이후 앞서 언급한 LeCun과 X 사용자 간의 커뮤니케이션이 있었습니다. LeCun의 답변은 모두 다음과 같습니다.
"Altman, Hassabis, Amodei는 대규모 기업 로비에 참여하고 있습니다. 그들은 AI 산업을 규제하려고 노력하고 있습니다. 그리고 당신, Geoff, Yoshua는 공개 AI 연구를 금지하기 위해 로비하는 사람들에게 탄약을 제공하고 있습니다.
선전 캠페인이 성공한다면 필연적으로 재앙적인 결과를 초래할 것입니다. 즉, 몇몇 회사가 인공 지능을 통제하게 될 것입니다
대부분의 학계 동료들은 개방형 AI 연구 및 개발을 매우 지지합니다. 당신이 설교하는 종말 시나리오를 믿는 사람은 거의 없습니다. 당신, 요슈아, 제프, 스튜어트는 유일한 예외입니다.
많은 사람들과 마찬가지로 저는 사람들의 창의성, 민주주의, 시장의 힘, 제품 규제 등 여러 힘의 결합을 믿기 때문에 개방형 AI 플랫폼을 크게 지지합니다. 나는 또한 안전하고 우리의 통제하에 있는 AI 시스템을 생산하는 것이 가능하다는 것을 알고 있습니다. 이에 대해 나는 구체적인 제안을 했습니다. 이는 모두 사람들이 옳은 일을 하도록 이끌 것입니다.
AI는 허공에서 만들어지는 것이 아니며, 우리가 통제할 수 없는 자연스러운 현상이지만, 사실은 그렇지 않습니다. 그 발전은 우리가 아는 모든 사람에 의해 주도됩니다. 우리와 그들 모두는 "올바른 것"을 창조할 수 있는 힘을 가지고 있습니다. R&D 규제를 요구하는 것은 이러한 사람들과 그들이 일하는 조직이 무능하고, 무모하고, 자기 파괴적이거나 사악하다고 암묵적으로 가정하는 것입니다. 하지만 그렇지 않습니다
나는 당신이 두려워하는 종말 시나리오가 터무니없다는 것을 증명하기 위해 많은 주장을 생각해냈습니다. 여기서는 자세히 다루지 않겠습니다. 그러나 중요한 점은 강력한 AI 시스템이 가드레일을 포함한 목표에 의해 구동된다면 이러한 가드레일과 목표를 설정하기 때문에 안전하고 제어 가능하다는 것입니다. (현재 자동 회귀 언어 모델은 목표 중심이 아니므로 자동 회귀 언어 모델의 약점을 추론하지 말자)
오픈 소스의 경우 귀하의 활동은 귀하가 추구하는 것과 정반대의 효과를 가져올 것입니다. 미래에 인공지능 시스템은 인류의 지식과 문화의 보고가 될 것입니다. 우리에게 필요한 것은 모두가 기여할 수 있는 오픈 소스와 무료 플랫폼입니다. 개방형 플랫폼만이 인간의 모든 지식과 문화를 반영할 수 있으므로 Wikipedia와 마찬가지로 이러한 플랫폼에 대한 기여는 크라우드소싱되어야 합니다. 플랫폼이 열려 있지 않으면 작동하지 않습니다
오픈소스 AI 플랫폼이 규제된다면 또 다른 상황이 반드시 일어날 것입니다. 즉, 몇몇 회사가 AI 플랫폼을 제어하여 사람들의 전체 디지털 의존도를 제어하게 될 것입니다. 이것이 민주주의에 무엇을 의미하는가? 이것이 문화적 다양성을 의미하는 것은 무엇입니까? 이것이 나를 밤에 잠 못 이루는 이유이다. "
LeCun의 긴 트윗 아래에도 많은 사람들이 그의 견해를 '지지'했습니다.
몬트리올 대학교 컴퓨터 과학 및 운영 연구과 교수인 Irina Rish는 Mila-Quebec AI Institute의 핵심 구성원입니다. 그녀는 오픈소스 AI를 지지하는 연구자들이 더 이상 침묵하지 말고, 신흥 AI 발전에 주도적인 역할을 해야 한다고 믿습니다
e/acc 창립자 Beff Jezos도 댓글 영역에서 그러한 댓글은 중요하며 사람들에게 필요한 것이라고 말했습니다.
네티즌들은 처음에는 보안 문제를 논의하면 미래 기술에 대한 모든 사람의 상상력을 풍부하게 할 수 있지만 선정적인 SF 소설이 독점 정책의 등장으로 이어져서는 안 된다고 말했습니다.
팟캐스트 진행자 Lex Fridman은 이 토론에서 더 많은 것을 기대할 수 있습니다.
AI 위험에 대한 논의는 AI의 향후 발전에도 영향을 미칠 것입니다. 어떤 아이디어가 주목을 받으면 사람들은 그것을 맹목적으로 따릅니다. 양측이 지속적으로 합리적인 논의를 진행할 때에만 AI의 '진짜 얼굴'이 진정으로 보일 수 있습니다.
위 내용은 튜링상 수상자 주장, 르쿤: 벤지오, 힌튼 및 기타 AI 멸종 이론은 터무니없다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!