>  기사  >  기술 주변기기  >  LeCun과 Ng Enda를 포함해 370명이 넘는 사람들이 공동 서한에 서명했습니다. AI에 대한 엄격한 통제는 위험하며 개방성은 해독제입니다.

LeCun과 Ng Enda를 포함해 370명이 넘는 사람들이 공동 서한에 서명했습니다. AI에 대한 엄격한 통제는 위험하며 개방성은 해독제입니다.

WBOY
WBOY앞으로
2023-11-03 14:49:041235검색

최근 AI를 어떻게 감독할지에 대한 논의가 점점 더 뜨거워지고 있고, 대기업들의 의견도 매우 다릅니다.

예를 들어 Turing Award 수상자 Geoffrey Hinton, Yoshua Bengio, Yann LeCun 세 사람 사이에는 두 가지 의견이 있습니다. 힌튼과 벤지오는 AI 감독 강화를 강력히 요구하는 팀이다. 그렇지 않으면 AI가 인류를 멸종시킬 위험이 있다. LeCun은 AI에 대한 강력한 규제가 필연적으로 거대 기업의 독점으로 이어질 것이라고 생각합니다.

자신의 생각을 표현하기 위해 많은 사람들이 자신의 견해를 전달하는 공동 서한에 서명했습니다. 지난 며칠을 예로 들면 Bengio, Hinton 및 기타 사람들이 "시대의 인공 지능 위험 관리"라는 공동 서한을 발행했습니다. of Rapid Development"”를 통해 연구원들에게 AI 시스템을 개발하기 전에 긴급 거버넌스 조치를 취할 것을 촉구합니다.

최근 "인공지능 안전성과 개방성에 관한 공동성명"이라는 제목의 공개 서한이 소셜미디어에서 큰 논란을 불러일으켰습니다

LeCun과 Ng Enda를 포함해 370명이 넘는 사람들이 공동 서한에 서명했습니다. AI에 대한 엄격한 통제는 위험하며 개방성은 해독제입니다.

공개 서한을 보려면 다음 링크를 클릭하세요: https://open. mozilla.org/letter/

지금까지 딥러닝 3대 거물 중 하나인 LeCun과 스탠포드 대학교 컴퓨터공학과 Andrew Ng 교수를 포함하여 370명 이상이 이 공개서한에 서명했습니다. 목록은 계속 업데이트 중입니다.

르쿤은 "개방성, 투명성, 폭넓은 접근성은 소프트웨어 플랫폼을 더욱 안전하고 안정적으로 만든다. 개방형 인공지능 플랫폼과 시스템을 제공하는 모질라 재단의 공개 서한에도 서명했다. 이유"라고 말했다.

LeCun과 Ng Enda를 포함해 370명이 넘는 사람들이 공동 서한에 서명했습니다. AI에 대한 엄격한 통제는 위험하며 개방성은 해독제입니다.

공개서한 내용은 다음과 같습니다.

우리는 인공지능 거버넌스의 중요한 순간에 있습니다. AI 시스템의 현재와 미래의 피해를 완화하려면 개방성, 투명성 및 광범위한 액세스를 수용해야 합니다. 이는 글로벌 우선순위가 되어야 합니다

실제로 공개적으로 사용 가능한 모델에는 위험과 취약성이 있습니다. AI 모델은 악의적인 행위자에 의해 남용되거나 장비가 부족한 개발자에 의해 배포될 수 있습니다. 그러나 우리는 모든 종류의 독점 기술에서 이러한 현상을 몇 번이고 목격합니다. 대중의 접근과 조사가 증가하면 기술이 더 위험해지는 것이 아니라 더 안전해집니다. 기본 AI 모델에 대한 엄격하고 독점적인 통제가 대규모 위험으로부터 우리를 보호할 수 있는 유일한 방법이라는 생각은 아무리 봐도 순진하고 최악의 경우 위험합니다.

더욱이 인류 발전의 역사는 잘못된 규정을 성급하게 채택하면 경쟁과 혁신에 해를 끼치는 권력 집중으로 이어질 수 있음을 알려줍니다. 개방형 모델은 공개 토론에 정보를 제공하고 전략 개발을 개선할 수 있습니다. 우리의 목표가 안전, 보안, 책임이라면 개방성과 투명성은 그 목표를 달성하는 데 중요한 요소입니다.

우리는 인공지능 시대에 '개방성'의 의미에 대해 역동적인 논의를 벌이고 있는 중이다. 이 중요한 토론이 느려져서는 안 됩니다. 대신 AI 안전 경쟁에서 개방성을 활용하는 새로운 방법을 시도하고 배우고 개발하도록 장려하고 속도를 높여야 합니다.

오픈소스와 개방성을 촉진하는 방법을 확립해야 합니다. 이러한 접근 방식은 다음을 위한 기반이 될 수 있습니다.

개별 연구, 협업 및 지식 공유를 통해 AI 기능의 위험과 위험에 대한 이해를 가속화할 수 있습니다.

2. 규제 기관이 대규모 모니터링 도구를 채택하도록 지원함으로써 공공 감독 및 책임성을 강화하기 위해 인공 지능 시스템을 확장합니다.

신규 플레이어의 진입 장벽을 낮추는 것은 책임감 있는 인공 지능을 만드는 데 중점을 두는 중요한 측면입니다.

이 공개 서한의 서명자로서 우리는 과학자, 정책 입안자, 엔지니어, 활동가, 기업가, 교육자, 언론인 등. 우리는 오픈 소스 AI가 어떻게 관리되고 출시되어야 하는지에 대한 다양한 관점을 제시합니다. 그러나 우리는 한 가지 점에 강력하게 동의합니다. 인공 지능 시대에는 개방적이고 책임감 있고 투명한 접근 방식을 취하는 것이 안전을 보장하는 데 중요합니다.

인공 지능 안전 분야에서는 개방성이 문제의 해결책입니다. 문제의 원인을 악화시키지 않음

서명자: 다시 작성 필요

  • Arthur Mensch, 프랑스 스타트업 MistralAI의 공동 창업자 겸 CEO
  • Enda Ng, DeepLearning.AI의 ​​창업자, Landing AI의 창업자 겸 CEO, 스탠포드 대학교 컴퓨터 공학과 교수
  • Yann Lecun, Turing Award 수상자, Meta 수석 AI 과학자
  • Julien Chaumond, Hugging Face CTO
  • Brian Behlendorf, Apache 창립 멤버, OpenSSF 최고 기술 책임자
  • Eric Von Hippel, 미국 경제학자, MIT Long School 교수 of Management
  • ...

현재, 등장한 지 며칠 되지 않은 이 공개 서한은 계속해서 발효되고 있으며 해외 AI 커뮤니티에서 큰 관심과 논의를 불러일으키고 있습니다. 목록 업데이트에 주의하세요.

이 공동 서한의 견해에 동의하시면 귀하의 메시지 서명을 제출하실 수도 있습니다.

AI의 강력한 감독이 득보다 실이 더 클지, 아니면 득이 해보다 클지 대답하는 데는 시간이 걸릴 것입니다.

위 내용은 LeCun과 Ng Enda를 포함해 370명이 넘는 사람들이 공동 서한에 서명했습니다. AI에 대한 엄격한 통제는 위험하며 개방성은 해독제입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제