Zhiyuan 연구소가 주최한 2023년 베이징 Zhiyuan 컨퍼런스가 6월 9일 베이징에서 개막했습니다. 이번 컨퍼런스는 5년 연속 개최되었으며 매년 인공지능에 관한 국제 고급 전문 교류 행사입니다.
이번 컨퍼런스는 이틀 동안 진행되었으며, 핵심 주제는 OpenAI 창업자인 샘 알트먼(Sam Altman)을 비롯해 AI 분야 최고 전문가 200여명이 참석한 것으로 알려졌다. , Figure Spirit Award 수상자 Geoffrey Hinton 및 Yann LeCun 등이 있습니다. 그들은 모두 AI의 발전과 과제에 대한 자신의 견해를 표명했습니다.
(출처: 데이터 맵)
"인공 신경망은 곧 실제 신경망보다 더 똑똑해질 것인가?" 힌튼은 연설에서 이러한 질문을 주로 다루었습니다.
(출처: 데이터 맵)
지침을 정확하게 따르는 능력은 전통적인 컴퓨팅에서 컴퓨터의 핵심입니다. 이 기능으로 인해 사용자는 동일한 프로그램이나 신경망을 사용할 때 다른 하드웨어를 선택할 수 있습니다. 이는 프로그램의 신경망 가중치와 하드웨어 사이에 종속성이 없음을 보여줍니다.
"그들이 지침을 따르는 이유는 우리가 문제를 살펴보고, 문제를 해결하는 데 필요한 단계를 결정한 다음, 컴퓨터에 해당 단계를 수행하기 위한 패턴을 알려주도록 설계되었기 때문입니다."라고 Hinton은 말했습니다.
저비용으로 대규모 언어 모델을 훈련시키기 위해 그는 '제한적 컴퓨팅'을 제안했는데, 이는 기존 컴퓨팅에서 하드웨어와 소프트웨어를 분리하는 기본 원칙을 버리고 하드웨어 시뮬레이션을 기반으로 컴퓨팅 작업을 효율적으로 수행하는 것을 의미합니다.
그러나 이 접근 방식에는 두 가지 주요 문제가 있습니다.
첫째, "학습 프로세스는 실행되는 하드웨어 구성 요소의 특정 시뮬레이션 속성을 활용해야 하는데, 우리는 이러한 속성이 무엇인지 정확히 알지 못합니다."라고 Hinton은 말했습니다.
둘째, 이 방법은 제한적입니다. "지식은 하드웨어 세부 사항과 밀접하게 연결되어 있기 때문에 특정 하드웨어 장치에 오류가 발생하면 얻은 모든 지식이 손실됩니다."라고 Hinton은 설명합니다. ”
위의 문제를 해결하기 위해 그와 그의 동료들은 "증류법"을 비롯한 다양한 방법을 시도했는데 매우 효과적이었습니다.
그는 또한 에이전트 그룹이 지식을 공유하는 방식이 컴퓨팅의 많은 요소에 영향을 미칠 것이라고 지적했습니다. 즉, 현재 대형 언어 모델은 엄청난 양의 지식을 학습할 수 있는 것처럼 보이지만 주로 문서 학습을 통해 지식을 습득하고 현실 세계에서 직접 학습할 수 있는 능력이 없기 때문에 학습 방법이 매우 비효율적이라는 의미입니다.
비디오 모델링과 같은 비지도 학습 모델을 사용하면 효율적으로 학습할 수 있습니다. Hinton에 따르면 이러한 디지털 에이전트가 활성화되면 인간보다 학습 능력이 뛰어나고 매우 빠르게 학습할 수 있습니다. ”
이러한 발전 추세를 따른다면 지능형 에이전트는 곧 인간보다 더 똑똑해질 것입니다. 그러나 이는 또한 에이전트와 인간 간의 통제권 투쟁, 윤리 및 안전 문제와 같은 많은 과제를 가져올 것입니다.
"향후 10년 안에 일반 인공 지능(AGI) 시스템이 1990년대 초반 인간이 가졌던 전문 지식 수준을 넘어설 것이라고 상상해 보세요."
Zhiyuan Research Institute의 Zhang Hongjiang 회장과의 연설 및 Q&A 세션에서 그는 AGI 안전 증진의 중요성과 전략에 대해 논의했습니다.
(출처: 데이터 맵)
무분별한 개발과 배치로 인해 발생할 수 있는 문제에 대해서는 책임을 져야 한다”고 알트만은 “포용적인 국제 규범과 표준 확립과 국제 협력을 통한 AGI 보안 시스템 구축 촉진”이라는 두 가지 방향을 지적했다.
현재로서는 진정으로 안전하고 도움이 되는 인간 보조자가 될 수 있도록 대규모 언어 모델을 훈련하는 방법이 해결해야 할 주요 문제입니다.
이와 관련해 울트라맨은 몇 가지 해결책을 제안했습니다.
먼저, 인간이 다른 AI 시스템을 감독하는 데 도움을 줄 수 있는 모델을 훈련하는 등 확장 가능한 감독에 투자하세요.
둘째, 모델의 해석 가능성을 더욱 향상시키기 위해 기계 학습 기술을 계속 업그레이드합니다.
우리의 궁극적인 목표는 AI 시스템이 스스로를 더 잘 최적화할 수 있도록 하는 것입니다. Altman은 "미래 모델이 점점 더 스마트해지고 강력해짐에 따라 AI의 특별한 이점을 실현하면서 위험을 줄이는 더 나은 학습 기술을 찾을 것"이라고 말했습니다. ”
Yang Likun과 Altman은 현재 AI가 가져오는 위험을 처리하는 방법에 대해 동일한 견해를 가지고 있습니다. 이 문장은 다음과 같이 다시 쓸 수 있습니다. "이러한 위험이 존재하는 동안 신중한 엔지니어링 설계를 통해 완화하거나 제어할 수 있습니다." ”
그러나 항상 GPT형 대형 모델에 반대해 온 전문가인 양리쿤은 '학습하고 생각하고 계획할 수 있는 기계를 향하여'라는 제목의 연설에서 자기 지도 학습으로 대표되는 AI 시스템의 장점과 단점을 명확히 지적했습니다.
(출처: 데이터 맵)
자연어 처리 및 생성에 있어 매우 강력한 효과를 보여주었지만 인간이나 동물처럼 추론하고 계획하는 능력이 없기 때문에 필연적으로 사실 오류, 논리적 오류, 가치 오류 등이 발생할 수 있습니다. 문제.
이를 바탕으로 Yang Likun은 AI가 향후 몇 년 동안 세 가지 주요 과제에 직면할 것이라고 믿습니다. 즉, 세계 표현 및 예측을 위한 모델 학습, 추론 기능 학습, 복잡한 작업을 간단한 작업으로 분해하여 계층화하는 방법 학습입니다.
또한 그는 월드 모델이 AGI로 가는 길의 핵심이라는 생각을 제안했습니다.
그가 보기에 세계 모델은 미래에 일어날 일을 상상할 수 있고 최소한의 비용으로 자체 예측을 할 수 있는 시스템입니다.
시스템은 세계의 현재 상태를 처리하기 위해 메모리에 저장될 수 있는 이전 세계관을 활용하여 작동합니다. 그런 다음 세계 모델을 사용하여 세계가 어떻게 진행되고 어떤 일이 일어날지 예측합니다. "양리쿤이 말했다.
그렇다면 이 월드 모델을 어떻게 구현할까요? "우리는 다양한 수준의 예측 변수를 사용하여 세계의 인코더 및 모델 체인을 통해 세계 상태에 대한 점점 더 추상적인 표현을 추출하는 계층화된 시스템을 보유하고 있습니다."라고 그는 말했습니다.
간단히 말하면 복잡한 작업을 밀리초 단위로 분해하고 계획하여 완료하는 것을 의미합니다. 명확하게 말하면, 비용을 통제하고 표준을 최적화할 수 있는 시스템이 마련되어 있어야 합니다.
요약하자면, 세 전문가는 AI에 대해 서로 다른 견해와 의견을 갖고 있지만, 모두 AI의 발전이 대세로 자리잡았다고 진술한 것을 알 수 있습니다. 울트라맨이 말했듯이 우리는 AI의 발전을 막을 수 없습니다.
이를 바탕으로 어떻게 AI를 발전시킬 수 있는 더 나은 방법을 찾고, AI가 가져올 수 있는 일련의 위험과 피해를 억제하며, 최종적으로 AGI의 종말을 향해 나아가는지가 다음 단계에서 사람들이 집중해야 할 주요 방향이 될 것입니다.
위 내용은 토론: Ultraman, Hinton 및 Yang Likun의 AI에 대한 OpenAI의 의견에는 어떤 차이가 있습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!