>  기사  >  기술 주변기기  >  AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

王林
王林앞으로
2023-10-11 08:37:01775검색

편집자: Du Wei, Xiaozhou

AI, 특히 대형모델 시대의 오픈소스와 클로즈드소스에는 장단점이 있다. 중요한 것은 이를 활용하는 과정에서 어떻게 일을 잘하느냐이다.

AI 분야에서 오픈소스와 클로즈드소스 중 하나를 선택하는 데 있어 사람들은 항상 의견이 갈렸습니다. 그러나 대형 모델 시대에 오픈소스의 강력한 힘은 조용히 나타났습니다. 이전에 유출된 Google 내부 문서에 따르면 Meta의 LLaMA와 같은 오픈 소스 모델을 중심으로 전체 커뮤니티가 OpenAI 및 Google의 대규모 모델 기능과 유사한 모델을 빠르게 구축하고 있습니다.

최근 Llama 2 출시 등 지속적인 오픈소스 노력으로 메타가 오픈소스 세계의 절대적인 핵심이라는 점에는 의심의 여지가 없습니다. 하지만 좋은 것이라면 뭐든 바람에 망가집니다. 최근 메타는 오픈소스 때문에 '곤경'에 빠졌습니다.

샌프란시스코에 있는 Meta 사무실 밖에는 AI 모델을 공개하려는 Meta의 전략에 항의하기 위해 피켓을 들고 모인 시위대가 출시된 모델이 잠재적으로 안전하지 않은 기술의 “돌이킬 수 없는 확산”을 초래했다고 주장했습니다. 일부 시위자들은 메타가 출시한 대형 모델을 '대량살상무기'에 비유하기도 했습니다

이 시위자들은 스스로를 "우려하는 시민"이라고 부르며 홀리 엘모어(Holly Elmore)가 이끌고 있습니다. LinkedIn에 따르면 그녀는 AI 일시 중지 운동을 독립적으로 옹호하고 있습니다.

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

다시 작성해야 하는 내용은 다음과 같습니다. 이미지 출처: MISHA GUREVICH

모델이 안전하지 않은 것으로 판명되면 API가 종료될 수 있다고 언급했습니다. 예를 들어 Google 및 OpenAI와 같은 회사에서는 사용자가 API를 통해서만 대규모 모델에 액세스하도록 허용합니다

반면, Meta의 LLaMA 오픈 소스 모델 시리즈는 모델 가중치를 대중에게 공개하므로 적절한 하드웨어와 전문 지식을 갖춘 사람이라면 누구나 모델을 직접 복제하고 조정할 수 있습니다. 모델 가중치가 게시되면 게시 회사는 더 이상 AI 사용 방법을 제어할 수 없습니다

Holly Elmore의 의견에 따르면 모델 가중치를 공개하는 것은 위험한 전략입니다. 누구나 모델을 수정할 수 있으며 이러한 모델은 취소할 수 없습니다. "모델이 강력할수록 이 전략은 더욱 위험해집니다."

오픈 소스 모델과 비교하여 API를 통해 액세스하는 대규모 모델에는 위험하거나 성가신 응답의 출력을 방지하기 위한 응답 필터링 또는 특정 교육과 같은 다양한 보안 기능이 있는 경우가 많습니다

모델 가중치가 해제되면 이러한 "가드레일"을 뛰어넘도록 모델을 재교육하는 것이 훨씬 쉬워집니다. 이로 인해 이러한 오픈 소스 모델을 사용하여 피싱 소프트웨어를 만들고 네트워크 공격을 수행하는 것이 더 가능해졌습니다.

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

다시 작성해야 하는 내용은 다음과 같습니다. 이미지 출처: MISHA GUREVICH

그녀는 모델 보안의 문제 중 하나는 현재 취해진 보안 조치가 충분하지 않기 때문에 모델 보안을 보장하기 위한 더 나은 방법을 찾아야 한다는 것이라고 생각합니다

현재 메타에서는 이에 대해 코멘트를 하지 않았습니다. 하지만 메타의 수석 AI 과학자 얀 르쿤(Yann LeCun)은 “오픈소스 AI는 불법화되어야 한다”는 발언에 반응한 것으로 보이며 파리에서 번창하는 오픈소스 AI 스타트업 커뮤니티를 보여주었습니다

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

많은 사람들이 서로 다른 의견을 갖고 있으며, AI 개발을 위한 개방형 전략만이 기술에 대한 신뢰를 보장할 수 있는 유일한 방법이라고 믿고 있는데, 이는 홀리 엘모어의 견해와 다릅니다

일부 네티즌들은 오픈 소스에 장단점이 있다고 말했습니다. 이를 통해 사람들은 더 큰 투명성을 얻고 혁신을 강화할 수 있지만 악의적인 행위자에 의해 오용(코드 등)될 위험도 직면하게 됩니다.

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

예상대로 OpenAI는 “오픈소스로 돌아가야 한다”는 말과 함께 또다시 조롱을 받았습니다.

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함

오픈소스에 대해 걱정하시는 분들이 많으세요

MIT 인공지능 보안 박사후 연구원 피터 S. 박은 인공지능 모델의 남용을 완전히 방지하는 것은 기본적으로 불가능하기 때문에 앞으로 첨단 인공지능 모델이 널리 출시되면 많은 문제가 발생할 수 있다고 말했습니다

그러나 비영리 인공지능 연구기관인 EleutherAI의 전무이사인 Stella Biderman은 “아직까지 오픈소스 모델이 특정 피해를 입혔다는 증거는 거의 없다. API가 보안 문제를 해결해 줄 것입니다."

Biderman은 다음과 같이 믿습니다. "LLM 구축의 기본 요소는 누구나 자신의 모델을 개발하기 위해 읽을 수 있는 무료 연구 논문에 공개되었습니다."

그녀는 또한 다음과 같이 지적했습니다. "회사에서 모델 세부 사항의 기밀성을 권장한다면 특히 독립적인 연구자의 경우 현장 연구의 투명성, 대중 인식 및 과학적 발전에 심각한 악영향을 미칠 수 있습니다."

이미 모두가 오픈소스의 영향에 대해 논의하고 있지만, Meta의 방식이 실제로 충분히 개방적인지, 오픈소스를 활용할 수 있는지는 여전히 불분명합니다.

오픈소스 이니셔티브(OSI)의 스테파노 마풀리(Stefano Maffulli) 이사는 “오픈소스 인공지능의 개념은 아직 명확하게 정의되지 않았다”며 “조직마다 이 용어를 사용하여 다양한 사물을 지칭하는데, 이는 ‘공개적으로 이용 가능한’ 정도가 다양하다는 것을 의미한다”고 말했다. 사람들을 혼란스럽게 할 수도 있습니다.”

AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함Maffulli는 오픈 소스 소프트웨어의 경우 소스 코드가 공개되어 어떤 목적으로든 사용할 수 있는지 여부가 핵심 문제라고 지적했습니다. 그러나 AI 모델을 재현하려면 훈련 데이터, 데이터 수집 방법, 훈련 소프트웨어, 모델 가중치, 추론 코드 등을 공유해야 할 수 있습니다. 그중에서도 가장 중요한 문제는 학습 데이터에 개인정보 보호 및 저작권 문제가 포함될 수 있다는 것입니다

OSI는 작년부터 "오픈 소스 AI"의 정확한 정의를 연구해 왔으며 앞으로 몇 주 안에 초기 초안을 발표할 예정입니다. 그러나 그는 오픈 소스가 AI 개발에 매우 ​​중요하다고 믿습니다. "AI가 오픈 소스가 아니면 신뢰할 수 있고 책임감 있는 AI를 가질 수 없습니다."라고 그는 말했습니다.

앞으로도 오픈소스와 클로즈드소스의 차이는 계속되겠지만, 오픈소스는 막을 수 없습니다.

위 내용은 AI가 통제를 벗어날 위험 증가: 개방형 모델 가중치로 인해 메타 항의가 발생함의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 sohu.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제