AI 분야에서는 오픈 소스와 폐쇄 소스를 선택하는 데 오랫동안 사람들이 나뉘어 왔습니다. 그러나 대형 모델 시대에 오픈소스는 조용히 강력한 힘으로 떠올랐다. 앞서 유출된 구글 내부 문서에 따르면 커뮤니티 전체가 메타를 중심으로 LLaMA 등 오픈소스 모델을 포함해 OpenAI 및 구글의 대규모 모델과 유사한 모델을 빠르게 구축하고 있다고 한다
그 중심에는 메타가 있다는 것은 의심의 여지가 없다. 오픈소스계의 에서는 최근 출시된 Llama 2 등 오픈소스의 대의명분을 알리기 위해 지속적인 노력을 기울여 왔습니다. 그러나 우리 모두 알고 있듯이 큰 나무에는 죽은 가지가 있어야 하는데, 최근 메타가 오픈소스 때문에 큰 어려움을 겪고 있습니다
메타 샌프란시스코 사무실 밖에는 팻말을 들고 메타의 전략에 항의하는 시위대가 모였습니다. AI 모델을 공개적으로 공개하며 이러한 공개된 모델이 잠재적으로 안전하지 않은 기술의 "돌이킬 수 없는 확산"을 초래했다고 주장합니다. 일부 시위자들은 메타가 공개한 대형 모델을 '대량살상무기'에 비유하기도 했다.
이 시위자들은 스스로를 "우려하는 시민"이라고 부르며 홀리 엘모어(Holly Elmore)가 이끌고 있습니다. LinkedIn에 따르면 그녀는 AI 일시 중지 운동을 독립적으로 옹호하고 있습니다.
다시 작성해야 하는 내용은 다음과 같습니다. 이미지 출처: MISHA GUREVICH
모델이 안전하지 않은 것으로 판명되면 Google 및 OpenAI와 같은 API를 끌 수 있음을 지적했습니다. 사용자는 API 모델을 통해서만 대규모 데이터에 액세스할 수 있습니다.
이와 대조적으로 Meta의 LLaMA 오픈 소스 모델 시리즈는 모델 가중치를 대중에게 제공하므로 적절한 하드웨어와 전문 지식을 갖춘 사람이라면 누구나 모델 가중치를 복제하고 조정할 수 있습니다. 스스로 모델이 됩니다. 모델 가중치가 공개되면 출판사는 더 이상 AI가 사용되는 방식을 제어할 수 없습니다.
홀리 엘모어에게 모델 가중치 공개는 누구나 이러한 모델을 수정할 수 있고 실행 취소할 수 있는 방법이 없기 때문에 위험한 전략입니다. 그 수정. 그녀는 "모델이 강력할수록 이 전략은 더 위험하다"고 믿습니다.
오픈 소스에 비해 API를 통해 액세스되는 대규모 모델에는 출력이 위험하지 않도록 응답 필터링 또는 특정 교육과 같은 다양한 보안 기능이 있는 경우가 많습니다. 또는 역겨운 반응
모델 가중치를 해제할 수 있다면 이러한 "가드레일"을 뛰어넘도록 모델을 재교육하는 것이 더 쉬울 것입니다. 이로 인해 이러한 오픈 소스 모델을 사용하여 피싱 소프트웨어를 만들고 사이버 공격을 수행하는 것이 더 가능해졌습니다
다시 작성해야 할 내용은 다음과 같습니다. 이미지 출처: MISHA GUREVICH
왜냐하면 그녀는 그 부분을 믿기 때문입니다. 문제는 "모델 출시에 대한 보안 조치가 충분하지 않다"는 점이며 모델 보안을 보장하는 더 나은 방법이 필요합니다.
현재 메타에서는 이에 대해 댓글을 달지 않았습니다. 그러나 메타 수석 AI 과학자 얀 르쿤(Yann LeCun)은 "오픈소스 AI는 불법화되어야 한다"는 발언에 대응해 파리에서 번창하는 오픈소스 AI 스타트업 커뮤니티를 보여준 것으로 보인다
홀리 엘모어(Holly Elmore)에 반대하는 사람들도 많다. AI 개발을 위한 개방형 전략만이 기술에 대한 신뢰를 보장할 수 있는 유일한 방법이라고 믿는 사람들입니다.
일부 네티즌들은 오픈 소스에 장단점이 있다고 말했습니다. 이를 통해 사람들은 더 큰 투명성을 얻고 혁신을 강화할 수 있지만 악의적인 행위자에 의해 오용(코드 등)될 위험도 직면하게 됩니다.
역시 OpenAI는 "오픈소스로 돌아가야 한다"는 비판을 다시 받고 있습니다.
MIT 인공지능 보안 박 박사후 연구원은 AI 모델의 오용을 방지하는 것이 기본적으로 불가능하기 때문에 향후 고급 AI 모델이 널리 출시되면 특별한 문제가 발생할 것이라고 말했습니다. 그러나 비영리 인공 지능 기업인 EleutherAI의 전무이사는 정보 연구 기관인 Stella Biderman은 "지금까지 오픈 소스 모델이 특정한 피해를 입힌다는 증거는 거의 없습니다. 단순히 API 뒤에 모델을 배치하는 것만으로도 보안 문제가 해결될지는 확실하지 않습니다."라고 말했습니다.
Biderman은 다음과 같이 믿습니다. 빌드 LLM의 기본 요소는 전 세계 누구나 읽을 수 있는 무료 연구 논문을 통해 공개되어 자신만의 모델을 개발할 수 있습니다."
그녀는 또한 다음과 같이 덧붙였습니다. "모델 세부 사항을 비밀로 유지하도록 기업을 장려하는 것은 특히 독립적인 연구자들에게 해당 분야 연구의 투명성, 대중 인식 및 과학 발전에 심각한 악영향을 미칠 수 있습니다." 하지만 Meta의 접근 방식이 실제로 충분히 개방적인지, 오픈 소스를 활용할 수 있는지 여부는 여전히 불분명합니다.
오픈 소스 이니셔티브(OSI)의 전무이사인 스테파노 마풀리(Stefano Maffulli)는 다음과 같이 말했습니다. "오픈 소스 AI의 개념은 제대로 정의되지 않았습니다. 조직마다 이 용어를 사용하여 다양한 사물을 지칭합니다. "사람들을 혼란스럽게 하는 "사물". "
Maffulli는 오픈 소스 소프트웨어의 경우 소스 코드가 공개적으로 사용 가능하고 어떤 목적으로든 재현 가능한지 여부가 핵심 문제라고 지적했습니다. 그러나 AI 모델을 재현하려면 훈련 데이터, 데이터 수집 방법, 훈련 소프트웨어, 모델 가중치, 추론 코드 등을 공유해야 할 수 있습니다. 그중 가장 중요한 것은 훈련 데이터에 개인 정보 보호 및 저작권 문제가 포함될 수 있다는 점입니다.
OSI는 작년부터 '오픈 소스 AI'에 대한 정확한 정의를 내리기 위해 노력해 왔으며, 내년에 초기 초안을 발표할 예정입니다. 몇 주. 그러나 그는 오픈 소스가 AI 개발에 매우 중요하다고 믿습니다. 그는 “AI가 오픈소스가 아니면 신뢰할 수 있고 책임감 있는 AI를 가질 수 없다”고 말했다.
앞으로도 오픈소스와 클로즈드소스의 차이는 계속되겠지만, 오픈소스는 막을 수 없습니다.
위 내용은 통제 불능 AI의 위험은 Meta에서 서명 시위를 촉발시켰고 LeCun은 오픈 소스 AI 커뮤니티가 호황을 누리고 있다고 말했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!