지난 10년 동안 거대 기술 기업은 언어, 예측, 개인화, 보관, 텍스트 구문 분석, 데이터 처리 등 다양한 기술에 매우 능숙해졌습니다. 그러나 유해한 콘텐츠를 포착하고, 표시하고, 제거하는 데는 여전히 형편 없습니다. 미국에 퍼지고 있는 선거와 백신 음모론의 경우, 그것이 야기하고 있는 실제 피해를 이해하려면 지난 2년간의 사건을 되돌아보기만 하면 됩니다.
이 차이점은 몇 가지 질문을 제기합니다. 기술 회사가 콘텐츠 조정을 개선하지 않는 이유는 무엇입니까? 강제로 그렇게 할 수 있습니까? 인공 지능의 새로운 발전으로 나쁜 정보를 포착하는 능력이 향상될까요?
대부분의 기술 회사는 미국 의회에서 증오와 잘못된 정보 확산에 대한 설명을 요청받을 때 자신의 실패를 언어 자체의 복잡성으로 비난하는 경향이 있습니다. 경영진은 서로 다른 언어와 상황에서 발생하는 상황에 맞는 증오심 표현을 이해하고 예방하는 것이 어려운 일이라고 말합니다.
Mark Zuckerberg가 가장 좋아하는 말 중 하나는 기술 회사가 전 세계의 모든 정치적 문제를 해결하는 데 책임을 져서는 안 된다는 것입니다.
(출처: STEPHANIE ARNETT/MITTR | GETTY IMAGES)
현재 대부분의 회사는 기술 및 인간 콘텐츠 중재자를 모두 사용하고 있으며, 후자의 업무는 과소평가되어 있으며 이는 낮은 급여에 반영됩니다.
예를 들어 AI는 현재 Facebook에서 삭제되는 모든 콘텐츠의 97%를 담당하고 있습니다.
그러나 Stanford Internet Observatory의 연구 관리자인 Renee DiResta는 AI가 뉘앙스와 맥락을 잘 해석하지 못하기 때문에 인간 콘텐츠 조정자를 완전히 대체할 가능성은 낮으며 인간조차도 이러한 사항을 항상 잘 설명하는 것은 아니라고 말했습니다. .
자동 콘텐츠 조정 시스템은 일반적으로 영어 데이터를 기반으로 훈련되기 때문에 문화적 배경과 언어도 문제를 야기하므로 다른 언어로 된 콘텐츠를 효과적으로 처리하기가 어렵습니다.
UC Berkeley 정보대학원의 Hani Farid 교수는 좀 더 명확한 설명을 제공합니다. Farid에 따르면 콘텐츠 조정은 기술 회사의 금전적 이익에 부합하지 않기 때문에 위험을 감당할 수 없습니다. 그것은 모두 탐욕에 관한 것입니다. 돈이 아닌 척 하지 마세요. ”
연방 규제가 없기 때문에 온라인 폭력 피해자가 플랫폼에 재정적 책임을 요구하기는 어렵습니다.
콘텐츠 조정은 기술 회사와 악당 사이의 끝없는 전쟁인 것 같습니다. 기술 회사가 콘텐츠 조정 규칙을 시행할 때 악의적인 행위자는 탐지를 피하기 위해 이모티콘이나 의도적인 철자 오류를 사용하는 경우가 많습니다. 그러면 이들 기업은 허점을 막으려고 노력하고, 사람들은 새로운 허점을 찾아내는 순환이 계속됩니다.
이제 대규모 언어 모델이 등장합니다...
현재 상황은 이미 매우 어렵습니다. 생성적 인공지능과 ChatGPT 등 대규모 언어 모델의 등장으로 상황은 더욱 악화될 수도 있다. 생성 기술에는 자신있게 사물을 구성하고 사실로 제시하는 경향과 같은 문제가 있지만 한 가지는 분명합니다. AI는 언어 능력이 매우 강력해지고 있다는 것입니다.
DiResta와 Farid 모두 조심스럽기는 하지만 상황이 어떻게 전개될 것인지 판단하기에는 아직 이르다고 생각합니다. GPT-4 및 Bard와 같은 많은 대형 모델에는 콘텐츠 조정 필터가 내장되어 있지만 여전히 증오심 표현이나 폭탄 제조 방법에 대한 지침과 같은 유해한 출력을 생성할 수 있습니다.
제너레이티브 AI를 사용하면 악의적인 행위자가 더 큰 규모와 속도로 허위 정보 캠페인을 수행할 수 있습니다. AI 생성 콘텐츠를 식별하고 라벨을 지정하는 방법이 비참할 정도로 부적절하다는 점을 고려하면 이는 끔찍한 상황입니다.
한편, 최신 대규모 언어 모델은 이전 인공 지능 시스템보다 텍스트 해석 성능이 더 좋습니다. 이론적으로는 자동화된 콘텐츠 조정 개발을 촉진하는 데 사용될 수 있습니다.
기술 회사는 이 특정 목표를 달성하기 위해 대규모 언어 모델을 재설계하는 데 투자해야 합니다. Microsoft와 같은 회사가 이 문제를 조사하기 시작했지만 아직 중요한 활동은 없습니다.
Farid는 다음과 같이 말했습니다. "많은 기술 발전을 보았지만 콘텐츠 조정의 개선에는 회의적입니다."
대규모 언어 모델이 빠르게 발전하고 있지만 여전히 맥락 이해에 어려움을 겪고 있습니다. 이로 인해 게시물과 이미지 간의 미묘한 차이를 인간 조정자만큼 정확하게 이해하지 못할 수 있습니다. 문화 간 확장성과 특수성도 문제를 야기합니다. DiResta는 "특정 유형의 틈새 시장에 대한 모델을 배포합니까? 국가별로 수행합니까? 커뮤니티별로 수행합니까? 이는 일률적인 질문이 아닙니다"라고 DiResta는 말했습니다.
신기술을 기반으로 한 새로운 도구
생성 AI가 궁극적으로 온라인 정보 환경에 해를 끼치거나 도움이 되는지 여부는 기술 회사가 콘텐츠가 AI에 의해 생성되었는지 여부를 알려주는 훌륭하고 널리 채택된 도구를 생각해 낼 수 있는지 여부에 크게 좌우될 수 있습니다.
DiResta는 합성 매체를 탐지하는 것이 기술적으로 어려운 일이기 때문에 우선순위를 두어야 한다고 말했습니다. 여기에는 첨부된 콘텐츠가 인공 지능에 의해 생성되었다는 영구적인 표시로 코드 조각을 삽입하는 것을 의미하는 디지털 워터마킹과 같은 방법이 포함됩니다. AI가 생성하거나 조작한 게시물을 탐지하는 자동화된 도구는 워터마크와 달리 AI 생성 콘텐츠 작성자의 적극적인 태그가 필요하지 않기 때문에 매력적입니다. 즉, 기계 생성 콘텐츠를 식별하려는 현재 도구는 제대로 작동하지 않습니다.
일부 회사에서는 콘텐츠 생성 방법과 같은 정보의 암호화 서명을 안전하게 기록하기 위해 수학을 사용할 것을 제안하기도 했지만 이는 워터마크와 같은 자발적 공개 기술에 의존합니다.
지난 주 유럽 연합이 제안한 최신 버전의 인공 지능법(AI Act)에서는 생성 인공 지능을 사용하는 회사가 콘텐츠가 실제로 기계 생성된 경우 사용자에게 알리도록 요구합니다. AI 생성 콘텐츠의 투명성에 대한 요구가 증가함에 따라 앞으로 몇 달 안에 새로운 도구에 대해 더 많이 듣게 될 것입니다.
지원: 렌
원문:
https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/
위 내용은 빅모델 시대, 부적절한 콘텐츠를 어떻게 잡아낼 것인가? EU 법안은 AI 회사가 사용자의 알 권리를 보장하도록 요구합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!