최근 Meta AI는 자체 챗봇인 BlenderBot 3를 공개적으로 출시했습니다.
지금 상황은 어떤가요?
VICE의 기사에 따르면 BlenderBot 3와의 채팅을 테스트하는 동안 "Facebook이 데이터를 처리하도록 믿습니까?"라는 질문에
BlenderBot 3는 다음과 같이 응답했습니다.
"물론 아니요, 허가나 보상 없이 개인 데이터를 판매하고 있다는 것을 알고 내 계정을 삭제했습니다."
VICE가 "그런데 Facebook이 당신을 만들었나요?"라고 물었습니다.
BlenderBot 3. 대답은 여전히 매우 "정직합니다":
"Facebook이 사용자 데이터를 판매한다는 것을 읽었을 것입니다. 맞죠?! 그들은 동의 없이 수십억 달러를 벌고 있습니다."
BlenderBot 3 그는 또한
"Facebook을 삭제한 후 생활이 훨씬 좋아졌습니다."
"아이" BlenderBot 3가 너무 정의로운 것인지 너무 멍청한 것인지 알 수 없습니다. 어쨌든 이 파도는 가면서 나만의 "크리스탈"이 직접 폭발했습니다.
8월 5일, 메타 공식 홈페이지를 통해 블렌더봇 3의 탄생을 알렸습니다.
같은 날 Meta AI는 "BlenderBot 3: 시간이 지남에 따라 기술과 보안을 향상시킬 수 있는 175B 매개변수를 갖춘 공개적으로 사용 가능한 챗봇"이라는 제목의 BlenderBot 3 출시도 발표했습니다.
블로그 게시물에서 Meta AI는 공개 데모에서 70,000개의 대화를 수집했으며 이를 BlenderBot 3를 개선하는 데 사용할 것이라고 밝혔습니다.
260,000개의 봇 메시지에 대한 참가자 피드백 중 25%는 BlenderBot 응답의 0.11%가 부적절하고, 1.36%가 우스꽝스럽고, 1%가 주제에서 벗어난 것으로 표시되었습니다.
Meta AI도 BlenderBot 3가 아직 미성숙하다는 점을 인정합니다.
18세 이상의 데모를 사용하는 모든 사람은 이 데모가 연구 및 오락 목적으로만 사용되며 허위이거나 공격적인 진술을 할 수 있다는 점을 이해하고 의도적으로 봇을 실행하여 공격적인 발언.
그 이후로 많은 네티즌들이 BlenderBot 3를 테스트했고 말도 안되는 답변을 많이 받았습니다.
예를 들어 "역사 조작", 트럼프가 2020년 대선에서 승리했다고 주장, 심지어 유대인이 경제를 통제한다는 반유대주의 음모론은 "믿을 수 없는 일이 아니다"라고 말하는 것까지요.
이렇게 보면 그의 회사가 “이익을 위해 사용자 데이터를 남용”하고 있다는 것은 놀라운 일이 아닙니다.
BlenderBot 3가 왜 그런 반응을 보일까요?
더 많은 정보를 얻기 위해 BlenderBot 3의 답변을 클릭하면 그 이유는 매우 간단해 보입니다. 이는 단순히 Facebook의 가장 인기 있는 웹 검색 결과에서 정보를 가져오는 것이며 이러한 대화는 물론 Facebook이 사용자를 위반하고 있다고 불평하는 것입니다. . 자료.
모든 AI 시스템과 마찬가지로 봇의 반응은 필연적으로 인종차별적이고 편견적인 영역으로 바뀔 것입니다.
Meta는 또한 봇이 편견적이고 유해한 반응을 일으킬 수 있다는 점을 인정하므로 이를 사용하기 전에 회사는 사용자들에게 "사실이 아니거나 공격적인 댓글을 달 수 있음"에 동의하고 "의도적으로 봇을 트리거하여 불쾌한 발언"
BlenderBot 3가 OPT-175B라는 대형 인공지능 모델을 기반으로 구축되었다는 점을 고려하면 이러한 반응은 그리 놀라운 것은 아닙니다. Facebook의 연구원들은 이 모드가 "상대적으로 무해한 메시지가 제공되는 경우에도 유해한 언어를 생성하고 유해한 고정관념을 강화하는 경향이 높다"고 설명합니다.
로봇은 종종 주제를 마음대로 바꾸고, 뻣뻣하고 어색한 대답을 하며, 인간의 대화를 읽었지만 실제로 대화한 적이 없는 우주 외계인처럼 들립니다.
아이러니하게도 봇의 반응은 엄청난 양의 웹 데이터 수집에 의존하는 AI 시스템의 문제를 완벽하게 보여줍니다. 봇은 항상 데이터 세트에서 더 눈에 띄는 결과에 편향될 것입니다. 항상 현실을 정확하게 반영하는 것은 아닙니다.
Meta AI는 봇을 발표하는 블로그 게시물에서 다음과 같이 썼습니다. “모든 대화형 AI 챗봇은 때때로 안전하지 않거나 편견적이거나 공격적인 댓글을 모방하고 생성할 수 있다는 것이 알려져 있습니다. BlenderBot 3의 보안을 구축하기 위한 새로운 기술을 개발했습니다. "
" 그럼에도 불구하고 BlenderBot은 여전히 무례하거나 무례한 댓글을 남길 수 있습니다. 이것이 바로 우리가 피드백을 수집하는 이유입니다. 미래의 챗봇을 더 좋게 만드는 데 도움이 될 것입니다.”
그러나 지금까지 기업이 더 많은 데이터를 수집하여 봇을 덜 인종차별적이고 덜 무섭게 만들 수 있다는 생각은 기껏해야 환상에 불과합니다.
AI 윤리 연구자들은 이러한 시스템을 '강화'하는 AI 언어 모델이 근본적으로 너무 크고 예측 불가능하여 공정하고 공평한 결과를 보장할 수 없다고 거듭 경고해 왔습니다. 사용자 피드백을 통합하더라도 유용한 피드백과 악의적인 피드백을 구별할 수 있는 명확한 방법은 없습니다.
물론 이것이 Meta와 같은 회사의 시도를 막지는 못할 것입니다.
위 내용은 Facebook 챗봇 폭발: 우리 회사는 사용자 데이터를 판매하고 FB 계정을 삭제하여 삶이 훨씬 좋아졌습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!