1995년생 소녀가 온라인에 블로그 글을 올렸다가 자살했습니다.
이 부드러운 블로그 게시물이 공개된 후 주인공 Zheng Linghua는 많은 루머와 욕설에 직면했습니다.
어떤 사람들은 그녀의 정체를 의심하고 그녀가 핑크색이라는 이유만으로 그녀가 "바텐더"라는 소문을 퍼뜨렸습니다. 어떤 사람들은 그녀가 "젊고 오래된 사랑", "찰리우", "거짓말쟁이"라는 소문을 퍼뜨렸습니다. 그녀에 대한 소문을 퍼뜨리세요. 할아버지의 병을 이용하여 돈을 벌어보세요.
너무 못생겼어요. 많은 언론이 이 소문을 반박했지만 정링화는 자신의 권리를 보호하기 위해 법적 무기를 썼음에도 불구하고 사과를 받지 못했습니다.
결국 정링화는 우울증에 시달려 얼마 전 생을 마감했습니다.
이러한 일들은 인터넷에서 여러 번 일어났습니다. 온라인 세계에 스며드는 이런 종류의 "끔찍한 말"은 사람들을 혐오감을 느끼게 할 뿐만 아니라 심지어 사람들의 생명을 앗아갈 수도 있습니다. 행동 - —사이버 폭력, "사이버 폭력"이라고 함.
그렇다면 AI가 이미 인간과 유창하게 소통할 수 있는 오늘날, AI가 사이버 잔혹 행위를 식별하는 역할을 할 수 있을까요?
대부분의 인터넷 플랫폼이 특정 음성을 식별하는 일부 시스템을 출시했지만 이러한 시스템의 대부분은 키워드만 감지하고 탐지합니다. 삭제는 분명히 충분히 똑똑하지 않으며 약간의 주의만 기울이면 이러한 제한을 우회할 수 있습니다.
사실 온라인 폭력 발언을 정확하게 식별하려면 두 가지가 필요합니다.
가장 먼저 주목해야 할 것은 사이버 폭력 발언의 내용입니다. 인터넷상의 대부분의 편지와 메시지는 세분화되어 있으며, 대화 중에 사이버 폭력이 점차 심각해지고 결국 부정적인 결과로 이어지는 경우가 많기 때문입니다. .
두 번째로 우려되는 점은 속도입니다. 결국 인터넷 환경에서는 처리할 데이터가 너무 많아 탐지 시간이 오래 걸리면 시스템이 실용성이 없어 채택되지 않습니다. .
영국의 한 연구팀은 이 두 가지 과제를 극복하는 BiCapsHate라는 새로운 인공 지능 모델을 개발했습니다. 그 결과는 1월 19일 IEEE Transactions on Computational의 Social Systems 논문에 게재되었습니다.
모델은 입력 텍스트를 처리하는 입력 레이어로 시작하여 텍스트를 숫자 표현에 삽입하는 임베딩 레이어, BiCaps 레이어까지 5개의 심층 신경망 레이어로 구성됩니다. 순차적이고 언어적인 문맥 표현을 학습하면, 조밀한 레이어는 최종 분류를 위한 모델을 준비하고, 최종 출력 레이어는 결과를 출력합니다.
BiCaps 레이어는 캡슐 네트워크를 통해 입력 텍스트 전후의 다양한 방향에서 상황 정보를 효과적으로 얻는 가장 중요한 구성 요소입니다. 수동으로 조정된 다양한 얕은 및 깊은 보조 기능(Hatebase 사전 포함)을 통해 모델에 더욱 유용한 정보를 제공하세요. 연구원들은 제안된 BiCapsHate 모델의 효율성을 입증하기 위해 5개의 벤치마크 데이터 세트에 대한 광범위한 실험을 수행했습니다. 전반적인 결과는 BiCapsHate가 fBERT, HateBERT 및 ToxicBERT를 포함한 기존의 최첨단 방법보다 우수한 것으로 나타났습니다.
균형 및 불균형 데이터 세트에서 BiCapsHate는 각각 94% 및 92%의 f-점수 정확도를 달성합니다.
Tarique Anwar는 요크 대학교 컴퓨터 과학과의 강사이며 이 연구에 참여했습니다. 그는 온라인 토론이 부정적이고 증오적이며 모욕적인 트롤링 댓글로 이어지는 경우가 많으며 이는 소셜 미디어 플랫폼의 기존 콘텐츠 조정 관행으로는 통제할 수 없다고 지적했습니다.
그는 "또한 온라인 증오심 표현은 때때로 실제 상황을 반영하여 범죄와 폭력적인 행동으로 이어진다"고 말했습니다. 또한 타리크 안와르(Tariq Anwar)는 신체적 폭력과 폭동으로 이어지는 온라인 증오심 표현의 사례가 여러 가지 있다고 말했습니다.
이 문제를 해결하기 위해 Tariq Anwar 팀은 BiCapsHate를 개발하기로 결정했고 매우 좋은 결과를 얻었습니다.
Anwar가 지적했듯이 언어는 어떤 경우에는 모호할 수 있습니다. 즉, 단어는 어떤 상황에서는 긍정적일 수도 있고 다른 상황에서는 부정적일 수도 있습니다. HateBERT,toxicBERT, fBERT와 같은 이전 모델은 이 점에서 충분하지 않았습니다. 이러한 인공 지능은 어느 정도 상황을 포착할 수 있지만 Tariq Anwar는 "이것만으로는 충분하지 않습니다"라고 믿습니다.
BiCapsHate의 또 다른 장점은 제한된 하드웨어 리소스를 사용하여 계산을 수행할 수 있는 모델의 능력입니다. "[다른 모델]에는 GPU와 같은 고급 하드웨어 리소스와 컴퓨팅을 위한 고급 시스템이 필요합니다."라고 Tariq Anwar는 설명했습니다. "반면에 BiCapsHate는... 메모리가 8GB만 있어도 CPU 시스템에서 실행될 수 있습니다."
이 인공지능은 지금까지 영어 분석용으로만 개발 및 테스트되었다는 점에 주목할 필요가 있습니다. 음성이므로 다른 언어에 맞게 조정해야 합니다. 또한 더 강렬한 증오심 표현보다 온화하거나 미묘한 증오심이 담긴 공격적인 단어를 찾아내는 데 덜 효과적입니다.
연구원들은 다음으로 온라인에서 증오를 표현하는 사용자의 정신 건강을 평가하는 방법을 모색하기를 희망합니다. 그 사람이 정신적으로 불안정하고 현실 세계의 사람들에게 신체적으로 폭력을 행사할 수 있다고 우려되는 경우, 이러한 일이 발생할 가능성을 줄이기 위해 조기 개입을 고려할 수 있습니다.
위 내용은 AI를 사용하여 키보드 워리어와 인터넷 트롤과 싸우고 온라인에서 괴롭힘을 당하는 사람들의 생명을 보호하세요.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!