신문, 잡지, 온라인 소스, 방송 등 사람들이 듣거나 읽는 정보가 정확하지 않을 가능성은 항상 있습니다. 허위 정보는 인류 문화가 시작된 이래로 존재해 왔습니다. 그러나 상호 연결된 온라인 세계에서 우리가 받는 정보의 양이 너무 많기 때문에 왜곡되거나 위조된 자료를 무심코 소비할 위험이 특히 높습니다. 사람들은 AI가 가짜 뉴스와 편견 문제를 해결하는 데 어떻게 도움이 될 수 있는지의 복잡성을 이해해야 합니다.
소비자들은 인플루언서 마케팅이나 유명인 추천 등을 통해 온라인에서 읽고 보고 듣는 내용이 자신의 의견에 영향을 미치는 데 익숙합니다. 사실에 근거하든 그렇지 않든 의견은 큰 힘을 갖고 있으며, 많은 가짜 뉴스는 강한 감정을 불러일으키는 데 의존합니다. 사람들의 관심과 감정에 관해서는, 우리가 듣거나 읽는 것이 정확한지 잠시 멈추고 생각해 볼 필요가 있는 경우가 많습니다.
MIT 연구진에 따르면 Open a new window에 따르면 실제 뉴스가 트위터에서 1,500명에게 도달하는 데는 가짜 뉴스보다 6배 더 오랜 시간이 걸립니다. 더욱이, 정확한 뉴스와 가짜 뉴스 사이의 체인 길이(소셜 미디어 게시물을 공유하는 사람들의 수)는 매우 불균형합니다. 검증 가능한 뉴스는 10개를 넘지 않았으나, 거짓 뉴스는 19개로 늘어났다. 이는 부분적으로 잘못된 정보를 퍼뜨리기 위해 봇 떼를 사용하는 악의적인 행위자 때문입니다.
허위 정보는 이제 전 세계의 사람, 정부 및 기업에 영향을 미칩니다. 오늘날 확대되는 디지털 정보경제에서 소위 '가짜뉴스'를 발견하고 분리하는 것은 중요한 과제입니다. 그러나 인공지능(AI)의 발전으로 온라인 정보 사용자가 현실과 허구를 더 쉽게 구별할 수 있게 되었습니다.
인공 지능을 사용하여 잘못된 정보의 확산을 막고 인터넷을 더욱 균형 잡힌 뉴스 소스로 만드는 방법을 살펴보세요.
고급 알고리즘을 사용하여 정보를 쉽게 흡수할 가능성이 있는 사람들을 찾아 도달함으로써 합법적인 회사는 인공 지능을 사용하여 정보 또는 정보의 가장 가능성이 높은 소비자를 찾고 타겟팅합니다. 의견. 예를 들어, Google은 권위 있는 결과를 식별하는 능력을 향상시키기 위해 2015년에 RankBrain 알고리즘을 구현했습니다.
컴퓨터 생성 자료와 인간 생성 기사를 구별하기 위해 AI 기반 기술은 텍스트 콘텐츠에 대한 언어 분석을 수행하고 단어 패턴, 구문 구조, 가독성과 같은 단서를 찾을 수 있습니다. 이러한 알고리즘은 단어 벡터, 단어 위치 및 의미를 살펴보고 증오심 표현의 인스턴스를 찾기 위해 모든 텍스트를 분석할 수 있습니다.
가짜 뉴스 소스는 일반적으로 정보가 확산되기 전에 불법 소스에서 시작됩니다. 프로젝트 판당고(Project Fandango)는 사실 확인 담당자가 허위로 간주한 기사를 사용한 후 동일한 용어나 주장이 포함된 소셜 미디어 게시물이나 인터넷 사이트를 찾습니다. 이를 통해 언론인과 전문가는 허위 정보의 출처를 추적하고 위험이 통제 범위를 벗어나기 전에 이를 무력화할 수 있습니다.
Politifact, Snopes 및 FactCheck는 인간 편집자를 사용하여 스토리나 이미지의 진위를 확인하는 데 필요한 1차 조사를 수행합니다. 가짜가 확인되면 AI 시스템은 사회 불안을 촉발할 수 있는 유사한 정보를 웹에서 검색합니다. 또한 자료가 진짜라고 판단되면 애플리케이션은 웹 사이트 기사에 평판 점수를 할당할 수 있습니다.
일부 AI 엔진은 현재 평가 점수에 다음 측정값을 사용합니다.
• 감정 분석: 일반적인 뉴스 또는 자신이 쓴 특정 주제에 대한 언론인의 태도.
•의견 분석: 언론인의 작업에 대한 개인적인 감정, 의견, 신념 또는 평가
•수정 분석: 뉴스 기사가 시간이 지남에 따라 어떻게 변하고 대중의 인식과 감정을 어떻게 조작하는지에 대한 연구입니다.
•선전 분석: 선전 분석을 사용하여 최대 18가지의 다양한 설득 전략을 탐지하여 잠재적인 허위 정보를 찾아내는 데 도움이 될 수 있습니다.
네 가지를 모두 결합하면 기사의 신뢰성과 우리가 직면한 문제에 대한 포괄적인 그림을 제공합니다.
GPT-3과 같은 언어 모델은 이미 한 줄의 프롬프트를 기반으로 기사, 시, 산문을 만들 수 있습니다. 인공지능이 인간과 유사한 물질 창조의 완성에 가까워졌다. 인공 지능은 FaceSwap 및 DeepFaceLab과 같은 오픈 소스 프로그램이 경험이 부족한 새로운 사용자를 잠재적인 사회 불안의 중심에 놓을 수 있는 모든 종류의 정보를 조작하는 것을 매우 쉽게 만들었습니다.
이러한 의미 분석 알고리즘으로는 수정되지 않고 유해하거나 부정확한 맥락에서 유포되는 혐오 표현 이미지의 본질을 해독할 수 없기 때문에 이러한 문제가 더욱 악화됩니다.
사기성 콘텐츠가 발견되면 이를 제거하는 것은 보기보다 어렵습니다. 일부 조직은 검열을 받고 한 조직 또는 다른 조직이 사실이 아닌 것으로 간주하는 정보를 숨기려고 한다는 비난을 받을 수 있습니다. 표현의 자유와 허위 정보 및 가짜 뉴스와의 싸움 사이에서 균형을 찾는 것은 어렵습니다.
AI는 일반적으로 유머와 장난을 인식하는 능력도 부족합니다. 따라서 가짜뉴스나 허위정보를 경솔하거나 농담으로 사용하는 경우에는 악의적인 허위정보로 분류될 수 있습니다. 그러나 AI가 가짜 뉴스와의 싸움에서 큰 자산이 될 수 있다는 점은 부인할 수 없습니다. 가짜 인터넷 뉴스와의 전쟁에서 기술은 방대한 양의 자료를 처리할 수 있기 때문에 매우 중요합니다.
가짜 뉴스는 알고리즘만으로 해결될 수 있는 문제가 아닙니다. 지식을 얻는 방법에 대한 사고방식을 바꿔야 합니다. 전문 그룹 간의 협업 지식을 크라우드소싱하는 것은 원시 데이터를 평가하는 데 중요하지만 지식이 풍부한 사용자 커뮤니티는 윤리적 모니터링 이니셔티브를 지원할 수도 있습니다.
모든 당사자의 참여가 부족한 적극적인 행동은 기관과 미디어에 대한 대중의 신뢰 상실을 가속화할 수 있으며 이는 무정부 상태의 서막입니다. 인간이 온라인 콘텐츠를 객관적으로 분석하는 능력을 개발할 수 있을 때까지 AI 기반 기술은 인터넷상의 잘못된 정보에 맞서 싸우는 파트너가 되어야 합니다.
위 내용은 인공지능이 인터넷에서 가짜 뉴스와 편견을 제거하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!