인공지능의 개발과 적용에는 많은 양의 데이터 활용이 필요합니다. 기계 학습 알고리즘에 더 많은 데이터를 공급할수록 패턴 발견, 의사 결정, 행동 예측, 콘텐츠 개인화, 건강 상태 진단, 인텔리전스 달성, 사이버 위협 및 사기 탐지 능력이 향상됩니다.
실제로 인공지능과 데이터는 이런 관계에 이르렀습니다: "데이터 없는 알고리즘은 맹목적이고, 알고리즘 없는 데이터는 바보입니다." 그러나 인공지능 기술을 채택하는 것은 위험에 직면할 수 있으며, 모든 사람이 자신의 정보나 데이터를 공유하고 싶어하는 것은 아닙니다. , 적어도 현재의 디지털 참여 규칙에서는 그렇습니다. 따라서 일부 디지털 자기방어 조치가 필요합니다.
어떤 사람들은 외부 세계와의 접촉을 완전히 차단하고 디지털 은둔자가 되지만, 어떤 사람들은 안전하게 디지털 자기 방어 기술(PET)을 사용하여 디지털 유출에 대처합니다.
디지털 자기방어를 사용하는 사람들은 웹사이트의 개인 정보 보호 고지를 신뢰하지 않고 대신 개인 정보 수준 확장과 같은 도구를 사용하여 이를 확인합니다. 선호도를 전달하는 대신 AI 기반 개인 정보 보호 검색 엔진 및 브라우저와 같은 특수 도구를 사용하여 익명 검색을 수행합니다. 이러한 도구는 보이지 않는 추적기가 페이지 전체를 추적하는 것을 차단하고 새로운 방식으로 세계를 탐색하고, 협업하고, 데이터를 저장하도록 도와줍니다.
사람들은 인공 지능 알고리즘에 의한 개인 정보 수집 및 분석을 처리하는 몇 가지 도구를 채택할 수 있습니다. 이를 디지털 자기 방어 또는 감시 자기 방어라고도 합니다.
디지털 자기방어를 채택하는 사용자는 오프라인 생활에도 침투한 온라인 행동에 대한 유비쿼터스 추적에 종종 진저리를 냅니다. 디지털 정당방위는 간첩행위가 아니라 개인정보에 대한 자기보호이다.
이러한 행동은 2013년 전 미국 요원 에드워드 스노든이 공개한 미국 정부의 포괄적인 감시 프로그램에서 시작되었습니다. 이 프로그램을 통해 미국 국가 안보국은 Apple, Google, Skype를 포함한 사람들의 통신 및 정보에 전례 없는 접근 권한을 부여하고 이메일, 사진을 훔칩니다. , 비디오, 실시간 채팅 및 Facebook과 같은 거대 기술 기업 서버의 기타 정보.
영국 정보 기관인 GCHQ의 침해적인 전술도 공개되어 개인 정보 보호에 대한 인식이 높아지고 EU 데이터 보호 규정의 발전 궤도가 바뀌어 규정이 더욱 소비자 중심적이고 개인 정보 보호 중심 문화로 바뀌었습니다. GDPR 규정과 같은.
기술 대기업들은 암호화를 기본값으로 설정하고 사용자 개인 정보 보호를 최우선으로 선언하면서 개인 정보 보호 자격 증명을 증명하기 위해 안간힘을 쓰고 있습니다. 이들은 디지털 방식으로 자신을 방어하지 않고도 소비자가 신뢰할 수 있는 데이터 수호자로 자리매김합니다.
그러나 2018년 Cambridge Analytica 데이터 유출 스캔들은 정부 감시보다 잠재적으로 더 충격적인 사실, 즉 "감시 자본주의"를 드러냈습니다. 애드테크에 힘입어 사람들의 디지털 신원은 온라인 추적기와 부적절한 데이터에 의해 스크랩, 패키징, 분석, 프로파일링, 경매, 교환 및 무기화되어 사람들의 소비 행동에 영향을 미치는 "정밀 마케팅"을 제공합니다.
아마존은 사람들이 자신을 아는 것보다 더 잘 알고 있을 수도 있습니다. 페이스북은 사람들이 소셜미디어에서 다음에 무슨 말을 할지 예측할 수 있고, 더욱 무서운 것은 유권자의 투표 성향도 예측할 수 있다는 점이다. 케임브리지 스캔들은 어떻게 광고 기술 "마이크로 타겟팅"이 가짜 뉴스 및 심리전 전술과 결합되어 유권자의 결정을 좌우했는지 밝혀졌으며, 이로 인해 Facebook Inc는 올해 초 자사 플랫폼에서 정치 광고를 금지하게 되었습니다.
광고 기술의 새로운 사랑은 위치 기반 마케팅으로, 사용자 행동을 추적 및 매핑하고 이를 오프라인 세계로 추적하며 앱 데이터와 사용자가 수집하고 컴파일한 다른 소스의 데이터를 결합하여 친밀한 세부 정보를 추론하여 풍부한 개인 데이터와 정보를 생성합니다. 인종, 성격, 재정 상태, 연령, 식습관, 약물 남용 이력, 정치적 성향, 소셜 네트워크, 소셜 네트워크 등을 기준으로 사용자를 분류한 후 실시간 입찰 플랫폼의 다크웹에 유포되므로 잠재적으로 부작용이 있을 수 있습니다. .
그리고 개인 데이터를 수집하는 광고 기술이 항상 정확한 것은 아니며 타겟팅 결정이 공격적일 수 있습니다.
예를 들어, 미국의 보석금 보증 광고는 아프리카계 미국인 이름을 가진 사용자를 대상으로 하며, Pepsi와 같은 대형 브랜드는 매우 급진적인 웹사이트에서 홍보됩니다. 임신과 유산 기간 동안 지속적으로 양육 광고를 받았다고 말한 한 소셜 미디어 사용자는 “알고리즘은 내가 임신했다는 것을 알 수 있을 만큼 똑똑했고, 내가 유산한 후에는 나에게 메시지를 보냈다”며 알고리즘 수정을 공개적으로 요구했다. 병원 광고 소름끼친다”
정확한 마케팅은 효과적이지만 실제로는 효과가 없기 때문에 해로울 수도 있습니다. 인류학자 트리샤 왕(Tricia Wang)은 이것이 고객 이해를 희생하면서 인간 관계를 상품화한다고 지적합니다. 그녀는 최고 마케팅 책임자(CMO)의 70%가 광고 기술이 귀중한 고객 통찰력을 제공하지 않는다고 믿고 있다고 말했습니다. 빅 데이터는 큰 그림(불완전하고 부정확한 그림)을 제공하지만 인간의 이야기가 부족합니다.
아이러니하게도 애드테크는 '인간의 0과 1'을 볼 수 없기 때문에 마케팅에서 고객 중심이 사라질 위험에 처해 있습니다.
Data Ethics의 공동 창립자인 Pernille Tranberg는 소비자와 기업이 감시에 대한 윈윈 대안을 찾을 수 있도록 돕고 있습니다. 그녀는 소비자에게 디지털 자기방어의 기본을 가르치므로 Digi.Me 및 Tapx와 같은 도구를 사용하여 데이터를 보호하고 자신의 조건에 따라 공정한 시장 가치로 거래할 수 있습니다.
Blockthrough와 같은 웹사이트 도구는 알 수 없거나 안전하지 않은 제3자 추적기를 차단하는 동시에 개인 정보 보호 친화적인 추적기를 허용합니다. Brave는 방문자가 개인정보 보호 광고를 시청한 대가를 받을 수 있도록 방문에 대한 보상을 제공하여 기업이 더 많은 탐색 수익을 창출할 수 있도록 돕습니다. Matomo와 같은 분석 제공업체는 웹사이트 소유자에게 그들이 보유한 풍부한 데이터와 그들이 활용할 수 있는 개인 정보 보호 제어 기능을 제공합니다.
소비자와 광고주 사이에 적대적인 관계가 있는 걸까요? 예, 하지만 완전히는 아닙니다. 광고주는 사람들의 선택을 존중해야 하며 광고 차단기를 비활성화하거나 사용자가 사기성 인터페이스 및 블랙박스 모델에 동의하도록 속여서는 안 됩니다. 그들은 서로 대항하지 않고 협력해야 하며, 광고주는 고객을 이해해야 합니다. 그렇지 않으면 결국 실패할 것입니다.
요컨대, 사람들이 조심하지 않으면 인공지능을 이용해 데이터를 분석하는 광고 기술이 개인의 사생활을 침해할 수 있습니다. 이런 이유로 사람들은 자신의 선택의지를 되찾고 싶어합니다. 그들은 감시당하는 것에 지쳐서 차례로 광고주의 행동을 모니터링하고 있습니다.
데이터에 따르면 현재 17억 명의 사람들이 광고 차단 도구를 사용하여 광고를 차단하고 있습니다. 이는 '인류 역사상 최대 규모의 보이콧'입니다. Apple 및 Google과 같은 회사가 제3자 쿠키를 사용하지 않음에 따라 광고주는 신뢰를 유지하면서 소비자 데이터를 활용할 수 있는 새로운 방법을 찾아야 합니다.
개인 정보 보호는 인공 지능을 인간으로 만들고 광고 기술을 절약할 수 있습니다. 예를 들어, 개인정보 보호 도구는 공평한 경쟁의 장을 마련하고 사람들이 더 많은 정보를 공유하도록 장려할 수 있습니다. 광고주는 익명화되거나 암호화된 데이터를 분석하고 이를 인공 지능 시스템으로 다시 프로그래밍하여 광고 기술이 제공할 수 없는 잘못된 고객 통찰력을 찾아냅니다.
요컨대, 디지털 호신술에 대한 사람들의 인식이 각성되고 있으며, 데이터를 악용하는 전통적인 인공지능 방식은 진화해야 합니다!
위 내용은 디지털 자기 방어의 각성 개인 정보 보호 기술이 인공 지능을 죽일 것인가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!