영국 정보위원회(ICO)는 최근 기술 리더들에게 감정 분석 AI 도구를 구매하지 않는 것이 가장 좋다고 경고했습니다. 왜냐하면 이 기술은 사람들이 생각하는 것만큼 효과적이지 않고 AI 편견과 차별로 이어질 수도 있기 때문입니다. 이 기술을 채택하는 기업은 기술의 효율성을 입증하지 못하면 데이터 규제 기관의 조사와 감독을 받을 수 있습니다.
감정 분석 기술은 시선 추적, 감정 분석, 얼굴 움직임, 보행 분석, 심장 박동, 얼굴 표정, 피부 수분 수준 등 다양한 생체 데이터 포인트를 사용하고 이러한 데이터를 사용하여 특정 감정. 사람의 감정 상태.
영국 정보국 정보국 부국장 스티븐 보너는 문제는 이 방법이 실제로 효과가 있다는 증거가 없고, 신뢰할 수 없다는 증거가 많다는 점이라고 말했다. 기업이 감성 분석 AI 도구를 사용한 설문조사 결과에 의존한다면 해를 끼칠 수 있는 잘못된 결과로 이어질 가능성이 더 높습니다.
회사가 업무에 감정 분석 AI 도구를 사용하는 경우 조사 기준이 '매우 낮을 것'이라고 경고했습니다.
“때때로 사람들은 신기술이 홍보될 때 '기다려보고 양측의 이해를 구하자'고 생각하는데, 다른 합법적인 생체인식 기술로는 반드시 그렇게 합니다. 그러나 감정 분석 AI의 경우에는 없습니다. 우리는 이 문제를 매우 면밀히 관찰할 것이며 이를 활용하여 그만한 가치가 있다는 것을 모든 사람에게 증명하기로 선택한 사람들에게 책임이 있습니다. 죄책감은 과학적 근거가 전혀 없는 것 같다”고 덧붙였다.
감정 분석 AI는 상황에 따라 유용할 수 있습니다.
그러나 Bonner는 직원의 감정과 건강 상태를 모니터링하기 위한 웨어러블 도구를 제공하는 것을 포함하여 이 기술이 구현되거나 사용 사례로 제안된 몇 가지 예가 있다고 말했습니다. 다양한 데이터 포인트를 사용하여 잠재적인 건강 문제를 기록하고 예측합니다.
그러나 감정적 신호를 감지하는 미성숙한 알고리즘은 체계적인 편견, 부정확성 및 차별의 위험을 초래할 수 있습니다. 이 기술은 잠재의식적인 행동이나 정서적 반응을 포함한 대량의 개인 데이터를 수집, 저장 및 처리하는 데 의존합니다. 이러한 데이터 사용은 개인을 확인하거나 식별하는 데 사용되는 기존 생체 인식 기술보다 훨씬 더 높은 위험을 수반합니다.
영국 정보위원회는 이러한 기술의 사용을 금지한 것이 아니라 관련 위험으로 인해 해당 기술을 구현하는 회사가 면밀히 조사될 것이라는 경고만 발표했다는 점에 유의해야 합니다. 명확한 설명이 있는 한 사용자는 이를 기믹이나 엔터테인먼트 도구로 사용할 수 있습니다.
Bonner는 다음과 같이 말했습니다. “생체인식 측정과 결과의 의도를 추론하는 것에는 약간의 차이가 있습니다. 누군가의 스트레스 수준을 목소리로 감지할 수 있다는 것은 말이 된다고 생각합니다. 하지만 현 시점에서는 너무 먼 단계입니다. 그를 거짓말쟁이라고 부르세요. 우리는 누가 불안해 보이는지 판단하기 위해 AI의 사용을 금지하지 않을 것입니다. 그러나 단지 일부 사람들이 방해를 받고 생체 인식을 통해 사기를 시도하고 있다고 추론하지 않는다면 그것은 문제입니다.
생체 인식의 산업 전반에 걸친 영향
얼굴 인식을 통해 신원을 확인하는 금융 서비스 회사부터 음성 인식을 사용하여 서비스에 액세스하는 것까지 다양한 산업 분야에 큰 영향을 미칠 것으로 예상됩니다.
영국 정보 위원은 Ada Lovelace Institute 및 영국 청소년 위원회와 협력하여 새로운 생체 인식 지침을 개발하고 있습니다. 지침은 '사람 중심'으로 내년 봄 공개될 예정이다.
Alan Turing Institute의 윤리 연구원인 Mhairi Aitken 박사는 영국 정보 위원의 경고를 환영했지만 이러한 시스템의 개발을 살펴보고 개발자가 윤리적인 접근 방식을 취하고 필요한 경우 도구를 만들고 사용하도록 하는 것도 중요하다고 언급했습니다.
그녀는 다음과 같이 말했습니다. “기술이나 새로운 애플리케이션 개발에 대한 윤리적 접근 방식은 지역 사회에서 영향을 받을 수 있는 사람부터 시작하여 해당 프로세스가 배포되는 맥락에서 실제로 적절한지 확인하는 프로세스에 참여해야 합니다. 우리는 예상하지 못했던 피해를 인지할 수 있는 기회를 얻었습니다.”
감정 감지 AI는 피해의 실제 위험입니다.
Aitken 박사는 이 AI 모델이 초래할 수 있는 피해가 특히 크다고 말했습니다. 예측 모델을 구축할 때 개발된 모델에 적합하지 않을 수 있는 사람에게. 그녀는 "이런 일을 어떻게 자동화하고 문화적 차이와 감정적 차이를 고려할 수 있는지 생각하기 시작하는 것은 매우 복잡한 영역입니다."라고 덧붙였습니다.
Aitken 박사는 AI 시스템이 판단하기 어렵다고 말했습니다. 어떤 감정적 반응이 적절한가? "누구와 함께 있는지, 어떤 환경에 있는지에 따라 감정을 표현하는 방식이 많이 달라집니다. 이러한 AI 시스템이 적절하게 반응할 수 있는지도 고려할 필요가 있습니다. 사람들이 자신의 감정을 표현하는 방식을 고려하세요." ”
Bonner는 엔터테인먼트에서 감정적인 AI 도구를 사용하는 데 따른 피해는 미미하다고 말했지만 Aitken 박사는 이 사용 사례에는 사람들이 기술에 익숙해지고 실제로 작동한다고 생각하는 등의 위험이 있다고 경고했습니다. "만약 엔터테인먼트용으로 명시적으로 라벨이 지정되지 않는 한 사용한다면."
Bonner는 감정적 AI의 경우 개인마다 데이터 포인트와 차이가 너무 많아서 이상적인 모델을 개발하기 어렵다는 것이 문제라고 덧붙였습니다. 이는 이 기술에 관한 여러 연구 논문에서 입증되었습니다. "누군가 '우리가 문제를 해결했고 정확한 예측을 할 수 있다'고 말한다면 놀라운 일이겠지만, 그런 일은 일어나지 않을 것 같아요
"위 내용은 영국 정보위원회 경고: 감정 분석 AI 도구는 신뢰할 수 있고 효과적인 옵션이 아닙니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!