MIT 인공 지능 연구소의 연구원들은 특정 시나리오에서 선택적 회귀의 사용을 비난하는 것을 목표로 하는 새로운 논문을 발표했습니다. 이 기술은 데이터 세트에서 과소 대표되는 그룹에 대한 모델의 전반적인 성능을 저하시킬 수 있기 때문입니다.
이러한 과소 대표 그룹은 여성과 유색인종인 경향이 있으며, 이러한 무시로 인해 AI의 인종차별과 성차별에 대한 일부 보고가 발생했습니다. 한 설명에 따르면 위험 평가에 사용된 인공 지능은 백인 수감자보다 흑인 수감자를 두 배나 잘못 표시했습니다. 또 다른 경우에는 배경이 없는 남성의 사진이 여성보다 의사나 주부로 식별되는 비율이 더 높았습니다.
선택적 회귀를 통해 AI 모델은 각 입력에 대해 예측 또는 기권이라는 두 가지 선택을 할 수 있습니다. 모델은 결정에 대해 확신이 있는 경우에만 예측을 하며, 여러 테스트를 통해 올바르게 평가할 수 없는 입력을 제외함으로써 모델 성능이 향상됩니다.
그러나 입력이 제거되면 데이터 세트에 이미 존재하는 편향이 증폭됩니다. AI 모델이 실제 생활에 배포되면 소수 집단을 개발 중에 제거하거나 거부할 수 없기 때문에 소수 집단에 대한 부정확성이 더욱 커질 것입니다. 궁극적으로 모델의 광범위한 오류율을 최소화하는 것이 아니라 합리적인 방식으로 그룹 전체의 오류율을 고려하는 것이 좋습니다.
MIT 연구원들은 또한 각 하위 그룹에서 모델 성능을 향상시키기 위해 고안된 새로운 기술을 도입했습니다. 이 기술을 단조로운 선택적 위험이라고 하며, 한 모델은 기권하지 않고 대신 인종, 성별과 같은 민감한 속성을 포함하는 반면 다른 모델은 그렇지 않습니다. 동시에 두 모델 모두 결정을 내리며 민감한 데이터가 없는 모델은 데이터 세트의 편향에 대한 보정으로 사용됩니다.
이 특정 문제에 대한 올바른 공정성 개념을 생각해내는 것은 어려운 일입니다. 그러나 이 기준인 단조로운 선택 위험을 적용함으로써 적용 범위를 줄일 때 모델 성능이 실제로 모든 하위 그룹에서 더 좋아지도록 할 수 있습니다.
메디케어 데이터 세트와 범죄 데이터 세트를 사용하여 테스트했을 때 새로운 기술은 모델의 전체 성능에 큰 영향을 주지 않고 과소 대표 그룹의 오류율을 줄일 수 있었습니다. 연구진은 이 기술을 주택 가격, 학생 평점, 대출 이자율 등 새로운 애플리케이션에 적용하고 다른 작업에도 사용할 수 있는지 확인할 계획이다.
위 내용은 선택적 위험은 AI 공정성과 정확성을 향상시킬 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!