>  기사  >  기술 주변기기  >  NIST: AI 편견은 데이터 자체를 훨씬 뛰어넘는다

NIST: AI 편견은 데이터 자체를 훨씬 뛰어넘는다

WBOY
WBOY앞으로
2023-05-17 23:10:051321검색

​지금쯤이면 대부분의 AI가 어떤 형태로든 문제가 있는 편견을 기반으로 구축되었으며 현재 이를 사용하고 있다는 사실에 누구도 이의를 제기해서는 안 됩니다. 이는 수백 번 관찰되고 입증된 과제입니다. 조직의 과제는 더 좋고 편견 없는 데이터에 안주하는 것이 아니라 AI 편견을 근절하는 것입니다.

NIST: AI 편견은 데이터 자체를 훨씬 뛰어넘는다

인공 지능의 편향 식별 및 관리를 위한 표준(NIST 1270 특별 간행물)의 주요 개정판에서 NIST NIST는 작년 공개 의견 수렴 기간 이후 데이터를 뛰어넘고 심지어는 AI 편견을 발견하고 파괴하는 ML 프로세스입니다.

잘못 수집되거나 제대로 분류되지 않은 데이터를 비난하기보다는 저자는 AI의 다음 편향이 "인간과 시스템의 제도적, 사회적 요인"이라고 말하고 더 나은 답을 찾기 위해 사회기술적 관점을 추진합니다.

NIST의 AI 편견 수석 연구원이자 보고서 작성자 중 한 명인 Reva Schwartz는 "상황이 전부입니다."라고 말했습니다. “AI 시스템은 고립되어 작동하지 않습니다. 사람들이 다른 사람의 삶에 직접적인 영향을 미치는 결정을 내리는 데 도움이 됩니다. 신뢰할 수 있는 AI 시스템을 개발하려면 AI에 대한 대중의 신뢰를 침식할 수 있는 모든 요소를 ​​고려해야 합니다.

AI의 편견에 기여하는 인간적, 체계적 편견은 무엇입니까? NIST 보고서에 따르면 인간은 기본적으로 개인과 그룹이라는 두 가지 주요 범주로 나뉘며 각 범주에는 많은 특정 편견이 있습니다.

개인의 편견에는 사람들이 자동화된 기술에 너무 많이 의존하는 자동화 안주, 누군가의 결정에 영향을 미치는 무의식적인 신념, 태도, 연상 또는 고정관념, 그리고 사람들이 다음과 같은 정보를 선호하는 경우가 포함됩니다. 자신의 기존 신념과 일치하거나 일치합니다.

그룹의 인간적 기반에는 자금 지원 기관이나 금융 후원자를 만족시키기 위해 편향된 결과가 보고될 때 사람들이 그룹에 순응하거나 자금 조달 편견을 피하기 위해 최적이 아닌 결정을 내리는 현상인 집단 사고가 포함됩니다. , 이는 추가적인 개인/그룹 편견의 영향을 받을 수 있습니다.

체계적 편견에 대해 NIST 보고서는 이를 역사적, 사회적, 제도적 편견으로 정의합니다. 본질적으로, 오랜 편견은 시간이 지남에 따라 사회와 제도에 성문화되어 있으며 대체로 "사실" 또는 "상황이 있는 그대로" 받아들여집니다.

이러한 편견이 중요한 이유는 AI 배포가 오늘날 조직의 업무 방식에 얼마나 큰 영향을 미치기 때문입니다. 인종적으로 편향된 데이터로 인해 사람들은 주택담보대출을 거부당하고 처음으로 주택을 소유할 기회를 거부당했습니다. AI가 역사적으로 여성보다 남성을 선호하는 채용 결정을 내리도록 훈련되었기 때문에 구직자들의 인터뷰가 거부되고 있습니다. 유망한 젊은 학생들의 성이 과거에 성공한 사람들의 이름과 일치하지 않는다는 이유로 인터뷰나 대학 입학이 거부됩니다.

즉, 편향된 AI는 효율적인 개구부만큼 잠긴 문을 생성합니다. 조직이 배포 시 편견을 제거하기 위해 적극적으로 노력하지 않으면 곧 자신의 생각과 운영 방식에 대한 심각한 신뢰 부족을 경험하게 될 것입니다.

NIST가 추천하는 사회기술적 관점은 무엇인가요?

핵심에는 모든 AI 애플리케이션의 결과가 단순한 수학적 및 계산적 입력 그 이상이라는 인식이 있습니다. 개발자나 데이터 사이언티스트가 만드는데, 직위나 기관도 다양하고, 모두 일정 수준의 부담을 안고 있다.

NIST의 보고서는 다음과 같습니다. “AI에 대한 사회기술적 접근 방식은 데이터 세트에서 모델링된 가치와 행동, 데이터 세트와 상호 작용하는 인간, 위임, 설계, 개발 및 최종 배포와 관련된 복잡한 조직적 요소를 고려합니다. ”

NIST는 사회 기술적 관점을 통해 조직이 "정확성, 설명 가능성 및 이해 가능성, 개인 정보 보호, 신뢰성, 견고성, 보안 및 보안 탄력성"을 통해 더 큰 성공을 거둘 수 있다고 믿습니다.

조직이 권장하는 사항 중 하나는 TEVV(테스트, 평가, 검증 및 검증) 프로세스를 구현하거나 개선하는 것입니다. 주어진 데이터 세트나 훈련된 모델의 편향을 수학적으로 검증할 수 있는 방법이 있어야 합니다. 또한 AI 개발 노력에 다양한 분야와 직위에서 더 많은 참여를 유도하고, 다양한 부서나 조직 외부의 여러 이해관계자를 참여시킬 것을 권장합니다. "Human-In-The-Loop" 모델에서는 개인이나 그룹이 기본 ML 출력을 지속적으로 수정하며, 이는 편견을 제거하는 데 효과적인 도구이기도 합니다.

이러한 보고서와 수정된 보고서 외에도 AI 시스템과 관련된 위험 관리를 위한 합의 중심 권장 사항 세트인 NIST의 AI RMF(인공 지능 위험 관리 프레임워크)가 있습니다. 완료되면 AI 기술 및 제품의 투명성, 설계 및 개발, 거버넌스 및 테스트를 다룰 것입니다. AI RMF에 대한 초기 논평 기간은 지났지만 AI 위험 및 완화에 대해 배울 수 있는 기회는 여전히 많습니다.

위 내용은 NIST: AI 편견은 데이터 자체를 훨씬 뛰어넘는다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제