기업이 의사 결정을 자동화하고 효율성을 높이기 위해 이 새로운 기술의 힘을 활용함에 따라 오늘날 인공 지능 시스템과 AI 프로젝트는 점점 일반화되고 있습니다.
귀하의 비즈니스가 대규모 AI 프로젝트를 구현하는 경우 어떻게 준비해야 합니까? AI와 관련된 가장 중요한 세 가지 위험과 이를 예방하고 완화하는 방법은 다음과 같습니다.
사람들은 개인 정보 보호에 대해 매우 우려하고 있으며, 얼굴 인식 인공 지능은 어떤 측면에서 급속히 발전하여 개인 정보 보호 및 감시에 대한 윤리적 우려를 불러일으키고 있습니다. 예를 들어, 이 기술을 통해 회사는 사용자의 동의 없이 사용자의 행동은 물론 감정까지 추적할 수 있습니다. 미국 정부는 최근 AI 기술이 개인정보 보호 기본권 등 핵심 가치에 어긋나는 실질적인 해악을 끼치는 것을 방지하기 위해 ‘인공지능 권리장전’을 제안했다.
IT 리더는 사용자에게 어떤 데이터가 수집되고 있는지 알리고 동의를 얻어야 합니다. 이 외에도 데이터 세트에 대한 적절한 교육 및 구현은 데이터 위반 및 잠재적인 보안 위반을 방지하는 데 중요합니다.
AI 시스템을 테스트하여 해커가 가짜 생체 인식 데이터를 사용하여 민감한 정보에 액세스하도록 허용하는 등 의도하지 않은 결과 없이 목표를 달성하는지 확인하세요. AI 시스템에 대한 감독을 구현하면 기업은 필요할 때 해당 조치를 중지하거나 되돌릴 수 있습니다.
머신러닝을 사용하는 많은 인공지능 시스템은 불투명합니다. 이는 결정을 내리는 방법이 명확하지 않다는 것을 의미합니다. 예를 들어, 모기지 데이터에 대한 광범위한 연구에 따르면 대출을 승인하거나 거부하는 데 사용되는 예측 AI 도구는 소수 신청자에게는 정확도가 떨어지는 것으로 나타났습니다. 기술의 불투명성은 대출이 거부된 신청자의 ‘설명권’을 침해한다.
기업의 AI/ML 도구가 사용자를 위해 중요한 결정을 내릴 때 해당 결정이 내려진 이유에 대해 사용자에게 알리고 완전한 설명을 제공해야 합니다.
기업의 AI 팀은 각 결정으로 이어지는 핵심 요소를 추적하고 그 과정에서 오류를 진단할 수도 있어야 합니다. 내부 직원 대상 문서와 외부 고객 대상 문서에서는 AI 시스템이 작동하는 방식과 이유를 설명해야 합니다.
최근 연구에 따르면 편향된 데이터를 기반으로 훈련된 인공 지능 시스템은 의료 연구의 모집 부족부터 소수 환자에 대한 치료 의지 감소까지 차별 패턴을 강화하는 것으로 나타났습니다. 연구 중.
사람들은 스스로에게 질문해야 합니다. 의도하지 않은 결과가 발생하면 누구 또는 어느 그룹에 영향을 미칠까요? 모든 사용자에게 동일하게 영향을 미칠까요, 아니면 특정 그룹에만 영향을 미칠까요?
과거 데이터를 주의 깊게 살펴서 도입 가능성이 있는지 평가하세요. 편견 또는 완화된 편견. 흔히 간과되는 요소는 회사 개발팀의 다양성이며, 팀이 다양할수록 프로세스와 결과가 더 공정해지는 경우가 많습니다.
의도하지 않은 피해를 방지하려면 조직은 AI/ML 개발, 제품, 감사 및 거버넌스 팀의 모든 이해관계자가 조직의 AI 프로젝트를 안내하는 높은 수준의 원칙, 가치 및 제어 계획을 완전히 이해하도록 해야 합니다. 독립적인 평가를 받아 모든 프로젝트가 이러한 원칙과 가치에 부합하는지 확인하세요.
위 내용은 인공지능의 위험을 피하려면?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!