최근 몇 년 동안 인공지능은 빠르게 발전하여 다양한 산업 분야의 수많은 사용 사례에서 강력하고 혁신적인 도구로 사용되고 있습니다. 그러나 큰 책임에는 큰 능력이 필요한 경우가 많습니다. AI와 머신러닝 덕분에 사기 방지 기술은 그 어느 때보다 정확해지고 빠르게 발전하고 있습니다. 실시간 채점 기술을 통해 비즈니스 리더는 사기 행위를 즉시 식별할 수 있습니다. 그러나 AI-ML 기반 의사결정을 사용하면 투명성에 대한 우려도 제기됩니다. 그리고 ML 모델이 위험도가 높은 환경에 등장하면 해석 가능성에 대한 필요성도 높아집니다.
기계가 내리는 중요한 결정의 수가 계속 증가함에 따라 설명 가능성과 이해 가능성이 점점 더 중요해지고 있습니다. 기술 연구원인 팀 밀러(Tim Miller)는 다음과 같이 말했습니다. 이해가능성은 인간이 결정의 이유를 이해할 수 있는 정도입니다. 따라서 신뢰할 수 있는 자동화 솔루션 개발을 촉진하려면 ML 모델의 해석 가능성을 개발하는 것이 중요합니다.
개발자, 소비자, 리더 모두 사기 예방 의사결정의 의미와 과정을 이해해야 합니다. 그러나 매개변수가 약간 더 많은 ML 모델은 대부분의 사람들이 이해하기 어렵습니다. 그러나 설명 가능한 AI 연구 커뮤니티에서는 이해 가능성 도구의 개발로 인해 블랙박스 모델이 더 이상 블랙박스가 아니라고 반복해서 언급해 왔습니다. 이러한 도구의 도움으로 사용자는 중요한 결정을 내리는 데 사용되는 ML 모델을 이해하고 더 신뢰할 수 있습니다.
SHAP(SHapley Additive exPlanations)는 오늘날 가장 일반적으로 사용되는 모델 독립적 설명 도구 중 하나입니다. 협동 게임에서 Sharply 값을 계산하여 기능의 영향력을 균등하게 공유합니다. SHAP의 TreeExplainer 알고리즘은 표 형식 데이터를 기반으로 사기를 방지하기 위해 앙상블 방법을 사용할 때 다항식 시간에 로컬 설명을 얻을 수 있는 기회를 제공합니다. 이 도구를 사용하면 근사치만 가능합니다. 이는 신경망 기반 설명에 비해 엄청난 발전입니다.
흰색 상자는 일반적으로 사기 등급 점수를 계산하는 규칙 엔진을 나타냅니다. 기본적으로 블랙 박스와 화이트 박스는 서로 다른 결과를 생성합니다. 블랙 박스는 기계가 데이터에서 학습한 내용을 기반으로 결과를 생성하는 반면, 화이트 박스는 미리 정의된 규칙을 기반으로 점수를 생성하기 때문입니다. 우리는 이러한 차이점을 기반으로 두 가지 방법을 모두 개발할 수 있습니다. 예를 들어 블랙박스 모델에서 발견한 사기 루프를 기반으로 규칙을 조정합니다.
SHAP과 결합된 블랙박스 테스트는 모델의 전역적 행동을 이해하는 데 도움이 되며 사기 활동을 탐지하는 데 사용되는 모델의 주요 특성을 밝혀줍니다. 동시에 모델의 바람직하지 않은 편향도 드러날 수 있습니다. 예를 들어 모델은 특정 인구통계를 차별할 수 있습니다. 글로벌 모델 해석을 통해 이러한 상황을 감지하여 부정확한 예측을 방지할 수 있습니다.
또한 모델의 개별 예측을 이해하는 데 도움이 됩니다. ML 모델의 디버깅 프로세스 중에 데이터 과학자는 각 예측을 독립적으로 관찰하고 그에 따라 해석할 수 있습니다. 기능 기여는 모델이 수행하는 작업을 인식하는 데 도움이 될 수 있으며 이러한 입력을 통해 더욱 발전할 수 있습니다. SHAP를 활용함으로써 최종 사용자는 모델의 기본 기능을 얻을 수 있을 뿐만 아니라 각 기능(어떤 방향)이 모델 출력 사기 확률에 어떻게 영향을 미치는지 이해할 수 있습니다.
마지막으로 SHAP의 도움으로 성공적인 모델에 대한 신뢰를 얻어 고객으로부터 자신감을 얻을 수 있습니다. 일반적으로 말하면 제품의 작동 방식을 이해하면 제품에 대한 신뢰가 더 커집니다. 사람들은 자신이 이해하지 못하는 것을 좋아하지 않습니다. 해석 도구의 도움으로 우리는 블랙박스를 들여다보고 더 잘 이해하고 신뢰할 수 있습니다. 그리고 모델을 이해함으로써 지속적으로 개선할 수 있습니다.
Explainable Booster(EBM)는 ML 모델을 향상하기 위해 SHAP 그래디언트를 사용하는 대신 사용할 수 있습니다. 인터프리트ML(마이크로소프트의 인공지능 기업)의 주력 제품으로, 일명 유리상자다. Glass Box라는 이름은 구조로 인해 그 성격이 해석 가능하다는 사실에서 유래되었습니다. 원본 문서에 따르면 "EBM은 일반적으로 완전한 해석성을 유지하면서 최첨단 블랙박스 모델만큼 정확합니다. EBM은 다른 최신 알고리즘보다 훈련 속도가 느리지만 예측 속도는 매우 짧습니다." 로컬로 해석 가능한 모델 - 모델에 구애받지 않는 해석(LIME)도 블랙박스 해석에 사용할 수 있는 좋은 도구입니다. 그러나 구조화되지 않은 데이터 모델에 더 많이 사용됩니다.
투명한 데이터 포인트와 함께 위의 도구를 활용함으로써 조직은 자신 있게 결정을 내릴 수 있습니다. 모든 이해관계자는 도구가 어떻게 최적의 결과를 생성하는지 알아야 합니다. 블랙박스 ML과 이와 결합된 다양한 기술을 이해하면 조직은 비즈니스 목표 달성에 도움이 되는 결과를 얻는 방법을 더 잘 이해할 수 있습니다.
인간에게 미지의 것은 종종 무섭고 믿을 수 없습니다. AI-ML 기반 의사결정의 알고리즘 모델은 "블랙박스"와 같습니다. 우리는 구조만 이해할 수 있을 뿐 작동 원리에 대한 통찰력은 얻을 수 없으며 제공되는 결과의 신뢰성도 얻을 수 없습니다. 특히 사기방지 분야 등 고위험 환경에서는 AI, ML 기술의 적용이 더욱 어려워지고 있다. 해석 가능성 도구의 도입으로 점차 '블랙박스'가 투명해졌고, 이는 사용자의 의심과 우려를 크게 해소하는 동시에 '블랙박스' 자체의 개발을 위한 여건을 조성했습니다.
위 내용은 설명 가능한 사기 방지 AI에 대해 이야기해 보겠습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!