번역자 | Li Rui
리뷰어 | Chonglou
요즘 인공지능(AI)과 머신러닝(ML) 모델은 점점 더 복잡해지고 있으며, 이러한 모델은 의 출력은 블랙박스이므로 이해관계자에게 설명할 수 없습니다. XAI(Explainable AI)는 이해관계자가 이러한 모델의 작동 방식을 이해할 수 있도록 하고, 이러한 모델이 실제로 의사 결정을 내리는 방식을 이해하도록 하며, AI 시스템의 투명성, 이 문제를 해결하기 위한 신뢰 및 책임을 보장함으로써 이 문제를 해결하는 것을 목표로 합니다. 이 기사에서는 기본 원리를 설명하기 위해 다양한 설명 가능한 인공 지능(XAI) 기술을 살펴봅니다.
설명 가능한 AI가 중요한 몇 가지 이유
- 신뢰와 투명성: AI 시스템이 널리 수용되고 신뢰되려면 사용자가 의사결정 방식을 이해해야 합니다.
- 규정 준수: 유럽 연합의 일반 데이터 보호 규정(GDPR)과 같은 법률에서는 개인에게 영향을 미치는 자동화된 결정에 대한 설명을 요구합니다.
- 모델 디버깅 및 개선: 모델 결정에 대한 통찰력을 얻으면 개발자가 편견이나 부정확성을 식별하고 수정하는 데 도움이 될 수 있습니다.
Interpretability 인공지능의 핵심 기술
지능형 작업자의 해석성은 기술 모델을 말하며, 모델에 구애받지 않는 방법과 모델 특정 방법으로 나눌 수 있으며, 각 방법은 서로 다릅니다. 스마트 작업자 모델 및 애플리케이션 유형. localdel의 무사질 방법
(1) 국소 해석 가능한 모델 Agnostic 설명 (LIME)
local 해석 가능한 모델 Agnostic 설명 (LIME)은 예측을 위해 설계된 혁신 기술입니다. 인간이 이해할 수 있는 복잡한 기계 학습 모델. 본질적으로 LIME의 이점은 복잡성에 관계없이 모든 분류기 또는 회귀기의 동작을 설명할 수 있는 단순성과 능력에 있습니다. LIME은 입력 데이터 근처에서 샘플링한 다음 간단한 모델(예: 선형 회귀 모델)을 사용하여 원래 복잡한 모델의 예측을 근사화하는 방식으로 작동합니다. 단순 모델은 복잡한 모델의 의사 결정 프로세스를 이해할 수 있도록 특정 입력에 대한 복잡한 모델의 예측을 해석하는 방법을 학습합니다. 이렇게 하면 복잡한 모델이 블랙박스인 경우에도 해석 가능한 모델을 사용하여 국소적으로 근사화함으로써 간단한 모델
LIME의 해석을 통해 모든 분류기 또는 회귀 분석기의 예측을 밝힐 수 있습니다. 핵심 아이디어는 입력 데이터를 교란하고 예측이 어떻게 변하는지 관찰하는 것입니다. 이는 예측에 큰 영향을 미치는 특징을 식별하는 데 도움이 됩니다.
수학적으로, 주어진 인스턴스(x)와 모델(f)에 대해 LIME은 새로운 샘플 데이터 세트를 생성하고 (f)로 레이블을 지정합니다. 그런 다음 (f)에 지역적으로 충실한 (f)를 기반으로 하는 간단한 모델(예: 선형 모델)을 학습하여 다음 목표를 최소화합니다.
[ xi(x) = underset{g in G }{text {argmin}} ; L(f, g, pi_x) + Omega(g) ]
여기서 (L)은 (f)를 (x)로 근사할 때 (g)가 얼마나 불충실한지를 나타내는 척도입니다. ), (pi_x)는 (x) 주변의 지역적 이웃을 정의하는 근접성 측정값이고, (Omega)는 (g)의 복잡성에 페널티를 줍니다.
(2) Sh
apley additivityexplanation (SHAP) )을 지정하여 각 예측 특성에는 사람들이 기계 학습 모델의 출력을 이해하는 데 도움이 되는 중요한 값이 할당됩니다. 사람들이 집의 크기, 연식, 위치 등의 특성을 기반으로 집 가격을 예측하려고 한다고 상상해 보세요. 특정 기능은 예상 가격을 높일 수 있지만 다른 기능은 예상 가격을 낮출 수 있습니다. SHAP 값은 기본 예측(데이터 세트의 평균 예측)을 기준으로 최종 예측에 대한 각 기능의 기여도를 정확하게 정량화하는 데 도움이 됩니다. 특성(i)의 SHAP 값은 다음과 같이 정의됩니다.
[ phi_i = sum_{S subseteq F setminus {i}} frac{|S|!(|F| - |S | - 1)!}{|F|!} [f_x(S cup {i}) - f_x(S)] ]여기서 F)는 모든 기능의 집합이고 S)는 제외( i)의 기능 하위 집합, (f_x(S))는 기능 세트 S의 예측입니다. 합계는 가능한 모든 기능 하위 집합입니다. 이 공식을 사용하면 각 기능의 기여도가 예측에 미치는 영향을 기준으로 공정하게 분산됩니다.
모델별 방법
(1) 신경망의 주의 메커니즘
신경망의 주의 메커니즘은 예측에 가장 관련성이 높은 입력 데이터 부분을 강조합니다. . 시퀀스-시퀀스 모델 시나리오에서 목표 시간 단계(t)와 소스 시간 단계(j)에 대한 주의 가중치(alpha_{tj})는 다음과 같이 계산됩니다.
[ alpha_{tj} = frac {exp(e_{tj})}{sum_{k=1}^{T_s} exp(e_{tk})} ]
여기서 (e_{tj})는 위치(j)의 입력과 위치(t)의 출력 간의 정렬을 평가하는 점수 함수이고, (T_s)는 입력 시퀀스의 길이입니다. 이 메커니즘을 통해 모델은 입력 데이터의 관련 부분에 집중할 수 있으므로 해석 가능성이 향상됩니다.
(2) 결정 트리 시각화
결정 트리는 결정을 입력 특성에서 파생된 일련의 규칙으로 표현하여 고유한 해석 가능성을 제공합니다. 의사결정 트리의 구조는 기능 기반 결정을 나타내는 노드와 결과를 나타내는 잎을 통해 시각화를 가능하게 합니다. 이 시각적 표현을 통해 입력 기능이 어떻게 특정 예측으로 이어지는지 직접 추적할 수 있습니다.
(3) 실제 구현 및 윤리적 고려 사항
설명 가능한 AI를 구현하려면 모델 유형, 애플리케이션 요구 사항 및 설명 대상 고객을 신중하게 고려해야 합니다. 모델 성능과 해석 가능성 간의 균형을 맞추는 것도 중요합니다. 윤리적으로 AI 시스템의 공정성, 책임성, 투명성을 보장하는 것이 중요합니다. 설명 가능한 AI의 향후 방향에는 설명 프레임워크를 표준화하고 보다 효율적인 설명 방법에 대한 지속적인 연구가 포함됩니다.
결론
Explainable AI는 복잡한 AI/ML 모델을 해석하고 애플리케이션에 대한 신뢰를 제공하고 책임을 보장하는 데 매우 중요합니다. LIME, SHAP, 주의 메커니즘 및 의사결정 트리 시각화와 같은 기술을 활용합니다. 분야가 발전함에 따라 더욱 정교하고 표준화된 해석 가능한 AI 방법의 개발은 소프트웨어 개발 및 규정 준수의 진화하는 요구 사항을 해결하는 데 매우 중요할 것입니다.
원제: 설명 가능한 AI: 복잡한 AI/ML 모델 해석 작성자: Rajiv Avacharmal
위 내용은 설명 가능한 AI: 복잡한 AI/ML 모델 설명의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Meta는 NVIDIA, IBM 및 DELL과 같은 파트너와 함께 LLAMA 스택의 엔터프라이즈 수준 배포 통합을 확장했습니다. 보안 측면에서 Meta는 Llama Guard 4, Llamafirewall 및 Cyberseceval 4와 같은 새로운 도구를 출시했으며 AI 보안을 향상시키기 위해 LLAMA Defenders 프로그램을 시작했습니다. 또한 Meta는 공공 서비스, 건강 관리 및 교육을 개선하기 위해 노력하는 신생 기업을 포함하여 10 개의 글로벌 기관에 LLAMA Impact Grants의 150 만 달러를 배포했습니다. Llama 4에 의해 구동되는 새로운 Meta AI 응용 프로그램, Meta AI로 생각됩니다.

인간 -AI 상호 작용을 개척하는 회사 인 Joi AI는 이러한 진화하는 관계를 설명하기 위해 "AI-Lationships"라는 용어를 도입했습니다. Joi AI의 관계 치료사 인 Jaime Bronstein은 이것이 인간 C를 대체하는 것이 아니라는 것을 분명히합니다.

온라인 사기와 봇 공격은 비즈니스에 큰 도전을 제기합니다. 소매 업체는 봇과 싸우고, 은행은 전투 계정 인수 및 소셜 미디어 플랫폼이 사천자와 어려움을 겪고 있습니다. AI의 부상은이 문제를 악화시킨다

AI 에이전트는 마케팅에 혁명을 일으킬 준비가되어 있으며 이전 기술 변화의 영향을 능가 할 수 있습니다. 생성 AI의 상당한 발전을 나타내는이 에이전트는 Chatgpt와 같은 정보뿐만 아니라 Actio도 취합니다.

중요한 NBA 게임 4 결정에 대한 AI의 영향 두 가지 중추적 인 게임 4 NBA 매치업은 AI의 게임 변화 역할을 선보였습니다. 첫 번째로 덴버의 Nikola Jokic의 놓친 3 점은 Aaron Gordon의 마지막으로 골목길을 이끌었습니다. 소니의 매

전통적으로 전 세계적으로 재생 의학 전문 지식을 확장하여 광범위한 여행, 실습 교육 및 수년간의 멘토링을 요구했습니다. 이제 AI는이 환경을 변화시키고 지리적 한계를 극복하고 EN을 통한 진행 상황을 가속화하고 있습니다.

인텔은 제조 공정을 선도적 인 위치로 반환하기 위해 노력하고 있으며 팹 반도체 고객을 유치하여 팹에서 칩을 만들려고 노력하고 있습니다. 이를 위해 인텔은 프로세스의 경쟁력을 증명할뿐만 아니라 파트너가 친숙하고 성숙한 워크 플로우, 일관되고 신뢰할 수있는 방식으로 칩을 제조 할 수 있음을 보여주기 위해 업계에 대한 신뢰를 더 많이 구축해야합니다. 오늘 내가 듣는 모든 것은 인텔 이이 목표를 향해 나아가고 있다고 믿게 만듭니다. 새로운 CEO 인 탄 리바이 (Tan Libai)의 기조 연설이 그 날을 시작했다. Tan Libai는 간단하고 간결합니다. 그는 Intel의 Foundry Services에서 몇 가지 과제를 간략하게 설명하고 회사가 이러한 과제를 해결하고 향후 인텔의 파운드리 서비스를위한 성공적인 경로를 계획하기 위해 취한 조치를 취했습니다. Tan Libai는 고객을 더 많이 만들기 위해 인텔의 OEM 서비스가 구현되는 과정에 대해 이야기했습니다.

AI 위험과 관련된 점점 더 많은 문제를 해결하기 위해, 글로벌 특수 재보험 회사 인 Chaucer Group 및 Armilla AI는 TPL (Third-Party Liability) 보험 상품을 도입하기 위해 힘을 합쳤습니다. 이 정책은 비즈니스를 보호합니다


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.
