이 기사에서는 기계 학습 및 인공 지능 모델 설명 및 해석 가능성의 개념을 살펴 봅니다. 우리는 왜 모델이 예측을하는 방법을 이해하는지, 특히 이러한 기술이 의료, 금융 및 법률 시스템과 같은 중요한 분야에서 사용되므로 왜. Lime 및 Shap과 같은 도구를 통해 모델의 의사 결정 프로세스에 대한 통찰력을 얻는 방법을 보여 주어 복잡한 모델을보다 투명하게 만듭니다. 이 기사는 설명 성과 해석 성의 차이점을 강조하고, 이러한 개념이 AI 시스템에 대한 신뢰 구축에 어떻게 기여하는지 설명하고 도전과 한계를 해결하는 방법을 설명합니다. 학습 목표
목차
- 설명 가능성과 해석 가능성은 무엇을 의미하고, ML과 AI에서 필수적인 이유는 무엇입니까?
- ML 및 AI의 설명에 대한 인기있는 비즈니스 사용 사례를 개선하는 데 필수적인 이유와 AI 및 해석에 대한 대중 비즈니스 사용 사례를 개선하는 데 필요한 이점 교란 된 데이터와 그것이 어떻게 생성되는지?
- 복잡한 모델에서 설명 할 수있는 설명 성과 해석 가능성이 어떻게 작동하는지
- 라임 모델 의사 결정을 어떻게 해석 하는가?
- 라임 혼란스러운 데이터에 액세스하는 방법?
- 복잡한 XGBoost 모델을 구현하고 해석하는 방법 모델의 비교 테이블을 구현하고 해석하는 방법 모델 설명
- 결론
- 자주 묻는 질문
-
설명 가능성과 해석 가능성은 무엇을 의미하며, 왜 ML과 AI에서 필수적인 이유는 무엇입니까?
설명 가능성은 모델의 의사 결정에 대한 이유에 대답하는 과정입니다. 예를 들어, ML과 AI 모델이 모델이 트리의 분리 노드를 분리하는 방법을 설명하고 어떻게 분할되었는지에 대한 논리를 설명함으로써 모델의 결정에 대한 설명과 추론을 제공 할 수있을 때 설명 할 수 있다고 말할 수 있습니다. - .반면에 해석 성은 모델의 설명과 결정을 비 기술적 사용자에게 번역하는 것과 관련된 프로세스입니다. 데이터 과학자들은 모델 예측에 기여하는 가중치 및 계수와 같은 것을 이해하는 데 도움이되며, 비 기술적 사용자가 모델이 어떻게 결정을 내린 방법과 모델이 그러한 예측을하는 데 중요한 요소를 이해하는 데 도움이됩니다.
. AI 및 ML 모델이 LLM 및 딥 러닝 모델과 같은 수백 개의 모델 레이어와 수십억에서 수십억 개의 매개 변수로 점점 더 복잡해지면서 모델의 모델의 전체 및 로컬 관찰 수준 결정을 이해하기가 매우 어려워집니다. 모델 설명 성은 모델의 내부 작업에 대한 통찰력과 추론에 대한 설명을 제공합니다. 따라서 데이터 과학자와 AI 전문가가 설명 성 기술을 모델 구축 프로세스에 활용하는 것이 필수적이며 이는 모델의 해석 성을 향상시킬 것입니다.
.모델의 설명 및 해석 성을 향상시키는 이점 아래는 모델의 설명과 해석의 이점을 살펴볼 것입니다. 개선 된 신뢰 신뢰는 넓은 의미를 가진 단어입니다. 그것은 누군가의 신뢰성, 정직 또는 성실에 대한 자신감입니다. 신뢰는 사람들뿐만 아니라 생명이없는 것들과 관련이 있습니다. 예를 들어, 친구의 의사 결정에 의존하거나 완전 자동화 된 운전 차량에 의존하여 한 곳에서 다른 곳으로 당신을 운송합니다. 투명성과 의사 소통이 부족하면 신뢰가 침식 될 수 있습니다. 또한 신뢰는 시간이 지남에 따라 작은 단계를 통해 구축되며 긍정적 인 상호 작용을 반복했습니다. 우리가 사람이나 사물과 일관된 긍정적 인 상호 작용을 할 때, 그것은 그들의 신뢰성, 긍정적 인 의도 및 무해함에 대한 우리의 믿음을 강화시킵니다. 따라서 신뢰는 우리의 경험을 통해 시간이 지남에 따라 구축됩니다. 그리고 우리가 ML & AI 모델과 그 예측에 의존하는 것이 중요한 역할을합니다. 개선 된 투명성 및 협업 기계 또는 딥 러닝 모델의 내부 작업, 의사 결정 과정 및 규칙과 선택의 직관을 설명 할 수있을 때 신뢰와 책임을 확립 할 수 있습니다. 또한 이해 관계자 및 파트너와의 협력 및 참여를 향상시키는 데 도움이됩니다. 개선 된 문제 해결 예상대로 무언가가 깨지거나 작동하지 않으면 문제의 출처를 찾아야합니다. 이를 위해서는 시스템이나 모델의 내부 작업으로의 투명성이 중요합니다. 문제를 진단하고 효과적인 조치를 취하기 위해 문제를 해결하는 데 도움이됩니다. 예를 들어, "B"를 대출로 승인해서는 안되는 사람을 예측하는 모델을 고려하십시오. 이를 이해하려면 모델의 예측과 결정을 조사해야합니다. 여기에는 사람 "B 's"관찰에 대한 모델이 우선 순위로 구성된 요인을 식별하는 것이 포함됩니다.이러한 시나리오에서 모델 설명은 사람과 관련된 모델의 예측과 의사 결정에 대해 더 깊이 살펴볼 때 매우 편리합니다. 또한 모델의 내부 작업을 더 깊이 살펴 보는 동안 모델 결정에 영향을 미치고 영향을 줄 수있는 몇 가지 편견을 빠르게 발견 할 수 있습니다. 따라서 ML 및 AI 모델에 대한 설명을 갖고이를 활용하여 문제 해결, 모니터링 및 지속적인 개선 효율성을 높이고 편견을 식별하고 완화하고 모델 성능을 향상시키는 데 도움이됩니다. ML 및 AI에 대한 인기있는 비즈니스 사용 사례는 설명 가능성 및 해석 가능성 우리는 항상 데이터 중심의 정보에 영향을 미치고 결정하는 모델의 전반적인 예측 능력에 관심이 있습니다. 은행 및 금융, 소매, 의료, 인터넷과 같은 다양한 산업 분야에서 ML 및 AI 모델에 대한 수많은 응용 프로그램이 있습니다. 상업, 보험, 자동차, 제조, 교육, 통신, 여행, 공간 등. 다음은 몇 가지 예입니다 은행 및 금융 은행 및 금융 산업의 경우 대출을 제공하거나 신용 카드를 발행하는 데 올바른 고객을 식별하는 것이 중요합니다. 또한 사기 거래 예방에 관심이 있습니다. 또한,이 산업은 규제가 높다. 응용 프로그램 승인 및 사기 모니터링과 같은 이러한 내부 프로세스를 효율적으로 만들기 위해 금융 및 금융 레버리지 ML 및 AI 모델링은 이러한 중요한 결정을 돕습니다. 그들은 ML 및 AI 모델을 사용하여 특정 및 알려진 요인에 따라 결과를 예측합니다. 일반적으로, 대부분의 기관들은 트랜잭션과 데이터를 지속적으로 모니터링하여 패턴, 추세 및 이상을 탐지합니다. 그들이 처리하는 각 응용 프로그램에 대한 ML 및 AI 모델 예측을 이해하는 것이 중요해집니다. 그들은 모델 예측의 추론과 예측에 중요한 역할을 한 요인을 이해하는 데 관심이 있습니다. 이제, ML 모델이 신용 점수가 높은 일부 고객에 대해 대출 신청을 거부 할 것으로 예측했다고 가정 해 봅시다. 이러한 시나리오에서는 위험 분석을위한 모델 설명을 활용하고 모델이 고객 애플리케이션을 거부하기로 결정한 이유 와이 의사 결정에서 어떤 고객 요소가 중요한 역할을했는지에 대한 더 깊은 통찰력을 얻을 수 있습니다. 이 발견은 모델 의사 결정에서 문제, 취약성 및 새로운 편견을 감지, 조사 및 완화하고 모델 성능을 향상시키는 데 도움이 될 수 있습니다.
. 건강 관리
요즘 의료 산업에서 ML/AI 모델은 예를 들어 병력, 실험실, 라이프 스타일, 유전학 등과 같은 다양한 요인을 기반으로 환자 건강 결과를 예측하기 위해 활용됩니다. 의료 기관이 ML/AI 모델을 사용하여 치료중인 환자가 암에 걸릴 확률이 높은지 예측한다고 가정 해 봅시다. 이러한 문제는 사람의 수명과 관련이 있으므로 AI/ML 모델은 정확도가 매우 높은 결과를 예측할 것으로 예상됩니다.
.이러한 시나리오에서는 모델의 예측, 결정 규칙을 더 깊이 바라 볼 수 있으며 예측에 영향을 미치는 요소를 이해하는 것이 중요해집니다. 의료 전문가 팀은 실사를 수행하고 ML/AI 모델의 투명성이 예측 된 환자 결과 및 기여 요인과 관련된 명확하고 상세한 설명을 제공 할 것으로 기대합니다. 여기서 ML/AI 모델 설명이 필수화되는 곳입니다 이 심문은 때때로 모델 의사 결정에서 숨겨진 취약점과 바이어스를 발견하는 데 도움이 될 수 있으며 미래의 모델 예측을 개선하기 위해 해결 될 수 있습니다. 자율 차량 자율 주행 차량은 자동차,화물 트럭, 열차, 비행기, 선박, 선박, 우주선 등과 같은 자체 운영 차량입니다. 이러한 차량에서 AI 및 ML 모델은 이러한 차량이 인간의 개입없이 독립적으로 작동 할 수 있도록하는 데 중요한 역할을합니다. 이 모델은 머신 러닝 및 컴퓨터 비전 모델을 사용하여 구축됩니다. 그들은 자율 자동차/차량이 주변의 정보를 인식하고, 정보에 입각 한 결정을 내리고, 안전하게 탐색 할 수있게합니다. 도로에서 작동하도록 설계된 자율 주행의 경우, 내비게이션은 차량을 실시간으로 자율적으로 안내하고, 즉 객체를 탐지하고, 교통 신호 및 표시를 인식하고, 객체 행동을 인식하고, 레인을 유지하고, 계획 경로를 유지하고, 정보를 유지하고, 사전 결정을 예측하고, 가속, 스티어링, 스티어링과 같은 적절한 행동을 취하는 것과 같은 중요한 작업을 통해 실시간으로 차량을 자율적으로 안내하는 것을 의미합니다. 자율적 인 도로 차량에는 운전자, 승객, 공공 및 공공 재산의 안전이 포함되므로 공공 신뢰, 수용 및 채택을 얻기 위해 완벽하게 작동하고 규정 및 규정 준수를 준수해야합니다. 따라서 이러한 차량이 결정을 내리는 데 완전히 의존하는 AI 및 ML 모델에 대한 신뢰를 구축하는 것이 매우 중요합니다. 자율 주 차량에서 AI 및 ML 설명은 설명 가능한 AI (XAI)라고도합니다. 설명 가능한 AI는 AI 작업 및 결정에 대한 피드백을 실시간으로 제공하여 사용자 상호 작용을 개선하는 데 사용할 수 있으며, 이러한 도구는 AI 결정 및 문제를 조사하고 숨겨진 편향 및 취약성을 식별 및 제거하고 자율 주행 차량 모델을 개선하는 도구 역할을 할 수 있습니다. 소매 소매 산업에서 AI 및 ML 모델은 제품 판매, 재고 관리, 마케팅, 고객 지원 및 경험 등과 같은 다양한 결정을 안내하는 데 사용됩니다. ML 및 AI에 대한 설명은 모델 예측에 대한 이해를 촉진하고 판매가 발생하지 않는 제품의 예측과 관련된 예측과 관련된 예측과 관련된 예측과 관련된 예측에 대한 자세한 내용을 촉진합니다. 또는 어떤 마케팅 캠페인이 판매 등에 긍정적 인 영향을 미치는 등
.위의 비즈니스 사용 사례에서 ML 및 AI 모델이 전체 모델에 대한 명확하고 사용 가능한 설명과 비즈니스 의사 결정을 안내하고 비즈니스 운영을 효율적으로 만드는 개별 예측을하는 것이 매우 중요하다는 것을 분명히 알 수 있습니다. 일부 복잡한 모델에는 내장 설명 가능성이 있으며 일부 모델은이를 위해 외부 도구에 의존합니다. 오늘날 모델 설명 가능성을 추가하는 데 도움이되는 몇 가지 모델 공연 도구가 있습니다. 우리는 이용 가능한 두 가지 도구를 더 깊이 살펴볼 것입니다. ML 및 AI 모델을 개선하기위한 도구
설명 가능성 및 해석 성 모델 의사 결정 프로세스와 관련된 정보를 제공하는 모든 도구 및 모델 예측의 기능 기여는 매우 유용합니다. 시각화를 통해 설명을보다 직관적으로 만들 수 있습니다. 이 기사에서는 ML 및 AI 모델 설명 및 해석 가능성을 추가하기 위해 널리 사용되는 두 가지 외부 도구를 자세히 살펴볼 것입니다.
라임 (로컬 해석 가능한 모델-비수성 설명)Shap (형태 적 부가 적 설명)
라임은 모델 불가지론이며, 모든 기계 학습 및 딥 러닝 모델로 구현 될 수 있습니다. 선형 및 로지스틱 회귀, 의사 결정 트리, 랜덤 포레스트, XGBOOST, KNN, ELASTICNET 등과 같은 기계 학습 모델 및 RNN, LSTM, CNN, 미리 훈련 된 블랙 박스 모델 등과 같은 심층 신경망 모델과 같은 기계 학습 모델과 함께 사용할 수 있습니다. 간단한 해석 가능한 모델을 사용하여 복잡한 모델의 내부 작업을 설명 할 수 있다고 가정합니다. 간단한 해석 가능한 모델은 간단한 선형 회귀 모델 또는 의사 결정 트리 모델 일 수 있습니다. 여기서는 간단한 선형 회귀 모델을 해석 가능한 모델로 사용하여 라임/쉐이프 설명을 사용하여 복잡한 모델에 대한 설명을 생성했습니다. 라임은 또한 한 번에 단일 관찰에서 로컬로 국소적인 해석 가능한 모델 공제 설명 작업을 호출하고 모델 이이 관찰의 점수를 어떻게 예측했는지 이해하는 데 도움이됩니다. 원래 관측에서 특징의 혼란스러운 값을 사용하여 합성 데이터를 생성하여 작동합니다. 교란 된 데이터는 무엇이며 어떻게 생성되는지? 테이블 데이터에 대한 교란 된 데이터 세트를 만들려면 Lime은 먼저 관찰의 모든 기능을 취한 다음 다양한 변환을 사용하여 기능 값을 약간 수정하여 관찰을위한 새로운 값을 반복적으로 생성합니다. 교란 된 값은 원래 관측 값에 매우 가깝고 원래의 값에 가까운 지역에서. 텍스트 및 이미지 데이터 유형의 경우 Lime은 원래 데이터 세트에서 기능을 무작위로 선택하고 기능에 대한 기능의 새로운 혼란스러운 값을 생성하여 데이터 세트를 반복적으로 생성합니다. 라임 커널 너비는 데이터 포인트 이웃의 크기를 제어합니다. 커널 크기가 작다는 것은 이웃이 작고 원래 값에 가장 가까운 포인트가 설명에 크게 영향을 미치는 반면, 큰 커널 크기의 경우 먼 지점이 라임 설명에 기여할 수 있습니다. 더 넓은 이웃 크기는 정확한 설명을 덜 이끌어 내지 만 데이터의 더 넓은 트렌드를 발견하는 데 도움이 될 수 있습니다. 보다 정확한 지역 설명을 위해서는 작은 이웃 크기를 선호해야합니다.BigMart 데이터 세트에서 관측 #0을 고려합니다. 이 관찰에는 값이 13 인 'item_type'기능이 있습니다.이 기능의 평균 및 표준 편차를 계산했으며 평균 값은 7.234이고 표준 편차는 4.22입니다. 이것은 위 그림에 나와 있습니다. 이 정보를 사용하여 z- 점수를 1.366과 동일하게 계산했습니다. z- 점수의 왼쪽에있는 영역은 x 아래로 떨어질 기능의 값의 %를 우리에게 제공합니다. 1.366의 Z- 점수의 경우 x = 13 미만으로 떨어질 기능에 대해 약 91.40% 값이 있습니다. 따라서, 우리는이 기능에 대해 커널 폭이 x = 13 미만이어야한다는 직관을 얻습니다. 그리고 커널 너비는 교란 된 데이터에 대한 이웃의 크기를 제어하는 데 도움이 될 것입니다. 아래 그림 -2는 BigMart 데이터 세트의 3 가지 원래 테스트 데이터 포인트를 보여 주며 라임 프로세스의 직관을 얻기 위해이를 고려했습니다. Xgboost는 복잡한 모델이며 원래 관측 인스턴스에 대한 예측을 생성하는 데 사용되었습니다. 이 기사에서는 BigMart 전처리 및 인코딩 된 데이터 세트의 상위 3 개 레코드를 사용하여 토론을 뒷받침 할 예제 및 설명을 제공합니다.
Shapley actitive exclationations and halling and halling and honsudent and halling and holse 셰이프 설명?
- 복잡한 XGBR 모델에 대한 쉐이프 요약 플롯을 구현하고 해석하는 방법? 복잡한 XGBR 모델에 대한 쉐이프 의존성 플롯을 구현하고 해석하는 방법?
위 내용은 ML 및 AI 모델 설명 및 해석 가능성의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Meta는 NVIDIA, IBM 및 DELL과 같은 파트너와 함께 LLAMA 스택의 엔터프라이즈 수준 배포 통합을 확장했습니다. 보안 측면에서 Meta는 Llama Guard 4, Llamafirewall 및 Cyberseceval 4와 같은 새로운 도구를 출시했으며 AI 보안을 향상시키기 위해 LLAMA Defenders 프로그램을 시작했습니다. 또한 Meta는 공공 서비스, 건강 관리 및 교육을 개선하기 위해 노력하는 신생 기업을 포함하여 10 개의 글로벌 기관에 LLAMA Impact Grants의 150 만 달러를 배포했습니다. Llama 4에 의해 구동되는 새로운 Meta AI 응용 프로그램, Meta AI로 생각됩니다.

인간 -AI 상호 작용을 개척하는 회사 인 Joi AI는 이러한 진화하는 관계를 설명하기 위해 "AI-Lationships"라는 용어를 도입했습니다. Joi AI의 관계 치료사 인 Jaime Bronstein은 이것이 인간 C를 대체하는 것이 아니라는 것을 분명히합니다.

온라인 사기와 봇 공격은 비즈니스에 큰 도전을 제기합니다. 소매 업체는 봇과 싸우고, 은행은 전투 계정 인수 및 소셜 미디어 플랫폼이 사천자와 어려움을 겪고 있습니다. AI의 부상은이 문제를 악화시킨다

AI 에이전트는 마케팅에 혁명을 일으킬 준비가되어 있으며 이전 기술 변화의 영향을 능가 할 수 있습니다. 생성 AI의 상당한 발전을 나타내는이 에이전트는 Chatgpt와 같은 정보뿐만 아니라 Actio도 취합니다.

중요한 NBA 게임 4 결정에 대한 AI의 영향 두 가지 중추적 인 게임 4 NBA 매치업은 AI의 게임 변화 역할을 선보였습니다. 첫 번째로 덴버의 Nikola Jokic의 놓친 3 점은 Aaron Gordon의 마지막으로 골목길을 이끌었습니다. 소니의 매

전통적으로 전 세계적으로 재생 의학 전문 지식을 확장하여 광범위한 여행, 실습 교육 및 수년간의 멘토링을 요구했습니다. 이제 AI는이 환경을 변화시키고 지리적 한계를 극복하고 EN을 통한 진행 상황을 가속화하고 있습니다.

인텔은 제조 공정을 선도적 인 위치로 반환하기 위해 노력하고 있으며 팹 반도체 고객을 유치하여 팹에서 칩을 만들려고 노력하고 있습니다. 이를 위해 인텔은 프로세스의 경쟁력을 증명할뿐만 아니라 파트너가 친숙하고 성숙한 워크 플로우, 일관되고 신뢰할 수있는 방식으로 칩을 제조 할 수 있음을 보여주기 위해 업계에 대한 신뢰를 더 많이 구축해야합니다. 오늘 내가 듣는 모든 것은 인텔 이이 목표를 향해 나아가고 있다고 믿게 만듭니다. 새로운 CEO 인 탄 리바이 (Tan Libai)의 기조 연설이 그 날을 시작했다. Tan Libai는 간단하고 간결합니다. 그는 Intel의 Foundry Services에서 몇 가지 과제를 간략하게 설명하고 회사가 이러한 과제를 해결하고 향후 인텔의 파운드리 서비스를위한 성공적인 경로를 계획하기 위해 취한 조치를 취했습니다. Tan Libai는 고객을 더 많이 만들기 위해 인텔의 OEM 서비스가 구현되는 과정에 대해 이야기했습니다.

AI 위험과 관련된 점점 더 많은 문제를 해결하기 위해, 글로벌 특수 재보험 회사 인 Chaucer Group 및 Armilla AI는 TPL (Third-Party Liability) 보험 상품을 도입하기 위해 힘을 합쳤습니다. 이 정책은 비즈니스를 보호합니다


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

VSCode Windows 64비트 다운로드
Microsoft에서 출시한 강력한 무료 IDE 편집기

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!
