>  기사  >  기술 주변기기  >  오늘날의 인공지능 환경에서 설명 가능한 AI란 무엇일까?

오늘날의 인공지능 환경에서 설명 가능한 AI란 무엇일까?

WBOY
WBOY앞으로
2023-04-11 22:01:151471검색

오늘날의 인공지능 환경에서 설명 가능한 AI란 무엇일까?

인공 지능(AI)이 사회에서 더욱 정교해지고 널리 채택됨에 따라 가장 중요한 프로세스 및 방법 중 하나는 XAI라고도 불리는 설명 가능한 AI입니다.

설명 가능한 AI는 다음과 같이 정의할 수 있습니다.

인간 사용자가 기계 학습 알고리즘의 결과를 이해하고 신뢰하는 데 도움이 되는 일련의 프로세스 및 방법입니다.

짐작할 수 있듯이 이 해석성은 매우 중요합니다. AI 알고리즘은 많은 영역을 제어하기 때문에 편견, 잘못된 알고리즘 및 기타 문제가 발생할 위험이 있습니다. 설명 가능성을 통해 투명성을 활성화함으로써 세상은 인공 지능의 힘을 진정으로 활용할 수 있습니다.

설명 가능한 AI는 이름에서 알 수 있듯이 AI 모델, 그 영향 및 잠재적 편견을 설명하는 데 도움이 됩니다. 또한 모델 정확성, 공정성, 투명성 및 AI 기반 의사 결정 프로세스의 결과를 설명하는 역할을 합니다.

오늘날의 AI 기반 조직은 항상 설명 가능한 AI 프로세스를 채택하여 프로덕션 AI 모델에 대한 신뢰와 자신감을 구축해야 합니다. 오늘날의 인공지능 환경에서 설명 가능한 AI는 책임 있는 기업이 되기 위한 핵심이기도 합니다.

오늘날의 인공 지능 시스템은 매우 발전했기 때문에 인간은 종종 알고리즘이 결과에 어떻게 도달했는지 추적하기 위해 계산 프로세스를 수행합니다. 프로세스는 "블랙박스"가 되어 이해할 수 없습니다. 이러한 설명할 수 없는 모델이 데이터에서 직접 개발되면 누구도 무슨 일이 일어나고 있는지 이해할 수 없습니다.

설명 가능한 AI를 통해 AI 시스템이 어떻게 작동하는지 이해함으로써 개발자는 시스템이 제대로 작동하는지 확인할 수 있습니다. 또한 모델이 규제 표준을 준수하는지 확인하고 모델에 도전하거나 변경될 수 있는 기회를 제공하는 데 도움이 될 수 있습니다.

AI와 모든 결정의 차이점 추적 및 설명이 가능합니다. 반면 기존 AI는 결과를 얻기 위해 ML 알고리즘을 사용하는 경우가 많지만, 알고리즘이 결과를 어떻게 얻는지 완전히 이해하는 것은 불가능합니다. 기존 AI의 경우 정확성 확인이 어려워 통제력, 책임성, 감사 가능성이 상실된다.

Explainable AI의 이점

Explainable AI를 채택하려는 모든 조직에는 다음과 같은 많은 이점이 있습니다.

더 빠른 결과: explainable AI를 통해 조직은 모델을 체계적으로 모니터링하고 관리하여 비즈니스 결과를 최적화할 수 있습니다. 모델 성능을 지속적으로 평가 및 개선하고 모델 개발을 미세 조정할 수 있습니다.
  • 위험 감소: 설명 가능한 AI 프로세스를 채택하면 AI 모델이 설명 가능하고 투명하다는 것을 확인할 수 있습니다. 수동 검사의 오버헤드를 최소화하면서 규제, 규정 준수, 위험 및 기타 요구 사항을 관리할 수 있습니다. 이 모든 것은 의도하지 않은 편견의 위험을 줄이는 데에도 도움이 됩니다.
  • 신뢰 구축: 설명 가능한 AI는 프로덕션 AI에 대한 신뢰를 구축하는 데 도움이 됩니다. AI 모델을 신속하게 생산에 투입할 수 있고, 해석 가능성을 보장할 수 있으며, 모델 평가 프로세스를 단순화하고 더욱 투명하게 만들 수 있습니다.
  • 설명 가능한 AI 기술

모든 조직이 고려해야 할 몇 가지 XAI 기술이 있으며 예측 정확성, 추적성 및 의사 결정 이해라는 세 가지 주요 접근 방식이 있습니다.

첫 번째 접근 방식인 예측의 정확성은 일상 작업에서 인공 지능을 성공적으로 사용하는 열쇠입니다. 시뮬레이션을 수행하고 XAI 출력을 훈련 데이터 세트의 결과와 비교하여 예측의 정확성을 결정하는 데 도움을 줄 수 있습니다. 이를 달성하기 위한 가장 널리 사용되는 기술 중 하나는 기계 학습 알고리즘을 통해 분류기 예측을 해석하는 기술인 LIME(Locally Interpretable Model-Independent Description)입니다.
  • 두 번째 접근 방식은 추적성입니다. 이는 의사 결정 방법을 제한하고 기계 학습 규칙 및 기능에 대한 더 좁은 범위를 설정함으로써 달성됩니다. 가장 일반적인 추적 기술 중 하나는 DeepLIFT 또는 Deep Learning 중요 기능입니다. DeepLIFT는 각 뉴런의 활성화를 참조 뉴런과 비교하면서 활성화된 각 뉴런 사이의 추적 가능한 링크를 보여줍니다. 또한 서로에 대한 종속성을 보여줍니다.
  • 세 번째 방법은 의사결정 이해로, 인간 중심이라는 점에서 처음 두 가지 방법과 다릅니다. 의사결정 이해에는 AI가 의사결정을 내리는 방법과 이유를 이해할 수 있도록 조직, 특히 AI를 사용하는 팀을 교육하는 것이 포함됩니다. 이 접근 방식은 시스템에 대한 신뢰를 구축하는 데 중요합니다.
  • 설명 가능한 AI의 원리

XAI와 그 원리를 더 잘 이해하기 위해 미국 상무부 산하 국립표준기술연구소(NIST)에서는 설명 가능한 AI의 4가지 원칙에 대한 정의를 제공합니다.

  • AI 시스템은 각 출력에 대한 증거, 지원 또는 추론을 제공해야 합니다.
  • AI 시스템은 사용자가 이해할 수 있는 설명을 제공해야 합니다.
  • 설명은 출력을 달성하기 위해 시스템에서 사용하는 프로세스를 정확하게 반영해야 합니다.
  • AI 시스템은 설계된 조건에서만 작동해야 하며 결과에 대한 확신이 부족한 경우 출력을 제공해서는 안 됩니다.

이 원칙은 다음과 같이 더 정리할 수 있습니다.

  • 의미: 의미 있는 원칙을 구현하려면 사용자는 제공된 설명을 이해해야 합니다. 이는 또한 다양한 유형의 사용자가 AI 알고리즘을 사용하는 경우 다양한 해석이 있을 수 있음을 의미합니다. 예를 들어 자율주행차의 경우 다음과 같은 설명이 나올 수 있겠네요... "AI가 도로 위의 비닐봉지를 돌로 분류해 부딪히지 않도록 조치를 취한 것입니다." 드라이버에 적용됩니다. 이 문제를 해결하려는 AI 개발자에게는 별로 유용하지 않습니다. 이 경우 개발자는 오분류가 발생한 이유를 이해해야 합니다.
  • 설명 정확도: 출력 정확도와 달리 설명 정확도에는 출력에 어떻게 도달했는지 정확하게 설명하는 AI 알고리즘이 포함됩니다. 예를 들어, 대출 승인 알고리즘이 실제로는 신청자의 거주지를 기준으로 결정되었으나 신청자의 소득을 기준으로 결정을 해석하는 경우 이 해석은 부정확합니다.
  • 지식 제한: AI의 지식 한계는 두 가지 방법으로 도달할 수 있으며, 여기에는 시스템 전문 지식을 넘어서는 입력이 포함됩니다. 예를 들어, 새 종을 분류하는 시스템을 구축하고 '사과' 사진이 제공되면 입력이 새가 아니라고 해석할 수 있어야 합니다. 시스템에 흐릿한 사진이 제공되면 이미지에서 새를 식별할 수 없거나 식별 신뢰도가 매우 낮다고 보고할 수 있어야 합니다.

설명 가능한 AI에서 데이터의 역할

설명 가능한 AI의 가장 중요한 구성 요소 중 하나는 데이터입니다.

Google에 따르면 데이터 및 설명 가능한 AI와 관련하여 "AI 시스템은 기본 교육 데이터 및 교육 프로세스와 결과 AI 모델을 통해 가장 잘 이해됩니다." 이러한 이해는 훈련된 AI 모델을 사용된 정확한 데이터 세트에 매핑하는 데 달려 있습니다. 데이터를 면밀히 조사할 수 있는 능력과 훈련할 수 있는 능력이 필요합니다.

모델의 해석성을 높이려면 훈련 데이터에 주의를 기울이는 것이 중요합니다. 팀은 알고리즘 훈련에 사용되는 데이터의 출처, 데이터 획득의 합법성과 윤리성, 데이터의 잠재적 편견, 편견을 완화하기 위해 취할 수 있는 조치를 식별해야 합니다.

데이터와 XAI의 또 다른 핵심 측면은 시스템과 관련이 없는 데이터를 제외해야 한다는 것입니다. 이를 위해서는 훈련 세트나 입력 데이터에 관련 없는 데이터가 포함되어서는 안 됩니다.

Google은 설명 가능성과 책임성을 달성하기 위한 일련의 사례를 권장합니다.

  • 설명 가능성을 추구하기 위한 선택 계획
  • 설명 가능성을 사용자 경험의 핵심 부분으로 취급
  • 해석 가능한 모델 설계
  • 최종 목표와 궁극적인 결과를 반영하는 측정항목 선택 임무
  • 훈련된 모델 이해
  • 모델 사용자에게 설명 전달
  • 광범위한 테스트를 수행하여 AI 시스템이 예상대로 작동하는지 확인

이러한 권장 사례를 따르면 조직은 설명 가능한 AI 구현을 보장할 수 있습니다. 이는 오늘날의 환경에서 AI 기반 조직의 핵심입니다.

위 내용은 오늘날의 인공지능 환경에서 설명 가능한 AI란 무엇일까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제