>  기사  >  기술 주변기기  >  인공지능을 더욱 투명하게 만드는 것이 가능할까?

인공지능을 더욱 투명하게 만드는 것이 가능할까?

王林
王林앞으로
2023-04-14 10:58:02701검색

인공지능을 더욱 투명하게 만드는 것이 가능할까?

인공지능을 더욱 윤리적으로 건전하고 실용적으로 만들기 위해서는 심층 신경망의 해석 가능성을 높이는 것이 중요합니다.

AI 노력의 투명성은 이 기술을 일상 업무에 통합하는 조직에 골칫거리가 될 수 있습니다. 그렇다면 설명 가능한 AI의 필요성에 대한 우려를 완화하기 위해 무엇을 할 수 있습니까?

모든 산업에서 AI의 엄청난 이점은 잘 알려져 있습니다. 우리는 이 기술이 전 세계 수천 개의 기업이 운영 속도를 높이고 직원을 보다 창의적으로 활용하는 데 어떻게 도움이 되는지 알고 있습니다. 또한 AI의 장기적인 비용과 데이터 보안 이점은 기술 칼럼니스트와 블로거에 의해 수없이 문서화되었습니다. 그러나 인공 지능에는 상당한 문제가 있습니다. 문제 중 하나는 기술의 의사결정이 때때로 의심스럽다는 것입니다. 그러나 더 중요한 것은 더 큰 문제는 AI 기반 시스템이 당황스럽거나 재앙적으로 잘못될 때마다 설명 가능성이 약간 부족하다는 것입니다.

인간은 매일 실수를 합니다. 그러나 우리는 오류가 어떻게 발생하는지 정확히 알고 있습니다. 향후 동일한 실수를 방지하기 위해 명확한 시정 조치를 취할 수 있습니다. 그러나 AI의 일부 오류는 데이터 전문가가 알고리즘이 작동에서 어떻게 특정 결론에 도달하는지 모르기 때문에 설명할 수 없습니다. 따라서 설명 가능한 AI는 일상 업무에 기술을 구현하려는 조직과 이미 이를 통합하고 있는 조직 모두에게 최우선 순위가 되어야 합니다.

AI를 설명 가능하게 만드는 이유

AI에 대한 일반적인 오류는 AI가 완전히 오류가 없다는 것입니다. 신경망은 특히 초기 단계에서는 실수를 할 수 있습니다. 동시에 이러한 네트워크는 불투명한 방식으로 주문을 수행합니다. 앞서 언급했듯이 AI 모델이 특정 결론에 도달하기 위해 취하는 경로는 작동 중 어느 시점에서도 명확하지 않습니다. 따라서 숙련된 데이터 전문가라도 이러한 오류를 설명하는 것은 거의 불가능합니다.

AI 투명성 문제는 의료 산업에서 특히 심각합니다. 다음 예를 생각해 보십시오. 병원에는 환자의 뇌 질환을 진단하는 신경망 또는 블랙박스 AI 모델이 있습니다. 지능형 시스템은 과거 기록과 환자의 기존 의료 파일 데이터에서 패턴을 찾도록 훈련되었습니다. 예측 분석을 사용하면 피험자가 미래에 뇌 관련 질병에 걸리기 쉽다고 모델이 예측하는 경우 예측 이유가 100% 명확하지 않은 경우가 많습니다. 민간 및 공공 기관 모두 AI 노력을 더욱 투명하게 만들어야 하는 4가지 주요 이유는 다음과 같습니다.

1. 책임

앞서 언급했듯이 이해관계자는 AI 모델의 의사 결정 프로세스 뒤에 있는 내부 작동 방식과 추론을 알아야 합니다. 특히 예상치 못한 제안과 결정에 대해서는 더욱 그렇습니다. 설명 가능한 AI 시스템은 알고리즘이 향후 공정하고 윤리적인 권장 사항과 결정을 내리도록 보장할 수 있습니다. 이를 통해 조직 내 AI 신경망의 규정 준수와 신뢰도를 높일 수 있습니다.

2. 더 강력한 통제력

설명 가능한 인공지능은 업무 운영 시 시스템 오류가 발생하는 것을 예방할 수 있는 경우가 많습니다. AI 모델의 기존 약점에 대한 더 많은 지식을 사용하여 이를 제거할 수 있습니다. 결과적으로 조직은 AI 시스템이 제공하는 결과를 더 효과적으로 제어할 수 있습니다.

3. 개선

우리 모두 알고 있듯이 인공지능 모델과 시스템은 수시로 지속적인 개선이 필요합니다. 설명 가능한 AI 알고리즘은 정기적인 시스템 업데이트를 통해 더욱 스마트해집니다.

4. 새로운 발견

인류는 HIV AIDS 치료를 위한 약물이나 치료법, 주의력 결핍 장애 치료 방법 등 현 시대의 주요 문제에 대한 해결책을 발견할 수 있습니다. 게다가 이러한 발견은 확실한 증거와 보편적 검증의 근거로 뒷받침될 것입니다.

AI 기반 시스템에서 투명성은 인간이 이해할 수 있는 자연어로 된 분석 설명, 출력 결정을 내리는 데 사용된 데이터를 강조하는 시각화, 주어진 결정을 뒷받침하는 요점을 보여주는 사례 또는 A를 강조하는 형태일 수 있습니다. 시스템이 다른 결정을 거부한 이유를 보여주는 설명입니다.

최근에는 설명 가능한 인공지능 분야가 발전하고 확장되었습니다. 가장 중요한 것은 이러한 추세가 앞으로도 계속된다면 기업은 설명 가능한 AI를 사용하여 결과를 개선하는 동시에 모든 중요한 AI 기반 결정의 근거를 이해할 수 있다는 것입니다.

이것이 AI가 더욱 투명해야 하는 이유이지만, 같은 일이 발생하는 것을 방해하는 몇 가지 장애물이 여전히 있습니다. 이러한 장애물 중 일부는 다음과 같습니다.

AI 책임 역설

설명 가능한 AI는 AI 시스템의 공정성, 신뢰 및 합법성과 같은 측면을 향상시킬 수 있는 것으로 알려져 있습니다. 그러나 설명 가능한 AI가 수많은 문제를 일으킬 수 있기 때문에 일부 조직에서는 지능형 시스템의 책임성을 높이는 데 덜 열중할 수 있습니다. 이러한 문제 중 일부는 다음과 같습니다.

AI 모델이 실행되는 방식에 대한 중요한 세부 정보를 훔칩니다.

시스템 취약점에 대한 인식 증가로 인해 외부 기관의 사이버 공격 위협.

그 외에도 많은 사람들은 AI 시스템에서 기밀 의사 결정 데이터를 노출하고 공개하면 조직이 소송이나 규제 조치에 취약해진다고 믿습니다.

이 "투명성 역설"의 영향을 받지 않으려면 기업은 설명 가능한 AI와 관련된 위험과 명확한 이점을 고려해야 합니다. 기업은 설명 가능한 AI 시스템에서 생성된 정보가 희석되지 않도록 하면서 이러한 위험을 효과적으로 관리해야 합니다.

또한 기업은 두 가지를 이해해야 합니다. 첫째, AI를 투명하게 만드는 데 드는 비용으로 인해 그러한 시스템을 통합하는 데 방해가 되어서는 안 됩니다. 기업은 제공하는 중요한 정보가 기밀로 유지되도록 해석 가능한 모델을 수용하는 위험 관리 계획을 개발해야 합니다. 둘째, 기업은 데이터 침해로 이어질 수 있는 취약성과 사이버 위협을 탐지하고 무력화하기 위해 사이버 보안 프레임워크를 개선해야 합니다.

인공지능의 블랙박스 문제

딥러닝은 인공지능의 필수적인 부분입니다. 딥 러닝 모델과 신경망은 감독되지 않은 방식으로 훈련되는 경우가 많습니다. 딥러닝 신경망은 이미지 인식 및 처리, 고급 음성 인식, 자연어 처리 및 시스템 번역과 관련된 인공 지능의 핵심 구성 요소입니다. 불행히도 이 AI 구성 요소는 기존 기계 학습 모델보다 더 복잡한 작업을 처리할 수 있지만 딥 러닝은 일상적인 작업 및 작업에 블랙박스 문제도 발생시킵니다.

우리가 알고 있듯이 신경망은 인간 두뇌의 작업을 복제할 수 있습니다. 인공신경망의 구조는 실제 신경망을 모방한 것이다. 신경망은 상호 연결된 여러 노드 레이어와 기타 "숨겨진" 레이어로 구성됩니다. 이러한 신경 노드는 결론을 도출하기 위해 기본적인 논리적 및 수학적 작업을 수행하는 동시에 기록 데이터를 처리하고 그로부터 결과를 생성할 만큼 똑똑하고 직관적입니다. 실제로 복잡한 작업에는 여러 신경 계층과 수십억 개의 수학 변수가 포함됩니다. 따라서 이러한 시스템에서 생성된 출력은 조직의 AI 전문가에 의해 완전히 검증되고 검증될 가능성이 거의 없습니다.

Deloitte 및 Google과 같은 조직은 블랙박스를 벗어나 지능형 시스템의 투명성을 높이기 위해 중요한 AI 결정을 내리는 데 사용되는 데이터를 공개하는 도구와 디지털 애플리케이션을 만들기 위해 노력하고 있습니다.

AI를 더욱 책임감 있게 만들기 위해 조직은 기존 AI 거버넌스 전략을 재구성해야 합니다. 개선된 거버넌스가 투명성 기반 AI 문제를 줄일 수 있는 몇 가지 주요 영역은 다음과 같습니다.

시스템 설계

초기 단계에서 조직은 AI 시스템을 구축하고 신경망을 훈련할 때 신뢰와 투명성을 우선시할 수 있습니다. AI 서비스 제공업체와 공급업체가 AI 네트워크를 설계하는 방법에 세심한 주의를 기울이면 조직의 주요 의사 결정자가 AI 모델의 기능과 정확성에 대한 초기 질문을 알릴 수 있습니다. 이러한 방식으로 조직이 관찰할 수 있도록 시스템 설계 단계에서 일부 AI 투명성 기반 문제를 밝히는 실습 접근 방식이 있습니다.

규정 준수

AI 책임과 관련하여 전 세계 AI 규정이 점점 더 엄격해짐에 따라 조직은 AI 모델과 시스템이 이러한 규범과 표준을 준수하도록 함으로써 진정한 이점을 얻을 수 있습니다. 조직은 설명 가능한 AI 시스템을 만들도록 AI 공급업체에 압력을 가해야 합니다. AI 알고리즘의 편견을 없애기 위해 기업은 값비싼 데이터 전문가와 팀을 고용하는 대신 클라우드 기반 서비스 제공업체에 접근할 수 있습니다. 조직은 직장에서 AI 시스템을 설치 및 구현하는 동안 클라우드 서비스 제공업체에 모든 규정 준수 관련 확인란을 선택하도록 명확하게 지시하여 규정 준수 부담을 완화해야 합니다. 이러한 사항 외에도 조직은 AI 거버넌스 계획에 개인 정보 보호 및 데이터 보안과 같은 사항을 포함할 수도 있습니다.

세기가 바뀌면서 우리는 인공 지능과 딥 러닝을 포함하여 가장 놀라운 기술 발전을 이루었습니다. 다행스럽게도 100% 설명 가능한 AI는 아직 존재하지 않지만 AI 기반 투명 시스템의 개념은 달성 불가능한 꿈이 아닙니다. AI 거버넌스를 개선하고 이를 달성하기 위해 위험을 감수하는 것은 이러한 시스템을 구현하는 조직의 몫입니다.

위 내용은 인공지능을 더욱 투명하게 만드는 것이 가능할까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제