찾다
기술 주변기기일체 포함인공지능을 더욱 투명하게 만드는 것이 가능할까?

인공지능을 더욱 투명하게 만드는 것이 가능할까?

인공지능을 더욱 윤리적으로 건전하고 실용적으로 만들기 위해서는 심층 신경망의 해석 가능성을 높이는 것이 중요합니다.

AI 노력의 투명성은 이 기술을 일상 업무에 통합하는 조직에 골칫거리가 될 수 있습니다. 그렇다면 설명 가능한 AI의 필요성에 대한 우려를 완화하기 위해 무엇을 할 수 있습니까?

모든 산업에서 AI의 엄청난 이점은 잘 알려져 있습니다. 우리는 이 기술이 전 세계 수천 개의 기업이 운영 속도를 높이고 직원을 보다 창의적으로 활용하는 데 어떻게 도움이 되는지 알고 있습니다. 또한 AI의 장기적인 비용과 데이터 보안 이점은 기술 칼럼니스트와 블로거에 의해 수없이 문서화되었습니다. 그러나 인공 지능에는 상당한 문제가 있습니다. 문제 중 하나는 기술의 의사결정이 때때로 의심스럽다는 것입니다. 그러나 더 중요한 것은 더 큰 문제는 AI 기반 시스템이 당황스럽거나 재앙적으로 잘못될 때마다 설명 가능성이 약간 부족하다는 것입니다.

인간은 매일 실수를 합니다. 그러나 우리는 오류가 어떻게 발생하는지 정확히 알고 있습니다. 향후 동일한 실수를 방지하기 위해 명확한 시정 조치를 취할 수 있습니다. 그러나 AI의 일부 오류는 데이터 전문가가 알고리즘이 작동에서 어떻게 특정 결론에 도달하는지 모르기 때문에 설명할 수 없습니다. 따라서 설명 가능한 AI는 일상 업무에 기술을 구현하려는 조직과 이미 이를 통합하고 있는 조직 모두에게 최우선 순위가 되어야 합니다.

AI를 설명 가능하게 만드는 이유

AI에 대한 일반적인 오류는 AI가 완전히 오류가 없다는 것입니다. 신경망은 특히 초기 단계에서는 실수를 할 수 있습니다. 동시에 이러한 네트워크는 불투명한 방식으로 주문을 수행합니다. 앞서 언급했듯이 AI 모델이 특정 결론에 도달하기 위해 취하는 경로는 작동 중 어느 시점에서도 명확하지 않습니다. 따라서 숙련된 데이터 전문가라도 이러한 오류를 설명하는 것은 거의 불가능합니다.

AI 투명성 문제는 의료 산업에서 특히 심각합니다. 다음 예를 생각해 보십시오. 병원에는 환자의 뇌 질환을 진단하는 신경망 또는 블랙박스 AI 모델이 있습니다. 지능형 시스템은 과거 기록과 환자의 기존 의료 파일 데이터에서 패턴을 찾도록 훈련되었습니다. 예측 분석을 사용하면 피험자가 미래에 뇌 관련 질병에 걸리기 쉽다고 모델이 예측하는 경우 예측 이유가 100% 명확하지 않은 경우가 많습니다. 민간 및 공공 기관 모두 AI 노력을 더욱 투명하게 만들어야 하는 4가지 주요 이유는 다음과 같습니다.

1. 책임

앞서 언급했듯이 이해관계자는 AI 모델의 의사 결정 프로세스 뒤에 있는 내부 작동 방식과 추론을 알아야 합니다. 특히 예상치 못한 제안과 결정에 대해서는 더욱 그렇습니다. 설명 가능한 AI 시스템은 알고리즘이 향후 공정하고 윤리적인 권장 사항과 결정을 내리도록 보장할 수 있습니다. 이를 통해 조직 내 AI 신경망의 규정 준수와 신뢰도를 높일 수 있습니다.

2. 더 강력한 통제력

설명 가능한 인공지능은 업무 운영 시 시스템 오류가 발생하는 것을 예방할 수 있는 경우가 많습니다. AI 모델의 기존 약점에 대한 더 많은 지식을 사용하여 이를 제거할 수 있습니다. 결과적으로 조직은 AI 시스템이 제공하는 결과를 더 효과적으로 제어할 수 있습니다.

3. 개선

우리 모두 알고 있듯이 인공지능 모델과 시스템은 수시로 지속적인 개선이 필요합니다. 설명 가능한 AI 알고리즘은 정기적인 시스템 업데이트를 통해 더욱 스마트해집니다.

4. 새로운 발견

인류는 HIV AIDS 치료를 위한 약물이나 치료법, 주의력 결핍 장애 치료 방법 등 현 시대의 주요 문제에 대한 해결책을 발견할 수 있습니다. 게다가 이러한 발견은 확실한 증거와 보편적 검증의 근거로 뒷받침될 것입니다.

AI 기반 시스템에서 투명성은 인간이 이해할 수 있는 자연어로 된 분석 설명, 출력 결정을 내리는 데 사용된 데이터를 강조하는 시각화, 주어진 결정을 뒷받침하는 요점을 보여주는 사례 또는 A를 강조하는 형태일 수 있습니다. 시스템이 다른 결정을 거부한 이유를 보여주는 설명입니다.

최근에는 설명 가능한 인공지능 분야가 발전하고 확장되었습니다. 가장 중요한 것은 이러한 추세가 앞으로도 계속된다면 기업은 설명 가능한 AI를 사용하여 결과를 개선하는 동시에 모든 중요한 AI 기반 결정의 근거를 이해할 수 있다는 것입니다.

이것이 AI가 더욱 투명해야 하는 이유이지만, 같은 일이 발생하는 것을 방해하는 몇 가지 장애물이 여전히 있습니다. 이러한 장애물 중 일부는 다음과 같습니다.

AI 책임 역설

설명 가능한 AI는 AI 시스템의 공정성, 신뢰 및 합법성과 같은 측면을 향상시킬 수 있는 것으로 알려져 있습니다. 그러나 설명 가능한 AI가 수많은 문제를 일으킬 수 있기 때문에 일부 조직에서는 지능형 시스템의 책임성을 높이는 데 덜 열중할 수 있습니다. 이러한 문제 중 일부는 다음과 같습니다.

AI 모델이 실행되는 방식에 대한 중요한 세부 정보를 훔칩니다.

시스템 취약점에 대한 인식 증가로 인해 외부 기관의 사이버 공격 위협.

그 외에도 많은 사람들은 AI 시스템에서 기밀 의사 결정 데이터를 노출하고 공개하면 조직이 소송이나 규제 조치에 취약해진다고 믿습니다.

이 "투명성 역설"의 영향을 받지 않으려면 기업은 설명 가능한 AI와 관련된 위험과 명확한 이점을 고려해야 합니다. 기업은 설명 가능한 AI 시스템에서 생성된 정보가 희석되지 않도록 하면서 이러한 위험을 효과적으로 관리해야 합니다.

또한 기업은 두 가지를 이해해야 합니다. 첫째, AI를 투명하게 만드는 데 드는 비용으로 인해 그러한 시스템을 통합하는 데 방해가 되어서는 안 됩니다. 기업은 제공하는 중요한 정보가 기밀로 유지되도록 해석 가능한 모델을 수용하는 위험 관리 계획을 개발해야 합니다. 둘째, 기업은 데이터 침해로 이어질 수 있는 취약성과 사이버 위협을 탐지하고 무력화하기 위해 사이버 보안 프레임워크를 개선해야 합니다.

인공지능의 블랙박스 문제

딥러닝은 인공지능의 필수적인 부분입니다. 딥 러닝 모델과 신경망은 감독되지 않은 방식으로 훈련되는 경우가 많습니다. 딥러닝 신경망은 이미지 인식 및 처리, 고급 음성 인식, 자연어 처리 및 시스템 번역과 관련된 인공 지능의 핵심 구성 요소입니다. 불행히도 이 AI 구성 요소는 기존 기계 학습 모델보다 더 복잡한 작업을 처리할 수 있지만 딥 러닝은 일상적인 작업 및 작업에 블랙박스 문제도 발생시킵니다.

우리가 알고 있듯이 신경망은 인간 두뇌의 작업을 복제할 수 있습니다. 인공신경망의 구조는 실제 신경망을 모방한 것이다. 신경망은 상호 연결된 여러 노드 레이어와 기타 "숨겨진" 레이어로 구성됩니다. 이러한 신경 노드는 결론을 도출하기 위해 기본적인 논리적 및 수학적 작업을 수행하는 동시에 기록 데이터를 처리하고 그로부터 결과를 생성할 만큼 똑똑하고 직관적입니다. 실제로 복잡한 작업에는 여러 신경 계층과 수십억 개의 수학 변수가 포함됩니다. 따라서 이러한 시스템에서 생성된 출력은 조직의 AI 전문가에 의해 완전히 검증되고 검증될 가능성이 거의 없습니다.

Deloitte 및 Google과 같은 조직은 블랙박스를 벗어나 지능형 시스템의 투명성을 높이기 위해 중요한 AI 결정을 내리는 데 사용되는 데이터를 공개하는 도구와 디지털 애플리케이션을 만들기 위해 노력하고 있습니다.

AI를 더욱 책임감 있게 만들기 위해 조직은 기존 AI 거버넌스 전략을 재구성해야 합니다. 개선된 거버넌스가 투명성 기반 AI 문제를 줄일 수 있는 몇 가지 주요 영역은 다음과 같습니다.

시스템 설계

초기 단계에서 조직은 AI 시스템을 구축하고 신경망을 훈련할 때 신뢰와 투명성을 우선시할 수 있습니다. AI 서비스 제공업체와 공급업체가 AI 네트워크를 설계하는 방법에 세심한 주의를 기울이면 조직의 주요 의사 결정자가 AI 모델의 기능과 정확성에 대한 초기 질문을 알릴 수 있습니다. 이러한 방식으로 조직이 관찰할 수 있도록 시스템 설계 단계에서 일부 AI 투명성 기반 문제를 밝히는 실습 접근 방식이 있습니다.

규정 준수

AI 책임과 관련하여 전 세계 AI 규정이 점점 더 엄격해짐에 따라 조직은 AI 모델과 시스템이 이러한 규범과 표준을 준수하도록 함으로써 진정한 이점을 얻을 수 있습니다. 조직은 설명 가능한 AI 시스템을 만들도록 AI 공급업체에 압력을 가해야 합니다. AI 알고리즘의 편견을 없애기 위해 기업은 값비싼 데이터 전문가와 팀을 고용하는 대신 클라우드 기반 서비스 제공업체에 접근할 수 있습니다. 조직은 직장에서 AI 시스템을 설치 및 구현하는 동안 클라우드 서비스 제공업체에 모든 규정 준수 관련 확인란을 선택하도록 명확하게 지시하여 규정 준수 부담을 완화해야 합니다. 이러한 사항 외에도 조직은 AI 거버넌스 계획에 개인 정보 보호 및 데이터 보안과 같은 사항을 포함할 수도 있습니다.

세기가 바뀌면서 우리는 인공 지능과 딥 러닝을 포함하여 가장 놀라운 기술 발전을 이루었습니다. 다행스럽게도 100% 설명 가능한 AI는 아직 존재하지 않지만 AI 기반 투명 시스템의 개념은 달성 불가능한 꿈이 아닙니다. AI 거버넌스를 개선하고 이를 달성하기 위해 위험을 감수하는 것은 이러한 시스템을 구현하는 조직의 몫입니다.

위 내용은 인공지능을 더욱 투명하게 만드는 것이 가능할까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
2023年机器学习的十大概念和技术2023年机器学习的十大概念和技术Apr 04, 2023 pm 12:30 PM

机器学习是一个不断发展的学科,一直在创造新的想法和技术。本文罗列了2023年机器学习的十大概念和技术。 本文罗列了2023年机器学习的十大概念和技术。2023年机器学习的十大概念和技术是一个教计算机从数据中学习的过程,无需明确的编程。机器学习是一个不断发展的学科,一直在创造新的想法和技术。为了保持领先,数据科学家应该关注其中一些网站,以跟上最新的发展。这将有助于了解机器学习中的技术如何在实践中使用,并为自己的业务或工作领域中的可能应用提供想法。2023年机器学习的十大概念和技术:1. 深度神经网

人工智能自动获取知识和技能,实现自我完善的过程是什么人工智能自动获取知识和技能,实现自我完善的过程是什么Aug 24, 2022 am 11:57 AM

实现自我完善的过程是“机器学习”。机器学习是人工智能核心,是使计算机具有智能的根本途径;它使计算机能模拟人的学习行为,自动地通过学习来获取知识和技能,不断改善性能,实现自我完善。机器学习主要研究三方面问题:1、学习机理,人类获取知识、技能和抽象概念的天赋能力;2、学习方法,对生物学习机理进行简化的基础上,用计算的方法进行再现;3、学习系统,能够在一定程度上实现机器学习的系统。

超参数优化比较之网格搜索、随机搜索和贝叶斯优化超参数优化比较之网格搜索、随机搜索和贝叶斯优化Apr 04, 2023 pm 12:05 PM

本文将详细介绍用来提高机器学习效果的最常见的超参数优化方法。 译者 | 朱先忠​审校 | 孙淑娟​简介​通常,在尝试改进机器学习模型时,人们首先想到的解决方案是添加更多的训练数据。额外的数据通常是有帮助(在某些情况下除外)的,但生成高质量的数据可能非常昂贵。通过使用现有数据获得最佳模型性能,超参数优化可以节省我们的时间和资源。​顾名思义,超参数优化是为机器学习模型确定最佳超参数组合以满足优化函数(即,给定研究中的数据集,最大化模型的性能)的过程。换句话说,每个模型都会提供多个有关选项的调整“按钮

得益于OpenAI技术,微软必应的搜索流量超过谷歌得益于OpenAI技术,微软必应的搜索流量超过谷歌Mar 31, 2023 pm 10:38 PM

截至3月20日的数据显示,自微软2月7日推出其人工智能版本以来,必应搜索引擎的页面访问量增加了15.8%,而Alphabet旗下的谷歌搜索引擎则下降了近1%。 3月23日消息,外媒报道称,分析公司Similarweb的数据显示,在整合了OpenAI的技术后,微软旗下的必应在页面访问量方面实现了更多的增长。​​​​截至3月20日的数据显示,自微软2月7日推出其人工智能版本以来,必应搜索引擎的页面访问量增加了15.8%,而Alphabet旗下的谷歌搜索引擎则下降了近1%。这些数据是微软在与谷歌争夺生

荣耀的人工智能助手叫什么名字荣耀的人工智能助手叫什么名字Sep 06, 2022 pm 03:31 PM

荣耀的人工智能助手叫“YOYO”,也即悠悠;YOYO除了能够实现语音操控等基本功能之外,还拥有智慧视觉、智慧识屏、情景智能、智慧搜索等功能,可以在系统设置页面中的智慧助手里进行相关的设置。

人工智能在教育领域的应用主要有哪些人工智能在教育领域的应用主要有哪些Dec 14, 2020 pm 05:08 PM

人工智能在教育领域的应用主要有个性化学习、虚拟导师、教育机器人和场景式教育。人工智能在教育领域的应用目前还处于早期探索阶段,但是潜力却是巨大的。

30行Python代码就可以调用ChatGPT API总结论文的主要内容30行Python代码就可以调用ChatGPT API总结论文的主要内容Apr 04, 2023 pm 12:05 PM

阅读论文可以说是我们的日常工作之一,论文的数量太多,我们如何快速阅读归纳呢?自从ChatGPT出现以后,有很多阅读论文的服务可以使用。其实使用ChatGPT API非常简单,我们只用30行python代码就可以在本地搭建一个自己的应用。 阅读论文可以说是我们的日常工作之一,论文的数量太多,我们如何快速阅读归纳呢?自从ChatGPT出现以后,有很多阅读论文的服务可以使用。其实使用ChatGPT API非常简单,我们只用30行python代码就可以在本地搭建一个自己的应用。使用 Python 和 C

人工智能在生活中的应用有哪些人工智能在生活中的应用有哪些Jul 20, 2022 pm 04:47 PM

人工智能在生活中的应用有:1、虚拟个人助理,使用者可通过声控、文字输入的方式,来完成一些日常生活的小事;2、语音评测,利用云计算技术,将自动口语评测服务放在云端,并开放API接口供客户远程使用;3、无人汽车,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶的目标;4、天气预测,通过手机GPRS系统,定位到用户所处的位置,在利用算法,对覆盖全国的雷达图进行数据分析并预测。

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

SublimeText3 Linux 새 버전

SublimeText3 Linux 새 버전

SublimeText3 Linux 최신 버전

에디트플러스 중국어 크랙 버전

에디트플러스 중국어 크랙 버전

작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

Dreamweaver Mac版

Dreamweaver Mac版

시각적 웹 개발 도구