>기술 주변기기 >일체 포함 >더 나은 인공지능으로 더 나은 사회를 건설하세요

더 나은 인공지능으로 더 나은 사회를 건설하세요

WBOY
WBOY앞으로
2023-04-08 19:31:061034검색

인공 지능(AI)은 전통적인 엔지니어링 시스템부터 의료, 예술 및 엔터테인먼트 분야의 창의적 프로세스에 이르기까지 혁신을 통해 사회의 모든 측면을 개선할 수 있는 엄청난 잠재력을 가지고 있습니다. 예를 들어 할리우드의 스튜디오에서는 AI를 사용하여 대본의 편견을 드러내고 측정하고 있습니다. 도구 제작자와 작가는 더욱 공정하고 포용적인 미디어를 만들어야 합니다.

더 나은 인공지능으로 더 나은 사회를 건설하세요

그러나 AI는 학습된 데이터만큼만 똑똑하며 이는 실제 편견을 반영합니다. 고정관념과 배타성을 지속시키는 것을 피하기 위해 기술자들은 실생활과 혁신에서 형평성과 포용성 문제를 다루고 있습니다.

선천적인 인간 편견

기술자들이 AI를 사용하여 산업 관행과 일상 생활을 최적화하기 위한 인간 중심 솔루션을 찾으려고 할 때, 우리의 선천적 편견이 의도하지 않은 결과를 초래할 수 있다는 점을 인식하는 것이 중요합니다.

Deloitte AI Institute의 글로벌 리더이자 Deloitte의 기술 및 AI 윤리 리더인 Ammanath는 “인간으로서 우리는 매우 편견이 있습니다.”라고 말했습니다. "이러한 편견이 시스템에 뿌리내리면 사회의 일부, 즉 소수자, 특정 도구에 접근할 수 없는 사람들이 뒤처질 가능성이 높으며, 이는 세계의 더 많은 불평등을 초래할 수 있습니다."​​​​​ ​​

시스템이 편향된 데이터로 훈련되거나 연구자가 자신의 관점이 연구 방향에 어떻게 영향을 미치는지 고려하지 못하면 동등한 결과를 창출하거나 과거의 불평등을 완화하는 등 시작하는 좋은 프로젝트가 여전히 편향이 발생할 수 있습니다.

Ammanath는 지금까지 AI 편견에 대한 조정은 일반적으로 편향된 알고리즘의 발견이나 그 사실 이후 과소대표된 인구통계의 출현에 대한 대응으로 이루어졌다고 말했습니다. 그러나 기업은 이제 선제적으로 대처하고, 이러한 문제를 조기에 완화하고, AI 노력의 실수에 대해 책임을 지는 방법을 배워야 합니다.

인공지능의 알고리즘 편향

인공지능에서 편향은 알고리즘 편향의 형태로 나타납니다. HP Labs의 수석 설계자이자 HPE(Hewlett Packard Enterprise)의 부사장인 Kirk Bresniker는 "알고리즘 편향은 AI 모델을 구축하는 데 있어 일련의 과제입니다."라고 설명했습니다. "우리 알고리즘이 다양한 입력을 처리할 수 없거나 모델 교육에 통합할 만큼 광범위한 데이터 세트를 수집하지 않았기 때문에 문제에 직면할 수 있습니다. 두 경우 모두 데이터가 충분하지 않습니다. ”

알고리즘 편향도 발생할 수 있습니다. 부정확한 처리, 데이터 수정 또는 잘못된 신호 주입으로 인해 발생할 수 있습니다. 의도적이든 아니든 이러한 편견은 한 그룹에 특권을 부여하거나 다른 그룹을 완전히 배제하는 불공정한 결과를 초래할 수 있습니다.

예를 들어 Ammanath는 슬리퍼, 샌들, 정장 구두, 운동화 등 다양한 유형의 신발을 식별하도록 설계된 알고리즘을 설명합니다. 하지만 출시 당시 알고리즘은 하이힐을 신은 여성 신발을 인식하지 못했다. 개발팀은 최근 대학을 졸업한 사람들로 구성되었습니다. 이들은 모두 남성이었습니다. 이들은 여성화를 신을 생각을 한 번도 해본 적이 없었습니다.

Ammanath는 "이것은 사소한 예이지만 데이터 세트가 제한적이라는 것을 알게 되었습니다."라고 말했습니다. "이제 질병이나 질병을 진단하기 위해 과거 데이터를 사용하는 유사한 알고리즘에 대해 생각해 보십시오. 특정 신체 유형, 특정 성별 또는 특정 인종에 대해 훈련되지 않았다면 어떻게 될까요?"​​​​

“결정적으로 , 그녀는 "다양성이 없으면 특정 시나리오를 놓치게 됩니다."라고 말했습니다.

더 나은 AI는 자체 규제와 윤리를 의미합니다.

더 많은 데이터 세트에 액세스하기만 하면 됩니다. 이는 특히 데이터가 더욱 집중됨에 따라 어려운 과제입니다. 데이터 공유는 많은 문제를 야기하며, 그 중 가장 중요한 것은 보안과 개인 정보 보호입니다.

콜로라도대학교 볼더 캠퍼스의 미디어 연구 조교수인 Nathan Schneider는 다음과 같이 말했습니다. "현재 우리는 개인 사용자가 데이터를 수집하고 처리하는 대기업에 비해 훨씬 적은 권한을 갖고 있는 상황에 직면해 있습니다.

법이 확대되었습니다." 규제는 매우 엄격하여 궁극적으로 데이터가 공유되고 사용되는 시기와 방법을 결정할 수 있습니다. 그러나 혁신은 국회의원을 기다리지 않습니다. 현재 AI 개발 조직은 알고리즘 편견을 줄이기 위해 노력하는 동시에 데이터를 잘 관리하고 개인 정보를 보호할 책임이 있습니다. Deloitte의 Ammanath는 기술이 너무 빨리 성숙하기 때문에 가능한 모든 시나리오를 다루기 위해 규정에 의존하는 것은 불가능하다고 말했습니다. “기존 규제와 자율 규제 사이의 균형을 맞추는 시대로 진입할 것입니다.”

이러한 자율 규제는 데이터부터 교육, 사용에 이르기까지 AI 솔루션을 구축하는 전체 기술 공급망에 걸쳐 표준을 높이는 것을 의미합니다. 가능한 솔루션. 또한 조직은 부서 전체의 개인이 편견에 대한 우려를 제기할 수 있는 방법을 만들어야 합니다. 편견을 완전히 없애는 것은 불가능하지만 기업은 AI 솔루션의 효율성을 정기적으로 감사해야 합니다.

AI의 상황별 특성으로 인해 자체 규제는 비즈니스마다 다르게 보입니다. 예를 들어 HPE는 윤리적인 AI 지침을 개발했습니다. 회사 전체의 다양한 사람들이 거의 1년 동안 함께 협력하여 회사의 AI 원칙을 개발한 다음 광범위한 직원과 함께 이를 검토하여 이를 따를 수 있고 기업 문화에 적합한지 확인했습니다.

HPE의 Bresniker는 다음과 같이 말했습니다. "우리는 이러한 문제에 대한 일반적인 이해를 높이고 모범 사례를 수집하고 싶습니다. 이것은 모두의 일입니다. 이 분야에 대한 인식은 충분합니다."

인공 지능 기술은 연구 개발에서 모든 산업 분야에 걸쳐 실용적인 적용과 가치 창출을 제공합니다. AI가 사회에 점점 더 많이 보급되면서 이제 기업은 강력하고 포괄적이며 접근 가능한 솔루션을 제공해야 하는 윤리적 책임을 갖게 되었습니다. 이러한 책임으로 인해 조직은 프로세스에 포함된 데이터를 처음으로 조사하게 됩니다. Bresniker는 “우리는 사람들이 그러한 비전을 구축하고 들어오는 데이터에 대해 측정 가능한 자신감을 갖기를 원합니다. 그들은 현재 진행 중인 체계적 불평등을 중단하고 더 나은 미래를 위한 공평한 결과를 창출할 수 있는 힘을 가지고 있습니다.”라고 말했습니다.

위 내용은 더 나은 인공지능으로 더 나은 사회를 건설하세요의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제