>  기사  >  기술 주변기기  >  AI의 책임감 있는 사용으로 더욱 안전한 온라인 공간을 만드는 방법

AI의 책임감 있는 사용으로 더욱 안전한 온라인 공간을 만드는 방법

WBOY
WBOY앞으로
2023-04-08 14:21:031507검색

AI의 책임감 있는 사용으로 더욱 안전한 온라인 공간을 만드는 방법

  • 인공지능 알고리즘은 인간의 삶과 더 넓은 사회에 큰 영향을 미칩니다.
  • 인공지능을 둘러싼 윤리적 딜레마에는 디지털 격차와 무기화가 포함됩니다.
  • 자율성은 인간 감독과 균형을 이루어야 하며, 차별을 해결하는 데 활용될 수 있도록 AI의 책임 있는 사용을 장려해야 합니다.

컴퓨터, 데이터 과학의 발전, 대규모 데이터 세트의 가용성에 힘입어 인공 지능(AI)은 강력한 일상 현실이자 비즈니스 도구가 되었습니다. Google, Amazon, Meta와 같은 거대 기술 기업은 현재 AI 기반 시스템을 개발하고 있습니다. 이 기술은 인간의 말을 모방하고, 질병을 탐지하고, 범죄 활동을 예측하고, 법적 계약 초안을 작성하고, 접근성 문제를 해결하고, 인간보다 더 나은 작업을 완료할 수 있습니다. 기업의 경우 AI는 상당한 비용 절감을 통해 비즈니스 결과를 예측하고, 프로세스를 개선하고, 효율성을 창출할 수 있는 가능성을 제공합니다.

하지만 인공지능에 대한 우려는 여전히 커지고 있습니다.

AI 알고리즘은 매우 강력해져서 일부 전문가는 AI를 지각 있는 것으로 분류하여 부패, 변조, 편견 또는 차별이 조직, 인간의 삶 및 사회에 큰 영향을 미칠 수 있다고 말합니다.

디지털 식별

인공 지능 의사 결정은 점점 더 많은 규모로 사람들의 삶에 영향을 미치고 변화시킵니다. 이를 무책임하게 사용하면 인종 프로파일링, 행동 예측 또는 성적 지향 식별과 같은 기존의 인간 편견과 차별적 조치가 악화될 수 있습니다. 이러한 내재된 편향은 AI가 제공할 수 있는 훈련 데이터의 양만큼만 우수하고 인간의 편향에 취약하기 때문에 발생합니다.

편향은 기계 학습 알고리즘이 여성, 유색인종, 특정 연령층의 사람들과 같은 특정 인종 그룹을 과소 대표하는 데이터에 대해 훈련되고 테스트될 때도 발생할 수 있습니다. 예를 들어, 연구에 따르면 유색 인종은 얼굴 인식 기술의 알고리즘 편견에 특히 취약한 것으로 나타났습니다.

사용 중에도 편차가 발생할 수 있습니다. 예를 들어, 특정 애플리케이션을 위해 설계된 알고리즘이 의도하지 않은 목적으로 사용될 수 있으며 결과가 잘못 해석될 수 있습니다.

AI 성능 확인

AI가 주도하는 차별은 추상적이고, 비직관적이며, 미묘하고, 눈에 띄지 않으며 감지하기 어려울 수 있습니다. 소스 코드가 제한되거나 감사자가 알고리즘 배포 방법을 알지 못할 수도 있습니다. 알고리즘이 어떻게 작성되고 어떻게 반응하는지 확인하기 위해 알고리즘에 들어가는 복잡성은 과소평가될 수 없습니다.

현재 개인 정보 보호법은 통지와 선택에 의존하므로 소비자가 긴 개인 정보 보호 정책에 동의하도록 요구하는 통지는 거의 읽히지 않습니다. 이러한 고지사항이 인공지능에 적용된다면 소비자와 사회의 안전과 개인정보 보호에 심각한 결과를 초래할 수 있습니다.

무기로서의 AI

진정한 AI 악성코드는 아직 존재하지 않을 수도 있지만, AI 악성코드가 공격자의 능력을 향상시킬 것이라고 가정하는 것도 무리는 아닙니다. 새로운 취약점을 식별하고 악용하기 위해 환경을 학습하는 악성 코드, AI 기반 보안을 테스트하는 도구, 잘못된 정보로 AI를 오염시킬 수 있는 악성 코드 등 가능성은 무궁무진합니다.

인공 지능으로 조작된 디지털 콘텐츠는 이미 실시간으로 개인의 초현실적인 합성 복사본(딥페이크라고도 함)을 만드는 데 사용되고 있습니다. 결과적으로 공격자는 딥페이크를 사용하여 고도로 표적화된 사회 공학 공격을 수행하고, 금전적 손실을 입히고, 여론을 조작하거나, 경쟁 우위를 확보하게 됩니다.

"AI가 주도하는 차별은 추상적이고, 비직관적이며, 미묘하고, 눈에 띄지 않고 감지하기 어려울 수 있습니다. 소스 코드가 제한되거나 감사자가 알고리즘이 어떻게 배포되는지 알 수 없습니다." — Steve Durbin, 정보 보안 CEO 포럼

AI와 관련된 위험 완화

AI 결정이 사람들의 삶에 점점 더 많은 영향을 미치고 영향을 미치면서 기업은 윤리적으로 행동해야 하는 도덕적, 사회적, 신탁적 책임이 있습니다. 인공 지능 채택을 관리합니다. 그들은 다양한 방법으로 이를 수행할 수 있습니다.

1. 윤리를 지표로 전환

윤리적 AI는 개인의 권리, 개인 정보 보호, 차별 금지, 무엇보다 조작 금지 등 명확하게 정의된 윤리 원칙과 기본 가치를 준수합니다. 조직은 AI로 인한 위험을 식별, 측정, 평가 및 완화하기 위한 명확한 원칙을 수립해야 합니다. 다음으로, 이를 실용적이고 측정 가능한 지표로 변환하고 일상적인 프로세스에 포함시켜야 합니다.

2. 편견의 원인을 이해하세요

편견의 원인을 조사하고 의사 결정에서 공정성이 미치는 영향을 이해하는 올바른 도구를 갖추는 것은 윤리적인 AI를 개발하는 데 절대적으로 중요합니다. 기계 학습을 사용하는 시스템을 식별하고 비즈니스에 대한 중요성을 판단하며 AI로 인한 편견에 대한 프로세스, 제어 및 대책을 구현합니다.

3. 자율성과 인간 감독의 균형을 유지하세요

조직은 조직 및 공급망에서 인공 지능 시스템으로 인해 발생하는 위험을 지속적으로 관리하고 모니터링하기 위해 학제간 윤리 위원회를 설립해야 합니다. 위원회는 모든 윤리적 문제에 대한 민감성을 보장하기 위해 다양한 배경을 가진 사람들로 구성되어야 합니다.

알고리즘 디자인은 전문가 의견, 상황별 지식, 역사적 편견에 대한 인식을 고려해야 합니다. 악의적인 행위자에 의해 손상되는 것을 방지하려면 금융 거래와 같은 중요한 영역에서 수동 인증 프로세스를 시행해야 합니다.

4. 직원 역량 강화 및 책임감 있는 AI 장려

개인이 혁신을 방해하지 않고 AI 시스템에 대한 우려를 제기할 수 있는 문화를 조성하세요. 역할, 기대, 책임을 투명하게 처리하여 AI에 대한 내부 신뢰와 자신감을 구축하세요. 새로운 역할의 필요성을 인식하고 사전에 기술 향상, 재기술 또는 고용을 수행합니다.

필요한 경우 더 큰 통제력과 의지력을 제공하여 사용자에게 권한을 부여하세요. 강력한 리더십은 직원에게 권한을 부여하고 책임 있는 AI를 비즈니스 필수 요소로 장려하는 데에도 중요합니다.

5. 인공 지능을 사용하여 차별 문제 해결

프로그램된 검사는 인간의 공정성을 평가하는 전통적인 방법이며 인간의 의사 결정 과정에 알고리즘을 실행하고 결과를 비교하며 기계 주도 결정의 이유를 설명함으로써 인공 지능의 이점을 누릴 수 있습니다. . 또 다른 예는 사회의 다양한 부문에서 인종 평등을 창출하기 위해 컴퓨터 도구를 개발하고 사용하는 MIT의 체계적 인종차별 방지 연구 프로그램입니다.

위 내용은 AI의 책임감 있는 사용으로 더욱 안전한 온라인 공간을 만드는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제