>  기사  >  기술 주변기기  >  책임 있는 AI 배포 실행: 4가지 원칙

책임 있는 AI 배포 실행: 4가지 원칙

王林
王林앞으로
2023-04-22 20:28:061315검색

인공 지능(AI)은 모든 산업을 변화시키고 있으며 현재 조직의 1/3 이상이 AI를 광범위하게 또는 제한적으로 생산하고 있습니다. 그러나 다른 기술과 마찬가지로 AI에는 비윤리적 편견 확산, 책임성 희석, 데이터 프라이버시 침해 등 심각한 경제적, 사회적 위험이 따릅니다.

책임 있는 AI 배포 실행: 4가지 원칙

이러한 위험을 방지하고 AI를 책임감 있게 배포하기 위해 규제 정책과 업계 모두 이 기술을 다루는 실무자와 사용자를 위한 프로세스와 표준을 개발할 책임이 있습니다. 이를 위해 Ethical AI and ML Institute의 팀은 실무자가 이러한 원칙이 생산 AI 및 기계 학습 시스템을 둘러싼 인프라 및 프로세스에 설계에 내장되도록 역량을 강화하기 위해 책임 있는 AI 원칙을 통합했습니다.

이 기사에서는 편향 평가, 설명 가능성, 인위적 향상 및 반복성이라는 8가지 원칙 중 4가지 원칙을 자세히 설명합니다.

편향 평가

어떤 의미에서 AI 모델은 관련 답변을 다르게 처리하도록 설계되었기 때문에 본질적으로 편향되어 있습니다. 지능의 핵심은 우리가 세상에서 보는 패턴을 인식하고 이에 따라 행동하는 능력이기 때문입니다. AI 모델을 개발할 때 우리는 이러한 정확한 능력을 복제하고 AI가 입력된 데이터에서 패턴을 발견하고 그에 따라 편견을 개발하도록 장려하려고 노력합니다. 예를 들어, 단백질 화학 데이터를 연구하는 모델은 구조가 특정 방식으로 접힐 수 있는 단백질에 대한 내재적 편견을 가지게 되어 어떤 단백질이 의학 관련 사용 사례에 유용한지 발견합니다.

그러므로 AI 편견에 반대할 때는 조심해야 합니다. AI의 편견이라는 주제에 관해 우리는 일반적으로 인종, 성별, 출신 국가와 같은 보호된 특성에 기반한 편견과 같이 실제로 바람직하지 않거나 불합리한 편견을 말합니다.

그런데 AI 모델은 왜 비윤리적인 편견을 만들어내는 걸까요? 대답은 입력된 데이터에 따라 다릅니다. 모델은 궁극적으로 배포 전에 사용된 훈련 데이터에 존재하는 편향을 반영하므로, 훈련 데이터가 대표성이 없거나 기존 편향을 통합하는 경우 결과 모델은 결국 이를 반영하게 됩니다. 컴퓨터 과학에서 말하는 것처럼 "쓰레기가 들어오면 쓰레기가 나옵니다."

또한 팀은 AI 훈련 데이터의 효율성, 모델 자체의 훈련 및 평가, 모델 자체의 운영 수명주기와 관련된 바람직하지 않은 편견을 적절하게 식별하기 위한 일련의 프로세스와 절차를 만들어야 합니다. AI를 배포하는 경우 살펴볼 좋은 예는 Ethical AI and Machine Learning Institute의 eXplainable AI 프레임워크입니다. 이에 대해서는 다음에 자세히 설명하겠습니다.

설명성

AI 모델이 목적에 부합하는지 확인하려면 관련 분야 전문가의 참여도 중요합니다. 이러한 사람들은 팀이 AI 모델이 통계 및 정확성 기반 성능 지표뿐만 아니라 올바른 성능 지표를 사용하는지 확인하는 데 도움을 줄 수 있습니다. 도메인 전문가에는 기술 전문가뿐만 아니라 해당 사용 사례와 관련된 사회 과학 및 인문학 전문가도 포함된다는 점을 강조할 가치가 있습니다.

그러나 효과적이려면 관련 도메인 전문가가 모델의 예측을 해석할 수 있는지 확인하는 것도 중요합니다. 그러나 고급 AI 모델은 최첨단 딥러닝 기술을 사용하는 경우가 많으며, 이는 단순히 특정 예측이 이루어지는 이유를 설명하지 못할 수도 있습니다.

이러한 어려움을 극복하기 위해 조직은 AI 모델의 예측을 해독하는 데 사용할 수 있는 다양한 기술과 도구를 활용하여 기계 학습 해석성을 달성하는 경향이 있습니다.

인공지능 모델의 운용화는 해석 가능성 다음입니다. 관련 이해관계자들의 조사와 모니터링이 필요한 시점이다. 이러한 AI 모델의 수명 주기는 프로덕션에 적절하게 배포된 후에만 시작됩니다. 일단 실행되면 모델은 개념적 표류이든 모델이 실행되는 환경의 변화이든 상관없이 외부 압력으로 인해 성능 저하를 겪게 됩니다.

인간 증강

AI를 배포할 때는 먼저 부정적인 결과의 위험을 개략적으로 설명하는 것을 포함하여 원래의 자동화되지 않은 프로세스의 현재 요구 사항을 평가하는 것이 중요합니다. 이를 통해 프로세스를 더 깊이 이해할 수 있으며 위험을 줄이기 위해 사람의 개입이 필요할 수 있는 영역을 식별하는 데 도움이 됩니다.

예를 들어, 프로 운동선수에게 식사 계획을 추천하는 AI는 은행의 백엔드 대출 승인 프로세스를 자동화하는 AI 모델보다 영향이 큰 위험 요소가 훨씬 적습니다. 이는 전자의 경우 인간 개입이 덜 필요함을 시사합니다. 후자보다. 팀이 AI 워크플로에서 잠재적인 위험 지점을 식별하면 HITL(인간-기계 루프 검토 프로세스) 구현을 고려할 수 있습니다.

HITL은 프로세스를 자동화한 후에도 결과를 확인하기 위해 사람의 개입이 필요한 다양한 터치 포인트가 여전히 존재하도록 보장하여 필요한 경우 더 쉽게 수정하거나 결정을 뒤집을 수 있도록 합니다. 이 프로세스에는 AI 모델이 내린 결정을 평가하고 모범 사례를 준수하는지 확인하기 위한 기술 전문가 및 업계 전문가(예: 은행 대출 인수자 또는 식사 계획 영양사)로 구성된 팀이 포함될 수 있습니다.

반복성

재현성은 팀이 데이터 포인트에 대해 알고리즘을 반복적으로 실행하고 매번 동일한 결과를 얻을 수 있는 능력입니다. 이는 책임 있는 AI의 핵심 구성 요소입니다. 모델의 이전 예측이 이후 단계에서 다시 실행될 때 다시 게시되도록 하는 것이 중요하기 때문입니다.

자연적으로 재현성은 달성하기 어렵습니다. 주로 인공 지능 시스템의 본질적인 어려움으로 인해 발생합니다. AI 모델의 출력은 다음과 같은 다양한 상황적 상황에 따라 달라질 수 있기 때문입니다.

  • AI 간섭을 계산하는 데 사용되는 코드
  • 사용된 데이터에서 학습된 가중치
  • 코드가 실행되는 환경 실행되면 인프라를 구성하고
  • 모델에 제공되는 입력 및 입력 구조

를 구성하는 것은 복잡한 문제입니다. 특히 AI 모델이 대규모로 배포되고 수많은 다른 도구와 프레임워크를 고려해야 하는 경우에는 더욱 그렇습니다. 이를 위해 팀은 위의 상황을 제어하는 ​​데 도움이 되는 강력한 사례를 개발하고 재현성을 향상시키는 데 도움이 되는 도구를 구현해야 합니다.

주요 사항

위의 높은 수준의 원칙을 통해 업계에서는 책임 있는 AI 사용을 위한 모범 사례를 준수할 수 있습니다. 이러한 원칙을 채택하는 것은 AI가 경제적 잠재력을 최대한 발휘하고 취약 계층의 역량을 약화시키거나 비윤리적 편견을 강화하거나 책임을 약화시키지 않도록 보장하는 데 중요합니다. 대신, 성장, 생산성, 효율성, 혁신 및 모두를 위한 더 나은 이익을 추구하는 데 사용할 수 있는 기술이 될 수 있습니다.

위 내용은 책임 있는 AI 배포 실행: 4가지 원칙의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제