>  기사  >  기술 주변기기  >  책임 있는 AI는 기술적인 문제인가요, 아니면 비즈니스적인 문제인가요?

책임 있는 AI는 기술적인 문제인가요, 아니면 비즈니스적인 문제인가요?

WBOY
WBOY앞으로
2023-04-10 08:11:021330검색

인공지능(특히 ChatGPT)은 이미 전 세계적으로 사용되고 있습니다. 또한 AI가 오용되거나 남용될 가능성이 높으며, 이는 심각하게 받아들여야 하는 위험입니다. 그러나 AI는 또한 사회와 개인에게 다양한 잠재적 이익을 제공합니다.

ChatGPT 덕분에 인공지능이 화제가 되었어요. 사람들과 조직은 수많은 사용 사례를 고려하기 시작했지만 잠재적인 위험과 한계에 대한 우려도 있습니다. 인공지능의 급속한 구현과 함께 책임 있는 인공지능(RAI)이 대두되고 있으며, 많은 기업에서는 이것이 기술적인 문제인지 비즈니스적인 문제인지 의문을 제기하고 있습니다.

MIT 슬로안 경영대학원이 2022년 9월 발표한 백서에 따르면, 세계는 AI 실패가 급증하기 시작하고, 첫 번째 AI 관련 규제가 온라인화를 앞두고 있는 시대라고 합니다. 보고서는 새로운 창을 엽니다. 이 두 가지 개발은 책임 있는 AI 프로젝트의 구현에 대한 시급성을 제공하지만 책임 있는 AI를 선도하는 회사는 주로 규정이나 기타 문제 중심으로 운영되지 않는 것으로 나타났습니다. 대신, 그들의 연구에서는 리더들이 조직의 외부 이해관계자, 보다 광범위한 장기 목표 및 가치, 리더십 우선 순위 및 사회적 책임을 강조하면서 전략적 관점에서 책임 있는 AI를 볼 것을 권장합니다.

이는 책임 있는 AI가 기술적 문제이자 비즈니스 문제라는 관점과 일치합니다. 분명히 근본적인 문제는 AI 기술 내에 있으므로 그것이 가장 중요한 문제입니다. 하지만 인공지능에 허용되는 것과 허용되지 않는 것에 대한 기준이 명확하지 않은 것이 현실이다.

예를 들어, 사람들은 AI가 '공정'해야 한다는 데 동의하지만 '공정'에 대한 정의는 기업 간 결정이므로 세부 사항을 살펴보면 결정하기가 어렵습니다.

대부분의 사람들은 기술적인 측면만 평가하기 때문에 '기술 및 비즈니스 문제' 접근 방식은 중요합니다. 비즈니스 및 기술 관점 모두에서 책임 있는 AI를 평가하고 완전히 자동화하면 둘 사이의 격차를 해소하는 데 도움이 될 수 있습니다. 이는 특히 규제가 심한 산업에 해당됩니다. 지난 주에 발표된 NIST 인공 지능 프레임워크는 조직이 책임 있는 인공 지능에 대한 요구 사항을 평가하고 해결하는 데 도움이 되는 유용한 지침을 제공합니다.

책임감 있는 AI란 무엇인가요?

AI는 차별화하고 편견을 만들 수 있습니다. AI 모델은 내재된 편견을 포함하고 사회의 기존 편견을 영속시킬 수 있는 데이터로 훈련될 수 있습니다. 예를 들어 컴퓨터 비전 시스템이 대부분 백인의 이미지를 사용하여 훈련된 경우 다른 인종을 식별하는 데 정확도가 떨어질 수 있습니다. 마찬가지로, 채용 과정에 사용되는 AI 알고리즘도 과거 채용의 이력서 데이터 세트에 대해 훈련을 받았기 때문에 편향될 수 있으며, 이는 성별이나 인종에 따라 편향될 수 있습니다.

책임 있는 AI는 AI 시스템이 윤리적이고 책임감 있게 사용되도록 보장하는 것을 목표로 하는 인공 지능(AI)에 대한 접근 방식입니다. 이러한 접근 방식은 AI가 사람과 사회에 이익이 되도록 사용해야 하며 윤리적, 법적, 규제적 고려 사항을 고려해야 한다는 생각에 기반을 두고 있습니다. 책임 있는 AI에는 AI 시스템의 책임 있는 사용을 보장하기 위해 투명성, 책임성, 공정성 및 안전 조치를 사용하는 것이 포함됩니다. 여기에는 AI 감사 및 모니터링의 사용, 윤리적 행동 강령 개발, 데이터 개인 정보 보호 및 보안 조치 사용, AI가 인권을 준수하는 방식으로 사용되도록 보장하는 조치가 포함될 수 있습니다.

책임 있는 AI가 가장 필요한 곳은 어디입니까?

AI의 얼리 어답터는 은행/금융, 보험, 의료 및 기타 규제가 심한 산업(통신 및 소비자 대면 산업(소매, 숙박/여행 등))입니다. 업종별로 분류할 수 있습니다.

? 은행/금융: 인공 지능을 사용하여 대량의 고객 데이터를 처리하여 고객 요구 사항과 선호도를 더 잘 이해할 수 있으며, 이를 통해 고객 경험을 개선하고 보다 맞춤화된 서비스를 제공할 수 있습니다. 또한 AI는 사기 및 의심스러운 활동을 식별하고 프로세스를 자동화하며 보다 정확하고 시기적절한 재정 조언을 제공하는 데에도 사용될 수 있습니다.

? 보험: 인공 지능을 사용하면 고객 데이터와 행동을 더 잘 이해하여 보다 개인화된 보험 보장 범위와 가격을 제공할 수 있습니다. AI는 청구 프로세스를 자동화하고 고객 서비스 운영을 간소화하는 데에도 사용할 수 있습니다.

?헬스케어: 인공 지능은 의료 데이터의 패턴을 식별하는 데 사용될 수 있으며 질병 진단, 건강 결과 예측 및 맞춤형 치료 계획 제공에 사용될 수 있습니다. AI는 환자 예약, 보험 처리 등 행정 및 운영 업무를 자동화하는 데에도 사용될 수 있습니다.

?통신: 인공지능은 고객 데이터를 분석하고 고객 요구와 선호도를 이해함으로써 더 나은 고객 서비스를 제공할 수 있습니다. AI는 문제 해결 및 청구와 같은 고객 서비스 프로세스를 자동화하는 데에도 사용될 수 있습니다.

?소매업: 인공지능은 고객 데이터를 분석하고 고객 요구와 선호도를 이해하여 고객 경험을 개인화할 수 있습니다. AI는 재고 관리와 고객 서비스 운영을 자동화하는 데에도 사용될 수 있습니다.

?호텔/여행: 인공지능을 사용하여 온라인 예약, 고객 서비스 등 고객 서비스 프로세스를 자동화할 수 있습니다. AI는 고객 데이터를 분석하고 개인화된 추천을 제공하는 데에도 사용될 수 있습니다.

책임 있는 인공지능을 어떻게 규제할 것인가?

인공지능에 대한 정부 규제는 인공지능(AI)의 개발과 사용이 안전하고 윤리적이며 적법하다는 것을 보장하기 위해 정부가 시행하는 일련의 규칙과 규정입니다. 규정은 국가마다 다르지만 일반적으로 AI 시스템으로 인한 피해에 대한 윤리적, 안전, 보안 및 법적 책임 기준을 설정하는 것이 포함됩니다. 정부 규제 기관에서는 개발자에게 안전 및 보안 프로토콜에 대한 교육을 요구하고 모범 사례를 염두에 두고 제품을 설계하도록 요구할 수도 있습니다. 또한, 정부는 기업이 기후 변화에 대처하는 데 도움이 되는 시스템과 같이 사회에 도움이 되는 AI 시스템을 만들도록 인센티브를 제공할 수 있습니다.

책임 있는 AI 계획에 보안 규제 프레임워크를 통합함으로써 기업은 AI 시스템이 필요한 표준 및 규정을 충족하도록 보장하는 동시에 데이터 침해 및 기타 보안 문제의 위험을 줄일 수 있습니다. 이는 조직이 책임감 있고 안전한 방식으로 AI 시스템을 관리할 수 있도록 지원하므로 책임 있는 AI를 향한 여정에서 중요한 단계입니다. 또한 보안 규제 프레임워크는 조직이 머신 러닝, 딥 러닝 등 인공 지능 기술을 사용하기 위한 모범 사례를 식별하고 구현하는 데 도움이 되는 지침 역할을 할 수 있습니다. 요약하자면, 책임 있는 AI는 비즈니스 문제인 만큼 기술적인 문제입니다.

보안 규정 프레임워크는 조직이 책임감 있는 AI에 대한 요구 사항을 평가하고 해결하는 동시에 AI 시스템이 안전하고 규정을 준수하도록 보장하는 일련의 표준, 지침 및 모범 사례를 제공하는 데 도움이 될 수 있습니다. 안전 규제 프레임워크의 초기 채택자에는 규제가 심한 산업과 소비자 중심의 산업이 포함됩니다.

평범함의 새로운 세계?

인공 지능은 여전히 ​​상대적으로 새로운 기술이며 현재 대부분의 사용 사례는 예측 분석, 자연어 처리, 기계 학습과 같은 보다 실용적인 응용 프로그램에 중점을 두고 있습니다. "멋진 신세계" 시나리오는 확실히 가능하지만, 현재의 많은 AI 기반 애플리케이션은 기존 시스템과 프로세스를 방해하는 것이 아니라 개선하도록 설계되었습니다.

책임감 있는 AI는 비즈니스 문제만큼이나 기술적인 문제이기도 합니다. 기술이 발전함에 따라 기업은 인공 지능 및 기타 자동화 시스템을 운영에 사용하는 것이 윤리적으로 미치는 영향을 고려해야 합니다. 이들은 이러한 기술이 고객과 직원에게 어떤 영향을 미칠지, 그리고 이를 책임감 있게 사용하여 데이터와 개인정보를 보호할 수 있는 방법을 고려해야 합니다. 또한, 인공 지능 및 기타 자동화 시스템을 사용할 때 기업은 해당 법률 및 규정을 준수하고 그러한 기술 사용에 따른 잠재적인 위험을 인식해야 합니다.

책임 있는 AI의 미래는 밝습니다. 기술이 계속 발전함에 따라 기업은 윤리적 AI의 중요성을 깨닫고 이를 운영에 통합하기 시작했습니다. 책임 있는 AI는 기업이 윤리적이고 공정한 결정을 내리는 데 점점 더 중요해지고 있습니다. AI를 사용하면 투명하고 설명 가능한 제품을 만드는 동시에 의사결정이 인간과 윤리에 미치는 영향을 고려할 수도 있습니다. 또한 책임 있는 AI를 사용하여 프로세스를 자동화함으로써 기업이 위험을 줄이면서 정확성을 높이고 더 빠르게 의사 결정을 내릴 수 있도록 돕습니다. 기술이 계속 발전함에 따라 기업은 의사 결정을 내리고 고객과 세계를 위해 안전하고 신뢰할 수 있으며 좋은 제품을 만들기 위해 책임감 있는 AI에 점점 더 의존하게 될 것입니다.

인공지능(AI)의 잠재적인 오용이나 남용은 심각하게 받아들여야 할 위험을 초래합니다. 그러나 AI는 사회와 개인에게 다양한 잠재적 이익을 가져다 주기도 하며, AI로 인한 위험 정도는 이를 사용하는 사람들의 의도에 따라 달라진다는 점을 기억하는 것이 중요합니다.

위 내용은 책임 있는 AI는 기술적인 문제인가요, 아니면 비즈니스적인 문제인가요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제