수년 동안 우리는 음성 비서, 소셜 미디어, 검색 알고리즘, 휴대폰의 얼굴 인식 등을 통해 인공 지능과 조용히 상호 작용해 왔습니다. 그러나 ChatGPT와 같은 생성적 AI의 등장으로 인공지능이 전면에 등장했습니다.
갑자기 우리는 AI를 본능적으로 목격하기 시작하고 보고 듣는 것에 놀라기 시작합니다. 인공지능은 더 이상 “언젠가 일어날 일”처럼 느껴지지 않습니다. 이제 "세상을 바꿀 준비가 되었습니다."
변화는 위험을 가져옵니다. ChatGPT는 아직 AI 위험 관리 계획을 개발하지 않은 기업 및 관리팀에게 충격적인 경종을 울려야 합니다. 이 기사에서는 인공 지능의 광범위한 구현과 관련된 위험을 살펴봅니다.
다음은 비즈니스 리더가 주의해야 할 5가지 주요 인공 지능 위험입니다.
인공 지능은 전례 없는 기술로 기존 비즈니스 모델과 시장을 혼란에 빠뜨릴 것입니다. 가장 확실한 예는 ChatGPT 자체입니다. 확실한 검색 챔피언으로서의 Google의 지위가 이렇게 갑작스럽고 위태롭게 도전받을 것이라고 누가 생각이나 했을까요?
불과 1~2년 전만 해도 대부분의 사람들은 인공 지능이 상대적으로 기술이 부족한 인력에 의존하는 산업을 뒤흔들 것이라고 상상했던 것 같습니다. 트럭 운송 및 고객 서비스 등으로, 최악의 경우 금융 거래 및 방사선과 같은 고도로 구조화된 업무를 방해합니다. 이제 우리는 미디어, 광고 등 창조 산업뿐만 아니라 교육, 재정 조언 등 맞춤형 서비스 산업, 심지어 제약 연구 개발, 컴퓨터 과학 등 엘리트 기술 분야까지 위험에 처해 있다는 사실을 알고 있습니다.
Goldman Sachs의 2023년 3월 보고서에 따르면 ChatGPT와 같은 생성 AI는 미국 기존 일자리의 19%를 포함하여 전 세계적으로 최대 3억 개의 일자리를 없앨 수 있습니다. 귀하의 산업이나 경력에 관계없이, 기업은 앞으로 몇 년 안에 중대한 변화에 직면하게 될 것이 거의 확실합니다. 과거의 기술적 혼란과 달리 이번에는 실제로 생사가 걸린 문제가 될 수 있습니다.
해커와 기타 파괴 행위자로부터 조직 데이터, 시스템, 사람을 보호하는 것이 비즈니스 리더에게 점점 더 큰 문제가 되었습니다. 2022년에는 공격 횟수가 38% 증가하여 평균 조직이 주당 1,000건 이상의 공격을 경험했으며 데이터 유출당 평균 비용은 400만 달러 이상으로 급증했습니다.
인공 지능은 이러한 문제를 기하급수적으로 악화시킬 것입니다. ChatGPT와 같은 정교한 AI가 일반적으로 상사에게만 알려진 정보를 사용하고 심지어 상사의 글쓰기 스타일을 사용하여 상사가 보낸 것처럼 보이는 이메일을 직원에게 보내는 경우 이러한 피싱 공격은 얼마나 클까요?
적어도 2019년부터 온라인 사기에 음성 복제와 같은 딥페이크가 사용되었다는 보고가 있었습니다. 인공지능이 나날이 발전하고 다양해짐에 따라 사이버 리스크 관리 문제는 더욱 악화되고 있습니다.
방화벽 및 기타 오늘날의 네트워크 방어 기술이 귀하를 구할 수 있다고 생각한다면 다시 생각해 보십시오. AI는 악당들이 방어에서 가장 약한 고리를 찾는 데 도움을 준 다음 돌파구를 찾을 때까지 24시간 내내 작업합니다.
ChatGPT가 대중의 눈에 처음 등장했을 때 Google 경영진은 처음에 "평판 위험"을 이유로 언급하고 이에 맞서기 위해 인공 지능을 즉시 출시하지 않을 것이라고 밝혔습니다. 그러나 며칠 후 성명을 철회하고 Bard 출시를 발표했습니다. Bing과 생성 AI의 다른 영역에서 발생한 실수와 당혹감은 Google의 초기 우려가 근거가 있음을 입증했습니다.
대중이 지켜보고 있습니다. AI가 가치와 일치하지 않는 방식으로 행동하면 홍보 재앙으로 이어질 수 있습니다. 새로운 형태의 인공 지능은 이미 인종차별적이고 여성 혐오적인 괴물처럼 행동하여 허위 체포로 이어지고 직원 채용에 대한 편견을 증폭시키고 있습니다.
때때로 인공지능은 인간관계를 파괴할 수도 있습니다. Forrester에 따르면 소비자의 75%가 고객 서비스 챗봇에 불만을 품고 있으며 30%는 AI 기반 고객 서비스 상호 작용이 좋지 않은 후 다른 곳으로 사업을 옮겼습니다. 인공지능은 아직 초기 단계이고 오류가 발생하기 쉽습니다. 그러나 높은 위험에도 불구하고 많은 상업 조직이 AI 배포와 관련된 평판 위험을 완전히 이해할 것으로 기대합니다.
연방 정부는 인공 지능의 등장으로 인한 사회적 문제에 대처할 준비를 하고 있습니다. 2022년 바이든 행정부는 개인정보와 시민의 자유를 보호하기 위한 인공지능 권리장전 청사진을 공개했다. 2023년 국립표준기술원(National Institute of Standards and Technology)은 기업 이사회와 기타 조직 리더가 인공지능 위험에 대처할 수 있도록 돕기 위해 인공지능 위험 관리 프레임워크를 출시했습니다. 2022년의 알고리즘 책임법(Algorithmic Accountability Act)은 여전히 광범위한 자동화된 의사결정 메커니즘에 대한 투명성을 창출하기 위한 법안일 뿐입니다. 이것은 단지 연방법입니다. 2022년에만 적어도 17개 주에서 안면 인식, 편견 고용, 중독성 알고리즘 및 기타 AI 사용 사례를 대상으로 인공 지능을 관리하는 법안을 제안했습니다. 다국적 기업의 경우 EU가 제안한 인공 지능 법안은 생체 인식, 심리적 조작, 취약 계층 착취 및 사회적 신용 평가의 사용을 금지하거나 완화하는 것을 목표로 합니다.
새로운 규정이 곧, 아마도 2023년 내에 나올 것입니다. 기업은 규정 준수 이상의 위험에 직면해 있습니다. AI를 사용하는 제품이나 서비스에 문제가 발생하면 책임은 누구에게 있습니까? AI 개발자? 아니면 최소한 기업체에 대한 투명성이 필요합니까? AI는 의 새로운 법률 투명성 조항을 준수하기로 결정합니다.
AI 위험의 마지막 영역은 아마도 가장 명백하지만 어떤 면에서는 가장 위험합니다. 직원이 실수로 ChatGPT를 오용하여 영업 비밀이 유출되면 어떻게 되나요? AI가 예상대로 작동하지 않으면 어떻게 되나요?
ChatGPT는 오늘날 고급 인공 지능의 가장 유명한 예이며 전 세계 사람들이 이를 테스트하고 매일 단점을 보고합니다. 그러나 기업이 사용하는 AI는 이러한 이점을 누리지 못할 수도 있습니다. AI가 특정 공급업체, 재료 또는 제품을 두 배로 강조하라고 말했지만 그것이 틀렸을 때 무엇을 기대해야 할지 어떻게 알 수 있습니까?
IBM의 Watson은 한때 암 환자에게 부정확하고 위험한 치료법을 제안했습니다. 영국의 Tyndaris Investments는 헤지펀드 AI가 하루 최대 2천만 달러의 손실을 본 후 홍콩의 재벌 Charles Li로부터 소송을 당했습니다. 게다가 통제 불능의 테슬라가 보행자를 치고 죽게 만드는데, 이러한 운영상의 위험을 인지하고 관리하는 것이 비즈니스 리더의 임무입니다.
위 내용은 ChatGPT 및 생성 AI 시대의 5가지 주요 AI 위험의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!