2022년 6월 Microsoft는 "책임 있는 인공 지능에 대한 제품 개발 요구 사항 정의"라는 목적으로 Microsoft Responsible Artificial Intelligence Standard v2를 출시했습니다. 놀랍게도 이 문서에서는 AI에 대한 한 가지 유형의 편견, 즉 Microsoft의 알고리즘 개발자가 AI에 너무 많이 의존하는 사용자로부터 발생할 수 있는 문제("자동화 차별"이라고도 함)에 대해서만 언급하고 있습니다.
간단히 말하면, 마이크로소프트는 제품이 실제로 사용자에게 미치는 악영향보다 사용자가 자사 제품에 대해 어떻게 생각하는지에 더 관심을 두는 것 같습니다. 이것은 좋은 비즈니스 책임(우리 제품에 대해 부정적인 말을 하지 마십시오)이지만, 낮은 사회적 책임입니다(개인이나 개인 그룹에 부정적인 영향을 미치는 알고리즘 차별의 예가 많이 있습니다).
상용 AI에는 해결되지 않은 세 가지 주요 문제가 있습니다.
인공지능이 사이버 보안 제품에 처음 도입되었을 때는 보호의 만병통치약으로 묘사되었습니다. AI가 그 가치를 갖고 있다는 점에는 의심의 여지가 없지만 일부 잘못된 알고리즘, 숨겨진 차별, 범죄자에 의한 AI 남용, 심지어 법 집행 기관과 정보 기관의 개인 정보 유출로 인해 AI에 대한 목소리가 점점 더 강해지고 있습니다.
2022년 6월 6일 Scientific American에 따르면 문제는 아직 발전 중인 과학의 상업화입니다.
인공지능 분야의 가장 큰 연구팀은 학계가 아니라 업계 중간에 있습니다. 학계에서는 동료 평가가 가장 중요합니다. 대학과 달리 기업은 공정하게 경쟁할 유인이 없습니다. 학문적 검토를 위해 새로운 학술 논문을 제출하는 대신 보도 자료를 통해 언론인의 참여를 유도하고 동료 검토 프로세스를 뛰어넘습니다. 우리는 회사가 우리에게 알려 주기를 원하는 것만 알고 있습니다.
--게리 마커스, 뉴욕대학교 심리학 및 신경과학 교수
그 결과 우리는 인공지능의 긍정적인 측면만 듣고 인공지능의 부정적인 측면에 대해서는 듣지 못하는 것으로 나타났습니다.
Georgetown Law School의 개인 정보 보호 및 기술 센터의 전무이사인 Emily Tucker도 비슷한 결론에 도달했습니다. “오늘부터 우리 센터는 '인공 지능', 'AI' 및 '기계'라는 용어를 사용하지 않을 것입니다. 개인과 공동체의 삶에서 디지털 기술의 피해를 폭로하고 완화하는 방법을 배우십시오. 기술 회사가 자본 확보를 위한 전략적 수단으로 튜링 테스트를 왜곡하는 데 성공한 이유 중 하나는 정부가 열성적이기 때문입니다. 쉽고 상대적으로 저렴하며 민주적 의사 결정이나 감독을 우회하는 조달 프로세스를 통해 사용할 수 있는 유비쿼터스 감독을 제공하는 기술에 액세스할 수 있습니다.” . 과학 발전. 이러한 우려에 직면하여 우리는 우리 제품에 포함된 AI가 사람, 범죄자, 심지어 정부에 의해 오용되지 않고 정확한 정보와 편견 없는 판단을 출력할 수 있다고 신뢰할 수 있는지 자문해 볼 필요가 있습니다.
인공지능의 실패
사례 2: 2018년 3월 18일, Uber 자율주행차가 자전거를 밀던 보행자를 들이받아 사망했습니다. 당시 NBC에 따르면 AI는 “물체가 횡단보도에 가깝지 않으면 보행자로 분류”할 수 없었다.
사례 3: 영국의 2020년 코로나19 봉쇄 기간 동안 학생들의 시험 점수는 인공 지능 알고리즘에 의해 평가되었습니다. 약 40%의 학생이 예상보다 상당히 낮은 성적을 받았습니다. 이는 알고리즘이 각 학교의 역사적 결과를 너무 강조하기 때문입니다. 결과적으로 사립학교와 이전에 우수한 성적을 보인 공립학교의 학생들은 다른 학교에 비해 큰 점수 우위를 얻습니다.
사례 4: Tay는 Microsoft가 2016년 트위터에서 출시한 인공지능 챗봇입니다. Tay는 실제 인간 언어를 모방하여 속어를 이해할 수 있는 지능형 대화형 시스템을 목표로 합니다. 그러나 실제 사람과의 상호 작용이 단 16시간 만에 Tay는 강제로 오프라인 상태가 되었습니다. “히틀러가 유대인을 미워한 것은 옳았다”고 트윗했다.
사례 5: 후보자를 선택합니다. Amazon은 AI가 채용 공고를 채울 후보자를 자동으로 선택하는 데 도움을 주기를 원했지만 알고리즘의 결과는 성차별적이고 인종차별적이며 백인 남성 후보자를 선호하는 것으로 나타났습니다.
사례 6: 잘못된 신원. 스코틀랜드 축구팀이 코로나19 봉쇄 기간 동안 AI 기반 카메라를 이용해 공을 추적해 온라인으로 경기를 중계했다. 하지만 이 AI 슈팅 시스템은 라인맨의 대머리를 끊임없이 축구로 간주했고, 슈팅의 초점은 항상 경기가 아닌 라인맨에게 맞춰져 있었다.
사례 7: 신청이 거부되었습니다. 2016년에는 한 어머니가 반년 동안 혼수상태에서 깨어난 뒤 아들을 자신이 살던 아파트에 입주해 달라고 신청했지만 주거센터에서 거절당했다. 변호사를 통해 아들이 재활원에 보내진 지 1년 만이다. 주택센터에서 사용한 인공지능은 아들이 절도 이력이 있다고 판단해 주택 블랙리스트에 올렸다. 그러나 사실 아들은 침대에 누워 있어 범행을 저지를 수 없었다.
유사한 사례가 많은데, 그 이유는 딱 두 가지 뿐입니다. 하나는 예상치 못한 편차로 인한 설계 실패이고, 다른 하나는 학습 실패입니다. 자율주행차의 사례는 학습 실패의 하나이다. 오류는 학습 횟수가 늘어날수록 수정될 수 있지만, 수정될 때까지 일단 사용하게 되면 비용이 많이 들 수 있습니다. 그러나 위험을 완전히 피하려면 결코 사용하지 않을 것입니다.
사례 3, 5는 설계 실패로, 예상치 못한 편차로 인해 결과가 왜곡되었습니다. 문제는 개발자가 편견이 있다는 사실을 알지 못한 채 편견을 제거할 수 있는지 여부입니다.
오용은 인공지능의 응용 효과가 개발자가 의도한 것과 다르다는 것을 의미합니다. 남용이란 인공 지능에 공급되는 데이터를 오염시키는 등 의도적으로 무언가를 하는 것을 의미합니다. 일반적으로 오용은 일반적으로 AI 제품 소유자의 행동으로 인해 발생하는 반면, 남용은 종종 제3자(예: 사이버 범죄자)의 행동과 관련되어 소유자가 의도하지 않은 방식으로 제품을 조작하게 됩니다. 먼저 오용을 살펴보겠습니다.
Vectra AI의 연구 책임자인 Kazerounian은 인간이 개발한 알고리즘이 다른 사람에 대해 판단하려고 할 때 숨겨진 편견이 불가피하다고 믿습니다. 예를 들어, 신용 신청 및 임대 신청과 관련하여 미국은 규제와 인종 차별의 오랜 역사를 가지고 있으며 이러한 차별 정책은 AI 기반 자동화보다 오래 전부터 적용되었습니다.
게다가 편견이 인공 지능 알고리즘에 깊숙이 내장되면 인간의 편견보다 탐지하고 이해하기가 더 어렵습니다. "딥러닝 모델에서 행렬 연산의 분류 결과를 볼 수도 있습니다. 하지만 사람들은 연산의 메커니즘만 설명할 수 있을 뿐, 그 이유는 설명할 수 없습니다. 메커니즘만 설명할 뿐입니다. 제 생각에는 더 높은 수준에서 우리가 무엇을 꼭 물어봐야 할 것은, 인공지능에 맡겨두기에 적합한 것이 있는가? "
2022년 5월 11일 MIT와 하버드 대학이 "The Lancet"에 발표한 연구에 따르면 딥러닝이 어떻게 결론에 도달하는지 사람들이 이해할 수 없다는 사실이 확인되었습니다. . 연구 결과, 인공지능은 엑스레이, CT 스캔 등 의료 영상에만 의존해 인종 식별이 가능했지만, AI가 어떻게 그런 일을 하는지 아는 사람은 아무도 없었다. 좀 더 생각해 보면 AI 의료 시스템은 환자의 인종, 민족, 성별, 심지어 수감 여부까지 판단하는 데 있어서 우리가 상상하는 것보다 훨씬 더 많은 일을 할 수 있을 것입니다.
하버드 의과대학의 부교수이자 저자 중 한 명인 Anthony Seeley는 다음과 같이 말했습니다. “알고리즘(데이터의 품질 및 유효성)에 다양한 그룹이 표현되어 있다고 해서 그것이 반드시 보장되는 것은 아닙니다. 알고리즘에 더 많은 데이터를 제공하는 것은 만병통치약이 아니며 임상 진단에 인공 지능을 적용할 준비가 되어 있는지 다시 생각해 봐야 합니다.” 문제는 네트워크 보안 분야에도 영향을 미쳤습니다. 2022년 4월 22일 Microsoft는 제품 로드맵에 "Leaver Classifier"라는 기능을 추가했습니다. 해당 제품은 2022년 9월 출시될 예정이다. "퇴사자 분류기는 직원 퇴사로 인한 의도적 또는 비의도적 데이터 유출 위험을 줄이기 위해 조직을 떠나려는 직원을 조기에 감지할 수 있습니다."
일부 언론이 인공 지능 및 개인 정보 보호를 주제로 Microsoft 인터뷰를 시도했을 때, 그러나 "마이크로소프트는 현재는 공유할 내용이 없지만, 새로운 소식이 있으면 알려드리겠습니다."라는 답변을 받았습니다.
윤리 측면에서 고려해야 할 것은 AI가 의도를 예측하는 데 사용되는지 여부입니다. 회사를 떠나는 것이 기술의 올바른 사용입니다. 적어도 대부분의 사람들은 누군가가 이직을 고려하고 있는지 확인하기 위해 커뮤니케이션을 모니터링하는 것이 옳거나 적절한 일이라고 믿습니다. 특히 그 결과가 부정적일 수 있는 경우에는 더욱 그렇습니다.
또한 알고리즘의 예상치 못한 편향은 피하기 어렵고 감지하기가 더욱 어렵습니다. 사람이 이직할지 여부를 예측할 때 개인적인 동기를 효과적으로 판단하는 것은 인간조차도 어려운데, 인공지능 시스템은 왜 실수를 하지 않을까? 더욱이 사람들은 직장에서 말하고, 가정하고, 농담하고, 화를 내고, 다른 사람에 대해 이야기하는 등 다양한 방식으로 의사소통을 합니다. 이력서를 업데이트하기 위해 채용 웹사이트를 방문하더라도 그것은 단지 마음속으로 지나가는 생각일 수도 있습니다. 기계 학습을 통해 직원이 떠날 가능성이 높다고 판단되면 경기 침체기에 가장 먼저 해고될 가능성이 높으며 급여 인상이나 승진 자격이 없습니다.
더 넓은 가능성도 있습니다. 기업이 이 기술을 가질 수 있다면 법 집행 기관과 정보 기관도 그렇게 할 것입니다. 동일한 판단 오류가 발생할 수 있으며 그 결과는 승진이나 급여 인상보다 훨씬 심각합니다.
Adversa.ai의 창립자이자 CEO인 Alex Polyakov는 기계 학습 프로세스 조작을 통한 AI 남용에 대해 더 걱정하고 있습니다. “과학자들이 수행한 연구와 AI 레드 팀(공격자 역할을 수행)이 수행한 실제 평가 작업을 통해 컴퓨터 비전이든 자연어 처리이든 다른 무엇이든 AI 결정을 속이는 것만으로도 충분하다는 것이 입증되었습니다. "
예를 들어, "싹과 잎을 먹는다"라는 단어는 단순히 다른 구두점을 추가하여 채식주의자나 테러리스트를 나타낼 수 있습니다. 인공지능의 경우, 모든 문맥에서 모든 단어의 의미를 소진하는 것은 거의 불가능한 작업입니다.
또한 Polyakov는 얼굴 인식 시스템을 속이는 것이 얼마나 쉬운지 두 번 입증했습니다. 처음으로 인공지능 시스템은 앞에 있는 사람들이 모두 엘론 머스크라고 믿게 만들었습니다. 두 번째 예는 분명히 같은 사람처럼 보이지만 인공지능에 의해 다음과 같이 해석되는 인간의 이미지를 사용하는 것입니다. 여러 다른 사람들. 인공 지능의 학습 과정을 조작하는 것과 관련된 원칙은 사이버 범죄자가 거의 모든 인공 지능 도구에 적용할 수 있습니다.
결론적으로 인공지능은 인간이 가르치는 기계지능일 뿐입니다. 실제 인공지능이 구현될 수 있는지 여부를 논의하지 않더라도 우리는 아직 실제 인공지능과는 수년의 거리를 두고 있습니다. 현재로서는 AI를 인간과 유사한 성공률과 실패율로 많은 일반적인 인간 작업을 자동화하는 도구로 보아야 합니다. 물론 비용이 많이 드는 분석가 팀보다 훨씬 빠르고 비용도 훨씬 저렴합니다.
마지막으로, 알고리즘 편향이든 AI 남용이든 모든 인공 지능 사용자는 이 문제를 고려해야 합니다. 적어도 현 단계에서는 인공 지능의 결과에 너무 많이 의존할 수 없습니다.
위 내용은 인공지능(AI)은 믿을 만한가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!