최근 특정 브랜드의 자동차가 프로토타입 테스트 중 사고가 발생해 인명과 재산에 많은 피해가 발생해 곧바로 화제가 됐다. 동시에 자율주행이라는 일상적인 문제에 대한 여론도 우려되고 있다. 자율주행은 안전한가요? 자율주행이 개방되어야 하는가? 자율주행이라는 껍질 아래에서는 인공지능이 도덕적 판단을 문제의 핵심으로 삼을 수 있는지 판단하기 어렵다.
미국의 MIT는 Moral Machine이라는 웹 사이트를 설계했습니다. 이 웹 사이트는 자동차가 통제력을 상실하는 다양한 시나리오를 설계하여 시청자가 선택할 수 있도록 하며 300만 명의 사용자로부터 피드백을 수집합니다. 모럴 머신(Moral Machine)은 사람들이 더 많은 생명을 보호하기 위해 자율주행차가 자폭하도록 놔두는 경향이 있다는 사실을 발견했습니다. 그러나 그들의 차에는 이러한 기능이 없기를 바랍니다. 이 결론은 문화나 관습과는 아무런 관련이 없으며, 더 많은 사람의 생명을 위해 소수의 생명을 희생하려는 사회의 일반적인 이해와도 일치합니다. 그러나 이는 인간의 생명 자체를 비교하고 수량화할 수 없기 때문에 법에 위배됩니다.
이것은 자율주행을 위한 피할 수 없는 윤리적 문제입니다. 한편, 권한과 책임을 통합한다는 조항에 따라 AI가 통제할 수 없는 결정을 내릴 수 있도록 허용한다면 AI나 그 배후의 자율주행 기업이 의사결정 행위에 책임을 져야 한다는 뜻이다. 반면, AI가 결정을 내리지 못한다면 자율주행이라고 할 수 없습니다. 자율주행차의 정의는 사람의 개입 없이 주변 환경을 감지하고 운전할 수 있는 자동차이기 때문입니다.
자율주행이 직면한 '트롤리 문제'는 인공지능 산업이 직면한 어려움의 축소판일 뿐입니다. 기술의 발전과 빅데이터 산업의 발전으로 인공지능 모델은 더욱 성숙해졌지만, 도덕성, 의식 등 인간의 문제에 있어서는 여전히 난처한 상황에 처해 있다. 인공지능 '특이점' 이론에 따르면 , 인공지능은 결국 인간을 능가하지만, 인간은 인공지능의 안전성에 대해 늘 '프랑켄슈타인 콤플렉스'를 갖고 있었습니다. 일반적으로 인간은 비생물학적 기계에 대한 공감을 심리적으로 받아들이지 못합니다.
올해 6월 초, 구글이 2021년 출시한 대화형 애플리케이션 언어 모델인 LaMDA는 리더 중 한 명인 엔지니어 르모이(Lemoy)에 의해 '의식적'인 것으로 밝혀졌습니다. 그는 LaMDA 모델이 자기 인식을 갖고 세상을 인식할 수 있는 '사람'이며, 7~8세 어린이의 지능을 갖고 있다고 믿습니다. Lemoy는 LaMDA 모델이 자신을 인간으로 볼 뿐만 아니라 인간으로서의 권리를 위해 싸우고 이를 적극적으로 옹호한다고 말했습니다. 사건이 발생한 후 많은 네티즌들은 인공지능의 특이점이 도래했다고 믿으며 인공지능이 의식이 있고 영혼이 풍부하며 인간처럼 독립적으로 생각할 수 있다고 믿으며 르모이를 지지했습니다.
인공지능은 도덕적인가? 즉, 인공지능이 가치판단을 해야 하는가?
인공지능이 도덕적이라고 생각된다면, 인공지능이 인간 의지의 통제를 벗어나 사건이나 사물에 대해 독립적인 평가를 할 수 있다는 뜻입니다. 이는 기술적인 수준에서는 어렵지 않습니다. 인공지능은 대량의 데이터를 '공급'하여 사건이나 사물을 디지털화하고 딥러닝으로 형성된 일련의 '판단 기준'에 따라 측정할 수 있습니다. 위의 LaMDA 모델에서도 마찬가지입니다. 그러나 실제로 LaMDA 모델은 단지 응답 기계일 뿐입니다. 유명한 기계 학습 및 신경망 전문가인 Gary Marcus는 "LaMDA는 인간 말뭉치에서 단어를 추출한 다음 이 분석을 통해 질문을 일치시킵니다."라고 말했습니다. 소위 말하는 인공지능의 '도덕성'은 사건이나 사물에 대한 반응일 뿐 도덕적 평가가 무엇인지, 도덕적 평가의 의미에 대한 깊은 이해를 제공하지 못한다.
또 다른 예는 다양한 인공 지능 모델이 동일한 상황을 처리하는 방법이 다르다는 것입니다. 그래도 자율주행을 예로 들면, 같은 양동이를 향해 같은 방식으로 돌진해도 결과는 전혀 다르다. 일부는 직접 충돌했지만 다른 일부는 피했습니다. 이것이 도덕적 수준으로 올라갈 수 있습니까? 분명히 그렇지 않습니다. 두 모델 사이에는 차이조차 없습니다. 왜냐하면 서로 다른 개념과 요구 사항을 기반으로 설계된 모델은 특별한 특성을 가지고 있기 때문입니다. 그 개입이 수행되어야 한다.
한발 물러서서 인공지능이 인간과 같은 의식을 갖고 독립적으로 생각할 수 있다고 가정한다면, 그것이 도덕적 문제를 해결할 수 있기를 바랄 수 있다는 뜻일까요? 대답은 부정적이다. 간단히 말해서, 인간 스스로 해결할 수 없는 도덕적 문제는 '인류'라는 개념 없이는 숫자로 해결될 수 있다고 기대할 수 없습니다.
이러한 관점에서 인공지능 개발의 가치판단에는 도덕적 문제가 없다. 더 중요한 것은 왜 도덕적 평가가 필요한가를 분석하는 것이다. 도덕적 평가의 기본 목적은 결과에 도달하고 후속 행동을 안내하는 것입니다. 기자는 인공지능의 귀속 측면에서 인공지능을 의사결정 시스템과 실행 시스템으로 구분하고, 해당 시스템에 '책임자' 시스템을 도입해야 한다고 본다.
의사결정의 관점에서 볼 때 법적인 관점에서는 행동은 처벌되지만 생각은 처벌되지 않지만 자연인만을 대상으로 합니다. 현재 인공지능의 '아이디어'는 데이터를 통해 표현될 수 있기 때문에 의사결정 관점에서 볼 때 인공지능은 여전히 통제가 필요하다. 인공지능의 '아이디어'에 오류가 있는 이유는 알고리즘을 훈련하는데 사용되는 데이터, 즉 인공지능이 사회에 존재하는 문제를 학습하고 이를 적용하는 데 문제가 있기 때문이다. 예를 들어, 미국 전자상거래 브랜드인 아마존(Amazon)은 직원 채용 시 초기에 후보자 이력서를 선별하기 위해 인공지능 알고리즘을 사용합니다. 엔지니어가 알고리즘을 교육할 때 이전에 아마존에 고용된 직원을 사용하기 때문에 결과는 남성에게 더 편향되어 있습니다. 이력서는 훈련되어 있으며 Amazon에는 남성 직원이 더 많습니다. 결과적으로 이러한 알고리즘은 Amazon의 이력서 심사 알고리즘을 남성에게 더욱 편향되게 만들어 알고리즘에 '성차별'을 초래하게 됩니다. 기자는 알고리즘과 훈련 데이터로 인해 법적 결과가 발생했다면 알고리즘 설계나 훈련을 담당한 담당자가 책임을 져야 한다고 믿습니다.
행동적 관점에서 볼 때 인공지능이 행동 수행에 있어 인간과 동등하거나 심지어 능가할 수 있다고 하더라도 법적 관점에서 볼 때 인공지능은 여전히 권리와 능력의 주체가 아닌 사물로 간주됩니다. 이는 현행법이 인공지능이 독립적으로 법적 책임을 질 수 있다는 점을 부정한다는 의미이기도 하다. 본질적으로 인공지능은 자신이 수행하는 행위에 대해 책임을 질 수 없기 때문이다. 법인조직은 특정한 조직으로 구성된다. 자연인은 그 행위로 인해 발생하는 책임을 진다. '생각'과 '행동'을 구별하면 책임의 귀속을 더욱 구체적으로 할 수 있어 인공지능 산업 발전에 대한 열정에 영향을 주지 않으면서 효과적인 책임을 보장할 수 있습니다. 현행 민사분야에서는 인공지능 제품의 침해에 제조물 책임이 적용돼 개발자, 생산자, 판매자의 책임이 강조된다.
* * *
최근 우리나라는 '차세대 인공지능 거버넌스 원칙', '차세대 인공지능 윤리강령' 등 정책문서를 잇달아 발표해 8대 원칙을 명확히 제시하고 통합을 강조하고 있다. 윤리와 도덕성을 인공지능 시스템 전체에 반영하고, 원칙적인 관점에서 인공지능 산업의 건전한 발전을 유지합니다. 관련 소식통에 따르면 국가과학기술윤리위원회 산하 인공지능분과위원회는 인공지능 과학 연구 활동에 대한 윤리적 감독을 더욱 강화하기 위해 고위험 인공지능 윤리 목록을 연구하고 작성하고 있다고 한다. 더 많은 법적 규제가 도입되면 인공지능 적용에 대한 윤리적 문제가 크게 완화될 것이라고 믿습니다.
Tips
트롤리 문제: "트롤리 문제"는 윤리학 분야에서 가장 유명한 사고 실험 중 하나로 1967년 철학자 필리파 풋이 논문에서 제안한 "낙태 문제와 교리의 이중 영향"에서 처음 발표되었습니다. . 일반적인 내용은 트램 선로에 5명이 묶여 있고, 백업 선로에 1명이 묶여 있으며, 통제 불능의 트램이 고속으로 접근하고 있다는 것입니다. 그리고 옆에 조이스틱이 있습니다. 조이스틱을 누르면 트램이 백업 트랙으로 이동하여 1명을 죽이고 5명을 구할 수 있습니다. 또한 아무것도 할 수 없으며 5명을 죽이고 1명을 구할 수 있습니다. 이러한 유형의 윤리적 딜레마를 "트롤리 문제"라고 합니다.
인공지능 '특이점' 이론: '특이점'을 인공지능 분야에 최초로 도입한 사람은 미국의 미래학자 레이 커즈와일이었습니다. 그는 『특이점이 온다』와 『인공지능의 미래』라는 두 권의 책에서 이 두 가지를 결합해 인공지능의 능력이 그것을 뛰어넘는 어떤 시공간 단계를 비유적으로 사용했다. 인간의. 인공지능이 이 '특이점'을 넘으면 우리가 익숙했던 모든 전통, 이해, 개념, 상식은 더 이상 존재하지 않게 되며, 기술의 가속화된 발전은 '폭주효과'를 낳게 되고 인공지능은 그 잠재력과 한계를 뛰어넘게 될 것이다. 인간 지능의 잠재력은 인류 문명을 통제하고 빠르게 변화시킵니다.
프랑켄슈타인 콤플렉스: 소설가 아시모프에서 유래되었으며, 기계를 두려워하는 인간의 심리 상태를 말합니다. 프랑켄슈타인은 메리 셸리가 1818년에 쓴 소설 "프랑켄슈타인: 현대 프로메테우스 이야기"의 주인공입니다. 그는 인간형 생명체를 창조했지만 반발도 겪었습니다. 이제 '프랑켄슈타인'은 인간이 만든 괴물을 가리키는 데 사용된다. 현대 문학이나 영화 등의 작품에서 '프랑켄슈타인 콤플렉스'는 인공지능이 인간을 정복하고 세상을 관리하기 시작한다는 의미를 내포하는 경우가 많다. 쉬용 인턴 양성린 기자
위 내용은 인공지능의 발전은 언제쯤 족쇄를 뚫을 수 있을까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!