>  기사  >  기술 주변기기  >  ChatGPT를 확인해 보세요!

ChatGPT를 확인해 보세요!

PHPz
PHPz앞으로
2023-04-12 23:10:011198검색
저자 | 피터 웨이너

플래너 | Yizhou

ChatGPT는 여전히 목록을 장악하고 있으며 많은 유명 인사들의 사랑을 받고 있습니다! 빌 게이츠, 마이크로소프트의 나델라, 테슬라의 머스크, 로빈 리, 저우훙이, 중국의 장차오양, 심지어 기술계에 속하지 않은 작가 정위안지에까지 '미래에는 작가들이 실업자가 될 수도 있다'고 믿기 시작했다. " ChatGPT의 등장 때문입니다. "그렇습니다. 또 다른 예로 은퇴한 구글 사장 브린(Brin)도 깜짝 놀랐다. 전 메이투안(Meituan) 공동 창업자 왕휘원(Wang Huiwen)도 다시 나서 AI 인재를 모집하고 중국 오픈AI를 만들기 위해 영웅 게시물을 올렸다.

ChatGPT와 DALL-E로 대표되는 생성 AI는 눈부신 스타일로 풍부한 세부 정보, 아이디어 및 지식으로 가득 찬 텍스트를 작성하여 멋진 답변과 예술 작품을 선보입니다. 그 결과물은 기계에서 만들어졌다는 사실이 믿기 어려울 정도로 다양하고 독특합니다.

일부 관찰자들은 이러한 새로운 AI가 마침내 튜링 테스트의 문턱을 넘었다고 믿을 정도로 너무 많습니다. 어떤 사람들은 임계값이 약간 초과된 것이 아니라 산산조각이 났다고 말했습니다. 이 AI 예술은 "또 다른 집단의 사람들이 이미 실업 위기에 처해 있다"고 할 정도로 훌륭하다.

그러나 한 달이 넘는 발효 과정을 거치면서 AI에 대한 사람들의 경이로움은 사라지고, 생성 AI의 '원래 별 후광'도 점차 사라지고 있습니다. 예를 들어, 일부 관찰자는 올바른 방식으로 질문을 한 반면 ChatGpt는 어리석거나 잘못된 내용을 "뱉어"냈습니다.

또 다른 예로, 어떤 사람들은 초등학교 미술 시간에 인기 있는 구식 논리 폭탄을 사용하여 밤의 태양이나 눈보라 속의 북극곰을 사진으로 찍어달라고 요청했습니다. 다른 사람들은 AI의 상황 인식의 한계를 노려보며 낯선 질문을 했습니다.

이 글은 생성 AI의 '십대 죄'를 요약한 것입니다. 이러한 비난은 시큼한 포도처럼 읽힐 수도 있지만(나도 AI의 힘이 부럽다. 기계가 장악하게 된다면 직업을 잃게 될 것이다, 하하~) 그것은 비방이 아니라 상기시키기 위한 것이다.

1. 표절 표절은 감지하기가 더 어렵습니다.

DALL-E 및 ChatGPT와 같은 생성 AI 모델이 생성되면 실제로는 훈련 세트에 있는 수백만 개의 예제에서 새로운 패턴을 생성합니다. 그 결과 다양한 소스에서 잘라서 붙여넣기한 합성이 이루어지며, 인간이 이렇게 하면 표절이라고도 합니다.

물론 인간도 모방을 통해 배우지만, 어떤 경우에는 이런 AI의 '가져오기'와 '빌리기'가 너무 뻔해서 초등학교 교사가 화를 내서 학생들이 수업에 참석할 수 없게 될 정도입니다. . 이 AI 생성 콘텐츠는 거의 그대로 표시되는 대량의 텍스트로 구성됩니다. 그러나 때로는 대학 교수 팀조차도 소스를 탐지하기 어려울 정도로 도핑이나 합성이 충분합니다. 그럼에도 불구하고 누락된 것은 독창성입니다. 이 기계들은 아무리 빛나더라도 진정으로 새로운 것을 만들어낼 수는 없었습니다.

2.저작권: 인류가 장악하면 소송도 늘어납니다

표절은 주로 학교 문제이지만 시장에서는 저작권법이 적용됩니다. 한 사람이 다른 사람의 작업에서 압박을 받으면 법원에 회부될 수 있으며 수백만 달러의 벌금이 부과될 수 있습니다. 하지만 AI는 어떻습니까? 그들에게도 동일한 규칙이 적용됩니까?

저작권법은 복잡한 주제이며, 생성 AI의 법적 신원 문제를 해결하는 데 수년이 걸릴 것입니다. 그러나 한 가지는 예측하기 어렵지 않습니다. 인공 지능이 직원을 대체하기에 충분할 때 대체된 사람들은 분명히 "집에서 자유 시간"을 사용하여 소송을 제기할 것입니다.

3. 인간은 모델의 무급 노동 역할을 합니다.

제너레이티브 AI가 제기하는 법적 문제는 표절과 저작권만이 아닙니다. 변호사들은 이미 소송에서 새로운 윤리적 문제를 공식화하고 있습니다. 예를 들어, 그리기 프로그램을 만드는 회사가 인간 사용자의 그리기 행동에 대한 데이터를 수집하고 해당 데이터를 AI 교육에 사용할 수 있도록 허용해야 합니까? 이를 바탕으로 사용한 창의적 노동에 대한 보상을 받아야 하는가? 현재 AI의 성공은 주로 데이터에 대한 접근에서 비롯됩니다. 그렇다면 데이터를 생성하는 대중이 파이 한 조각을 원할 때 이런 일이 일어날 수 있습니까? 공정성이란 무엇입니까? 합법적이란 무엇입니까?

4. 정보 축적은 지식 창출이 아닙니다

AI는 특히 인간이 개발하는 데 수년이 걸리는 지능을 모방하는 데 능숙합니다. 학자가 알려지지 않은 17세기 예술가를 소개하거나 거의 잊혀진 르네상스 음조 구조로 새로운 음악을 작곡할 수 있다면 감탄할 이유가 충분합니다. 우리는 이러한 깊이 있는 지식을 개발하려면 수년간의 연구가 필요하다는 것을 알고 있습니다. AI가 단 몇 달의 훈련만으로 이와 동일한 작업을 수행하면 결과가 믿을 수 없을 정도로 정확하고 정확할 수 있지만 뭔가 빠졌습니다.

인공지능은 인간 창의성의 흥미롭고 예측할 수 없는 측면만 모방하는 것처럼 보이지만 "형태는 유사하지만 정신은 유사하지" 않으며 실제로는 이를 수행할 수 없습니다. 동시에, 예측 불가능성은 창의적인 혁신을 주도합니다. 패션과 엔터테인먼트 산업은 변화에 중독될 뿐만 아니라 '변화'로 정의됩니다.

사실 인공지능과 인간지능은 각자의 전문 분야가 있습니다. 예를 들어, 훈련된 기계가 수십억 개의 기록으로 가득 찬 디지털 상자에서 올바른 오래된 영수증을 찾을 수 있다면 Aphra Behn(글쓰기로 유명한 최초의 17세기 작가)과 같은 사람들에 대해서도 배울 수 있습니다. 돈벌이를 해 본 영국 여자는 알고 있었다. 마야 상형문자의 의미를 해독하기 위해 기계가 만들어졌다는 것도 상상할 수 있습니다.

5. 지능은 정체되어 성장하기 어렵습니다

지능에 있어서 인공지능은 본질적으로 기계적이고 규칙 기반입니다. AI는 일단 훈련 데이터 세트를 거치면 실제로 변하지 않는 모델을 생성합니다. 일부 엔지니어와 데이터 과학자는 기계가 적응하는 방법을 배울 수 있도록 시간이 지남에 따라 AI 모델을 점진적으로 재교육하는 것을 구상합니다.

그러나 대부분의 경우 아이디어는 일부 지식을 고정된 형태로 인코딩하는 복잡한 뉴런 세트를 만드는 것입니다. 이러한 "불변성"은 그 자리를 차지하며 특정 산업에 적용될 수 있습니다. 그러나 이는 약점이기도 합니다. 인지가 항상 훈련 데이터의 "시대 주기"에 머무를 위험이 있습니다.

생성 AI에 너무 의존하여 모델 훈련을 위한 새로운 자료를 더 이상 만들 수 없다면 어떻게 될까요?

6. 개인 정보 보호 및 보안에 대한 문이 너무 느슨합니다

AI용 교육 데이터는 어딘가에서 가져와야 하며 신경망에서 무엇을 기대할 수 있는지 항상 확신할 수는 없습니다. AI가 훈련 데이터에서 개인정보를 유출한다면 어떻게 될까요?

더 나쁜 것은 AI가 매우 유연하게 설계되었기 때문에 AI를 잠그는 것이 훨씬 더 어렵다는 것입니다. 관계형 데이터베이스는 개인 정보가 포함된 특정 테이블에 대한 액세스를 제한할 수 있습니다. 그러나 AI는 수십 가지 다른 방식으로 쿼리할 수 있습니다. 공격자는 원하는 민감한 데이터를 얻기 위해 올바른 질문을 올바른 방식으로 묻는 방법을 빠르게 배울 것입니다.

예를 들어 공격자가 자산의 위치를 ​​노리는 경우 AI를 사용하여 위도와 경도를 요청할 수도 있습니다. 영리한 공격자는 몇 주 후에 해당 위치에서 해가 뜰 정확한 순간을 물을 수 있습니다. 성실한 AI는 답변을 제공하기 위해 최선을 다할 것입니다. 개인정보를 보호하기 위해 인공지능을 어떻게 가르치는지도 어려운 문제다.

7. 미지의 편견의 땅

메인프레임 시대부터 기술계에서는 GIGO(Garbage In, Garbage Out)라는 개념을 만들어 왔으며, 이를 통해 대중도 컴퓨터 문제의 핵심을 볼 수 있게 되었습니다. . AI의 많은 문제는 열악한 훈련 데이터에서 비롯됩니다. 데이터 세트가 부정확하거나 편향된 경우 결과는 이를 반영합니다.

생성 AI의 핵심 하드웨어는 이론적으로 논리 기반이지만 기계를 만들고 훈련시키는 인간은 그렇지 않습니다. 사법 전 의견과 정치적 성향 편향이 AI 모델에 도입되는 것으로 나타났습니다. 어쩌면 누군가 편향된 데이터를 사용하여 모델을 만들었을 수도 있습니다. 어쩌면 모델이 특정 인기 질문에 대답하지 못하도록 일종의 훈련 자료를 추가했을 수도 있습니다. 어쩌면 그들은 감지하기 어려워지는 고정된 답변을 입력할 수도 있습니다.

인공 지능은 실제로 좋은 도구이지만, 이는 또한 숨은 동기를 가진 사람들이 AI를 해로운 신념을 전달하는 훌륭한 전달자로 만드는 10,000가지 방법이 있다는 것을 의미하기도 합니다.

외국인 주택구입대출 예시입니다. 이 경우 잠재적 세입자를 평가하는 데 사용된 AI 시스템은 법원 기록 및 기타 데이터 세트에 의존했는데, 그 중 다수는 자체 편견이 있었고 체계적인 인종차별, 성차별, 장애인 차별을 반영했으며 오류가 발생하기 쉬웠습니다. 일부 사람들은 분명히 임대료를 지불할 능력이 있음에도 불구하고 임차인 심사 알고리즘이 자격이 없거나 합당하지 않다고 판단하여 주택 대출이 거부되는 경우가 많습니다. 이것은 우리가 영업사원들로부터 자주 듣는 대답이기도 합니다. 빅데이터/시스템/AI가 이를 촉발합니다.

ChatGPT를 확인해 보세요!

ChatGPT가 기분을 상하게 한 후의 행동

8. 기계의 어리석음에 허를 찔림

인공지능 모델은 다른 일도 많이 하기 때문에 사람들은 쉽게 용서할 수 있습니다. 단지 인공지능이 인간과 다르게 생각하기 때문에 많은 오류를 예측하기 어려울 뿐입니다.

예를 들어, 텍스트-이미지 변환 기능을 사용하는 많은 사용자는 AI가 계산과 같은 간단한 실수를 한다는 것을 발견했습니다. 인간은 초등학교 초반에 기본적인 산수를 배우고, 그 후 다양한 방법으로 이 기술을 사용합니다. 10살짜리 아이에게 문어를 그려 달라고 하면 그 아이는 다리가 8개 있다는 것을 거의 확실히 확인할 것입니다. 현재 버전의 인공 지능은 추상적이고 상황에 맞는 수학 사용에 있어서 어려움을 겪는 경향이 있습니다.

모델 작성자가 이 실수에 주의를 기울이면 쉽게 변경될 수 있지만, 다른 알 수 없는 오류도 있습니다. 기계 지능은 인간 지능과 다를 것이고, 이는 기계의 어리석음도 다를 것이라는 것을 의미합니다.

9. 기계도 거짓말을 할 수 있고 사람을 쉽게 속일 수 있습니다

때때로 우리 인간은 자신도 모르게 AI의 함정에 빠지는 경향이 있습니다. 지식의 사각지대에서 우리는 AI를 믿는 경향이 있습니다. AI가 아내를 죽인 왕이 헨리 8세라고 말한다면 우리는 이 역사를 모르기 때문에 이에 대해 의문을 제기하지 않을 것입니다. 우리는 컨퍼런스에서 청중으로서 카리스마 넘치는 진행자가 손을 흔드는 것을 볼 때 "무대 위의 사람이 나보다 더 많은 것을 알고 있다"고 기본적으로 믿는 것처럼 인공 지능이 옳다고 가정하는 경향이 있습니다.

생성 AI 사용자에게 가장 까다로운 문제는 AI가 언제 잘못되는지 아는 것입니다. "기계는 거짓말을 하지 않는다"는 말이 우리의 진언이지만 사실은 그렇지 않습니다. 기계가 인간처럼 거짓말을 할 수는 없지만, 기계가 저지르는 실수는 더 위험합니다.

그들은 무슨 일이 일어났는지 아무도 모르게 완전히 정확한 데이터로 문단을 작성한 다음 추측이나 심지어 거짓말로 변할 수 있습니다. AI는 또한 "진실과 거짓의 혼합" 기술을 수행할 수도 있습니다. 하지만 차이점은 중고차 딜러나 포커 플레이어는 대부분 자신이 어디에 누워 있는지 알 수 있지만 AI는 알 수 없다는 것입니다.

10. 무한한 남용: 걱정스러운 경제 모델

디지털 콘텐츠의 무한한 복제 가능성은 희소성을 중심으로 구축된 많은 경제 모델을 문제에 빠뜨렸습니다. 생성적 AI는 이러한 패턴을 더욱 깨뜨릴 것입니다. 생성적 AI는 일부 작가와 예술가를 실직하게 할 것이며 우리 모두가 따르고 있는 많은 경제 규칙을 뒤집을 것입니다.

  • 광고와 콘텐츠가 끊임없이 리믹스되고 재탄생될 수 있다면 광고 지원 콘텐츠가 성공할 수 있을까요?
  • 인터넷의 무료 부분은 모두 인공 지능에 의해 생성되고 무한 복제가 가능한 "페이지 광고를 클릭하는 로봇"의 세계로 바뀔까요?
  • 그렇게 쉽게 얻을 수 있는 '번영과 풍요'는 경제의 모든 면을 파괴할 수도 있습니다.
  • 대체 불가능한 토큰이 영원히 복제될 수 있다면 사람들이 계속해서 그에 대한 비용을 지불하게 될까요?
  • 예술을 만드는 것이 그렇게 쉬웠어도 여전히 존중받을 수 있을까요? 그래도 특별할까요? 특별하지 않다면 누구라도 괜찮을까요?
  • 모든 것을 당연하게 여기면 모든 것이 가치를 잃나요?
  • 이것이 셰익스피어가 "불의의 돌팔매와 화살"에 관해 이야기할 때 의미한 것입니까?

스스로 답하려고 하지 말고, 생성 AI가 스스로 답하도록 하세요. 그것은 흥미롭고 독특하며 이상한 대답을 반환할 가능성이 높으며 "모호함"의 선을 밟을 가능성이 높습니다. 약간 신비한 대답, 옳고 그름의 경계, 물고기도 새도 아닌 대답입니다.

원본 링크: https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html

위 내용은 ChatGPT를 확인해 보세요!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제