>  기사  >  기술 주변기기  >  ChatGPT가 인기가 많지만 생성 AI 결함 10가지가 걱정됩니다.

ChatGPT가 인기가 많지만 생성 AI 결함 10가지가 걱정됩니다.

WBOY
WBOY앞으로
2023-04-22 23:07:07812검색

ChatGPT가 인기가 많지만 생성 AI 결함 10가지가 걱정됩니다.

과학과 기술 인력의 수십 년간의 끊임없는 노력 끝에 현실 세계의 인공 지능은 마침내 임계점에 도달했습니다. ChatGPT 및 DALL-E와 같은 AI 모델의 놀라운 성능으로 인해 많은 사람들은 점점 더 스마트해지는 AI 시스템이 인간을 따라잡고 있다는 느낌을 갖게 되었습니다.

생성 AI의 기능은 너무 다양하고 독특해서 기계에서 나온다는 것이 믿기지 않습니다. 그러나 일단 경이로움이 사라지면 생성 AI의 스타 파워도 사라질 것입니다. AI는 일부 응용 분야에서 장면 인식이나 상식의 한계를 보여주기도 했습니다. 요즘에는 제너레이티브 AI의 단점이나 결함에 대해 많은 사람들이 관심을 기울이거나 우려하고 있습니다.

사람들이 걱정하는 생성 AI의 10가지 단점이나 결함은 다음과 같습니다.

1. 표절 콘텐츠

연구원이 DALL-E 및 ChatGPT와 같은 생성 AI 모델을 만들 때 이는 실제로 훈련 세트의 수백만 가지 사례에서 생성된 새로운 패턴일 뿐입니다. 그 결과는 "표절"이라고 알려진 인간의 관행인 다양한 데이터 소스에서 잘라내어 붙여넣기하여 추출한 결과입니다.

물론 인간도 모방을 통해 배우지만, 어떤 경우에는 이런 표절이 바람직하지 않으며 심지어 불법이기도 합니다. 제너레이티브 AI가 생성한 콘텐츠는 대량의 텍스트로 구성되어 있으며, 일부 콘텐츠는 다소 표절되어 있습니다. 그러나 때로는 대학 교수조차도 실제 소스를 감지하는 데 어려움을 겪을 만큼 충분한 혼합 또는 합성이 관련되어 있습니다. 그럼에도 불구하고, 그것이 생성하는 콘텐츠에는 독창성이 부족합니다. 강력해 보이지만 실제로 혁신적인 제품을 생산하지는 않습니다.

2. 저작권 문제

표절은 학교에서 피하려고 노력하는 문제이지만 저작권법은 시장에도 적용됩니다. 누군가가 다른 사람의 지적 재산이나 저작물을 훔치면 고소를 당하거나 수백만 달러의 벌금이 부과될 수 있습니다. 그러나 AI 시스템은 어떻습니까? 동일한 규칙이 적용됩니까?

저작권은 복잡한 주제이며 생성 AI의 법적 지위를 결정하는 데 수년이 걸릴 것입니다. 하지만 기억해야 할 것은 AI가 인간의 일부 직업을 대체하기 시작하면 저작권 규정에 따라 소송이 제기될 것이라는 점입니다.

3. 인간 노동력을 무료로 얻기

생성 AI로 인한 법적 문제는 표절과 저작권 침해뿐만 아니라 일부 변호사들이 AI로 인한 윤리를 두고 소송을 제기하기도 했습니다. 예를 들어, 그리기 프로그램을 만드는 회사는 사용자의 그리기 행동에 대한 데이터를 수집하여 AI 훈련 목적으로 사용합니까? AI의 성공은 대부분 데이터를 이해하는 데서 비롯됩니다. 입장. 그렇다면 데이터를 생성한 인간이 이를 통해 이익을 얻으려면 어떻게 해야 할까요?

4. AI가 인간을 잘 모방하려면 몇 년이 걸릴 것입니다. . 나오는 지능의 종류. 인류학자가 알려지지 않은 17세기 예술가를 소개하거나 예술가가 거의 잊혀진 르네상스 음색으로 새로운 음악을 작곡할 때 사람들은 수년간의 연구와 연습이 필요한 그들의 앞선 지식과 기술에 감탄합니다. AI가 단 몇 달의 훈련 후에 동일한 작업을 수행할 수 있으면 결과는 놀라울 정도로 정확하고 정확할 수 있지만 항상 뭔가 빠진 것처럼 느껴집니다.

잘 훈련된 AI 시스템 기계는 많은 양의 정보를 획득하여 특정 내용을 이해할 수 있으며 심지어 마야 상형문자도 해독할 수 있습니다. AI는 인간 창의성의 재미 있고 예측할 수 없는 측면을 모방하는 것처럼 보이지만 실제로는 그렇게 할 수 없습니다. 동시에 예측 불가능성은 창의적인 혁신의 원동력입니다. 패션과 같은 산업은 변화에 집착할 뿐만 아니라 변화에 의해 정의됩니다. 사실 AI와 인간 모두 각자의 전문 분야가 있습니다.

5. 지능의 성장은 제한적입니다.

지능에 있어서 AI는 본질적으로 기계적이고 규칙 기반입니다. AI 시스템이 일련의 데이터에 대해 훈련되면 실제로 변경되지 않는 모델이 생성됩니다. 일부 엔지니어와 데이터 과학자는 AI가 적응하는 방법을 배울 수 있도록 시간이 지남에 따라 AI 모델을 점진적으로 재교육하는 것을 구상합니다.

그러나 대부분의 경우 특정 지식을 고정된 형태로 인코딩하는 복잡한 뉴런 세트를 만드는 것이 아이디어입니다. 이는 일부 산업에 적용될 수 있습니다. AI의 위험은 지능의 성장이 훈련 데이터의 한계로 인해 항상 갇히게 된다는 것입니다. 인간이 생성 AI에 너무 의존하여 더 이상 훈련 모델을 위한 새로운 자료를 제공할 수 없게 되면 어떻게 될까요?

6. 개인 정보 보호 및 보안을 개선해야 합니다.

AI 훈련에는 많은 데이터가 필요하지만 인간은 그렇지 않습니다. t 신경망의 결과가 어떻게 될지 항상 확실하지는 않습니다. AI가 훈련 데이터에서 개인 정보를 유출한다면 어떨까요? 더 나쁜 것은 AI가 매우 유연하게 설계되었기 때문에 제어하는 ​​것이 훨씬 더 어렵다는 것입니다. 관계형 데이터베이스는 개인 정보가 포함된 특정 테이블에 대한 액세스를 제한할 수 있습니다. 그러나 AI는 수십 가지 다른 방식으로 쿼리할 수 있습니다.

사이버 공격자는 원하는 민감한 데이터를 얻기 위해 올바른 질문을 올바른 방법으로 빠르게 배우는 방법을 배우게 됩니다. 사이버 공격자가 특정 시설의 위도와 경도를 표적으로 삼았다고 가정하면, AI 시스템은 해당 위치의 정확한 시간을 질문받고 성실한 AI 시스템이 그 질문에 답할 수 있을 것이다. 따라서 개인 데이터를 보호하기 위해 AI를 어떻게 훈련시키는지도 어려운 문제입니다.

7. 편견 생성

초기 메인프레임 프로그래머조차도 "GIGO(garbage in, waste out)"라는 개념을 만들면서 컴퓨터 문제의 핵심을 이해했습니다. AI의 많은 문제는 열악한 훈련 데이터에서 비롯됩니다. 데이터 세트가 부정확하거나 편향된 경우 출력에 반영됩니다.

생성 AI의 핵심 하드웨어는 논리에 의해 구동되지만 기계를 만들고 훈련시키는 인간은 그렇지 않습니다. 편견과 오류가 AI 모델에 영향을 미치는 것으로 나타났습니다. 어쩌면 누군가가 편향된 데이터를 사용하여 모델을 만들었을 수도 있고, AI가 특정 인기 질문에 대답하지 못하도록 AI를 재정의했을 수도 있고, AI 시스템에 편향을 주는 미리 준비된 답변을 제공했을 수도 있습니다.

8. AI도 실수를 합니다

사람들은 AI 모델이 다른 많은 일을 훌륭하게 수행하기 때문에 실수를 쉽게 용서하지만 AI는 인간과 같은 방식으로 생각하지 않기 때문에 많은 실수를 예측하기 어렵습니다. . 예를 들어, 텍스트-이미지 변환 기능을 사용하는 많은 사용자는 계산과 같은 매우 간단한 작업에서 AI가 실수를 한다는 사실을 발견했습니다.

인간은 초등학교 때부터 기본적인 산술을 배우기 시작하고 이 기술을 다양한 방법으로 사용합니다. 예를 들어, 10세 어린이에게 문어를 그리라고 하면 대개 다리가 8개라고 판단합니다. 현재 버전의 AI 모델은 수학적 추상화 및 상황별 적용과 관련하여 정체되는 경향이 있습니다. 모델 작성자가 이 오류에 주의를 기울이면 이 상황은 쉽게 바뀔 수 있지만 다른 오류도 있습니다. 기계 지능은 인간 지능과 다릅니다. 즉, 기계가 저지르는 실수도 다를 것입니다.

9. 인간을 속이기

때때로 인간은 자신의 실수를 깨닫지 못한 채 AI 시스템에 속는 경향이 있습니다. 예를 들어, AI가 영국의 헨리 8세가 자신의 아내를 죽였다고 인간에게 말하면 인간도 이 역사를 이해하지 못할 수 있기 때문에 대개 그것을 믿을 것입니다. 사람들은 AI가 제공하는 답변이 사실이고 정확하다고 가정하는 경향이 있습니다.

생성 AI 사용자에게 가장 어려운 문제는 AI 시스템이 언제 잘못되는지 아는 것입니다. 기계는 인간보다 거짓말을 할 수 있는 능력이 부족하여 더욱 위험하다고 생각됩니다. AI 시스템은 완벽하게 정확한 데이터를 작성한 다음 인간이 무슨 일이 일어나고 있는지 알지 못한 채 추측이나 심지어 거짓말을 할 수도 있습니다. 중고차 딜러나 포커 플레이어는 자신이 언제 거짓말을 하는지 아는 경향이 있고 대부분은 어디에 거짓말을 하는지 알지만 AI는 그렇게 할 수 없습니다.

10. 무한한 복제 가능성

디지털 콘텐츠는 무한히 복제 가능하므로 희소성을 중심으로 구축된 많은 AI 모델을 압도합니다. 생성적 AI는 이러한 패턴을 더욱 깨뜨릴 것입니다. 생성적 AI는 일부 작가와 예술가를 실직하게 하고 우리가 따르는 많은 경제 규칙을 뒤집을 것입니다.

광고와 콘텐츠가 지속적으로 리믹스되고 업데이트될 때 광고 지원 콘텐츠가 여전히 효과적일까요? 인터넷의 무료 부분은 모두 생성 AI에 의해 생성되고 무한히 복제 가능한 "웹 광고를 클릭하는 봇"의 세계에 빠질까요?

무한한 풍요는 디지털 경제를 파괴할 수 있습니다. 예를 들어, 대체 불가능한 토큰을 복사할 수 있다면 사람들은 계속해서 그에 대한 비용을 지불할 것입니까? 예술 작품을 만드는 것이 그렇게 쉽다고 해도 여전히 존중받을 수 있습니까? 모든 것이 당연시된다면 모든 것이 가치를 잃게 될까요? ?

이러한 질문에 스스로 답하려고 하지 말고, 생성 AI에서 재미있고 이상한 답을 찾아보세요.

위 내용은 ChatGPT가 인기가 많지만 생성 AI 결함 10가지가 걱정됩니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제