최근 AI 업계에서 어떤 모델이 가장 인기가 있냐고 물으신다면 10명 중 9명은 ChatGPT에 투표할 거에요. 설마, 이 모델도 할 수 있다는 이유만으로 너무 인기가 많을 텐데요. 많은 것들. 많은 사람들이 이를 진정한 "육각형 전사"라고 묘사합니다. 채팅, 검색 및 번역에 사용할 수 있을 뿐만 아니라 스토리 작성, 코드 작성, 디버깅, 심지어 작은 게임 개발 및 미국 대학 진학에도 사용할 수 있습니다. 입시... 어떤 사람들은 그때부터 미래에는 ChatGPT와 다른 두 가지 유형의 인공 지능 모델만 있을 것이라고 농담으로 말합니다.
ChatGPT의 기능은 너무나 놀라워 대중의 사랑을 받는 반면, 다른 한편으로는 끊임없이 문제를 일으키며 여러 기관에서 금지되기도 했습니다. 얼마 전 Stack Overflow가 다른 이유 없이 ChatGPT를 금지했다는 소식이 있었습니다. 관계자는 ChatGPT가 생성한 답변의 정확성이 너무 낮기 때문에 ChatGPT가 웹사이트에 매우 중요하기 때문에 일시적으로 금지되었다고 밝혔습니다. 정답을 찾고 있던 사용자.
이 사건이 있은 지 얼마 지나지 않아 주요 인공 지능 컨퍼런스에서도 ChatGPT 및 AI 도구를 사용하여 작성된 학술 논문을 금지하기 시작했습니다. 구체적으로 어떤 일이 일어나고 있는지 살펴보겠습니다.
며칠 전 국제 기계 학습 컨퍼런스 ICML은 대규모 언어 모델(ChatGPT와 같은 LLM)을 사용하는 논문을 요청하는 것이 금지된다고 발표했습니다. 생성된 텍스트는 프레젠테이션의 종이 실험 분석 부분으로 사용됩니다.
파일 주소: https://icml.cc/Conferences/2023/llm-policy
ICML에 따르면 ChatGPT와 같은 언어 모델은 미래 개발 추세를 나타냅니다. 의도하지 않은 결과와 해결하기 어려운 문제가 발생합니다. ICML은 ChatGPT가 종종 동의 없이 수집되는 공개 데이터에 대해 교육을 받았으며, 문제가 발생하면 누가 책임을 져야 하는지를 밝혔습니다.
논문을 "쓴" 사람이 기계인지 인간인지에 대한 문제도 있습니다. ICML은 AI가 완전히 생성한 텍스트만 금지한다는 점을 고려하면 이는 특히 중요합니다. 컨퍼런스 주최자들은 저자가 작성한 텍스트를 편집하거나 다듬기 위해 ChatGPT와 같은 도구를 사용하는 것을 금지하지 않는다고 밝혔습니다. 많은 저자들이 이미 기사를 다듬기 위해 문법 교정 소프트웨어 Grammarly와 같은 반자동 편집 도구를 사용하고 있다는 점을 지적합니다.
그러나 이 소식이 나오자마자 소셜 미디어에서는 여전히 큰 논의가 이어졌습니다. Yann LeCun은 "큰 언어 모델을 사용할 수 없으므로 중간 및 작은 언어 모델을 사용할 수 있습니다"라고 말했습니다.
Microsoft Research의 ML Foundation 팀장인 Sebastian Bubeck은 이 규칙을 "근시안적"이라고 말하며 Twitter에 다음과 같이 썼습니다. "ChatGPT와 그 변형은 미래 기술 개발의 일부입니다. 금지하는 것은 절대 아닙니다. 최고의 선택입니다. 탁월한 답변입니다."
ICML은 내년에 AI 생성 텍스트 금지를 재평가할 것이라고 말했습니다.
인공지능이 생성한 텍스트의 유해한 영향에 대한 우려는 늘 달랐습니다. 가장 일반적인 문제 중 하나는 이러한 시스템의 출력이 단순히 신뢰할 수 없다는 것입니다.
AI 모델은 특정 문장에서 다음 단어를 예측하도록 훈련되었지만, 하드코딩된 "사실" 데이터베이스가 없기 때문에 모델에서 생성된 결과는 종종 그럴듯합니다. 생성된 문장은 문법적 논리에는 부합하지만 객관적인 현실에는 부합하지 않는 경우가 많습니다.
매우 어려운 또 다른 문제가 있습니다. 텍스트가 AI에 의해 "정리 및 편집"되었는지 아니면 완전히 AI에 의해 생성되었는지 구별하기가 어렵습니다. 논문의 경우 이 문제는 매우 심각합니다. 저자가 AI 모델을 사용하여 논문을 기반으로 간결한 요약을 생성하는 경우 텍스트를 편집하는 것으로 간주됩니까, 아니면 처음부터 텍스트를 생성하는 것으로 간주됩니까?
물론 ChatGPT와 같은 AI 도구를 사용하는 것이 유일한 단점은 아닙니다. 예를 들어, 동료 검토에서는 유창한 영어 표현이 더 높은 평가를 받는 경향이 있으며, AI 모델은 영어가 모국어가 아닌 논문 작성자가 보다 유창한 영어 텍스트를 생성하는 데 도움이 될 수 있습니다. 이를 통해 연구자의 시간을 절약하고 학문 분야에서 보다 공평한 경쟁의 장을 조성할 수 있습니다.
하지만 ChatGPT는 대규모 언어 모델(LLM)이라는 점에 유의해야 하며 이는 Grammarly와 같은 간단한 문법 교정 소프트웨어와는 매우 다릅니다. LLM 자체의 주요 기능은 이미 작성된 텍스트의 구조와 언어를 조정하는 것이 아니라 새로운 텍스트를 생성하는 것입니다.
사실 실제로 AI 언어 모델을 사용하여 학술 논문을 작성하는 논문 작성자는 거의 없습니다. 학술 논문에 대한 요구 사항이 매우 엄격하기 때문에 저자는 일반적으로 출판하기 전에 논문의 내용을 반복적으로 확인합니다. AI를 사용해 생성된 논문에 오류가 있으면 명명된 모든 논문 저자의 평판이 심각하게 영향을 받아 경력 전체에 영향을 미치게 됩니다.
논문 검토의 관점에서 볼 때 기사가 AI에 의해 생성되었는지 아니면 인간이 작성한 것인지 구별할 수 있는 빠르고 효과적인 감지 도구가 필요합니다. 최근 한 개발자가 이 감지 기능을 갖춘 GPTZero라는 새로운 애플리케이션을 출시했습니다.
GPTZero는 프린스턴 대학교 컴퓨터 과학 학생인 Edward Tian이 개발했으며, 두 가지 측정 기준을 사용하여 텍스트가 AI 모델에 의해 작성되었는지 평가합니다: 혼란과 폭발성). 이는 "모델"을 사용하여 "모델"을 물리칠 수 있습니다.
거의 동시에 ChatGPT도 학교에서 금지되었습니다. 뉴욕시 교육부는 AI 도구가 교육을 방해할 수 있다는 우려로 네트워크 및 장치에서 ChatGPT에 대한 액세스를 차단했습니다.
학과 대변인 Jenna Lyle은 다음과 같이 말했습니다: 이번 금지는 주로 ChatGPT가 학생 학습에 미치는 잠재적인 부정적인 영향에 대한 우려뿐만 아니라 ChatGPT에서 생성된 콘텐츠의 보안 및 정확성에 대한 우려 때문입니다. 이 도구는 빠르고 쉬운 답변을 제공할 수 있지만 학생들의 학업 및 평생 성공에 중요한 비판적 사고 및 문제 해결 기술을 개발하지 못합니다.
또한 ChatGPT에는 다른 언어 모델이 가지고 있는 문제도 있습니다. 훈련 데이터는 인터넷에서 제공되기 때문에 답변에서 성차별, 인종 편견과 같은 내용을 반복하고 증폭시키는 경우가 많습니다. 이러한 유형의 언어 모델은 역사적 날짜부터 과학적 법칙까지 정보를 조작하는 경향이 있지만 일반적으로 다른 모델에서는 이것이 정보를 조작하고 있다는 사실을 감지할 수 없습니다.
교육자들이 이 도구에 대해 특히 걱정하는 것은 이러한 사실적 오류입니다. 많은 교사들은 ChatGPT와 같은 소프트웨어가 학생들의 에세이 작성 능력을 테스트하는 것이 본질적으로 불가능하다고 말합니다. ChatGPT가 학생들이 몇 초 만에 글을 쓰는 데 도움이 된다면 학생들은 글쓰기에 노력을 기울이고 싶지 않을 것입니다.
그러나 다른 사람들은 교육 시스템이 Google 검색 및 Wikipedia와 같은 이전의 파괴적인 기술에 적응했던 것처럼 이 기술의 출현에 적응해야 한다고 주장합니다. 하지만 모든 사람이 ChatGPT에 적응하는 데는 분명히 시간이 걸립니다.
텍스트 작성 사양을 수동으로 공식화하고 시행하는지, 아니면 텍스트가 AI에 의해 생성되는지 확인하기 위해 몇 가지 방법을 사용하는지 여부는 사람들이 ChatGPT와 같은 텍스트 생성 모델 사용을 표준화해야 할 긴급한 필요성을 인식하고 있음을 보여줍니다. ChatGPT의 사용 사례와 가치는 아직 정의되지 않았습니다.
위 내용은 ChatGPT는 학교 출입이 금지되었습니다. AI가 특별히 규칙을 변경합니다. LeCun: 작은 모델도 금지하는 것은 어떻습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!