언어세대 모델이 등장하면서 학교 숙제는 이제 쓸모없게 될까요? 최근 뉴욕시 교육 당국은 공립학교에서 학생들의 ChatGPT 사용을 금지한다고 발표하면서 논란을 불러일으켰습니다.
언어 모델에 의해 자동 생성된 콘텐츠는 기존 저작물을 "참조"하며, 이에 대한 사람들의 우려는 세계 최고의 기계 중 하나인 ICML까지 퍼졌습니다. 학습 회의에서도 최근 발표된 ChatGPT 및 기타 유사한 시스템에서 생성된 콘텐츠가 포함된 논문은 "의도하지 않은 결과"를 피하기 위해 금지됩니다.
이러한 상황에 대해 ChatGPT를 제안한 OpenAI는 AI가 자동으로 생성한 텍스트를 사람들이 감지할 수 있도록 돕는 "완화 조치" 개발에 열심히 노력하고 있다고 발표했습니다.
"우리는 실제 응용 프로그램에서 학습하기 위해 새로운 연구를 위한 미리 보기 기술로 ChatGPT를 사용하고 있습니다. 우리는 이것이 강력하고 안전한 AI 시스템을 개발하고 배포하는 데 중요한 부분이라고 믿습니다. 우리는 계속해서 회사 대변인은 "피드백과 교훈을 고려한다"고 말했다. “OpenAI는 AI 생성 텍스트를 사용할 때 항상 투명성을 요구해 왔습니다. 우리의 사용 약관은 대상 집단을 위해 API 및 창의적인 도구를 사용할 때 사용자에게 먼저 책임을 져야 합니다... 우리는 효과적인 솔루션을 개발하기 위해 교육자와 협력하기를 기대합니다. 교사, 학생 및 기타 사람들이 AI의 혜택을 누릴 수 있는 방법을 찾도록 돕습니다. "
인간과 기계 생성 콘텐츠를 구별할 수 있는 알고리즘이 등장하면 학계에서 생성 모델이 사용되는 방식이 바뀔 수 있습니다. 학교에서는 인공지능이 생성하는 논문을 보다 효과적으로 제한할 수 있을 것이며, 사람들의 태도가 바뀌고 이러한 도구가 학생들에게 도움이 될 것으로 기대한다면 아마도 우리도 점차적으로 인공지능의 활용을 보조용으로 받아들이고 일과 공부의 효율성을 높일 수 있을 것입니다.
이제 아직 갈 길이 먼 것 같습니다. AI가 생성한 텍스트는 학회나 학교에서 기계의 에세이 부정 행위를 금지한다는 뉴스에서 인상적으로 보일 수 있지만 실제 인간이 쓴 글에 비해 실제 이해와 논리가 부족한 경우가 많다는 점을 알아야 합니다.
GPT-3 또는 ChatGPT와 같은 도구는 놀라울 정도로 자세한 답변을 제공하여 사람들을 놀라게 하지만, 이것이 모델이 지식을 인코딩할 수 있음을 입증한다고 말하는 냉정한 전문가도 있습니다. 터무니없는. 포모나 대학 경제학 교수 게리 스미스(Gary Smith)는 우리에게 속지 말라고 일깨워줍니다.
한 칼럼에서 Gary Smith는 GPT-3가 효과적으로 추론하고 질문에 답할 수 없는 몇 가지 예를 보여주었습니다. “GPT-3을 사용하려고 하면 초기 반응이 놀랄 수 있습니다. 매우 똑똑한 사람이지만 더 깊이 파고들면 GPT-3가 설득력 있는 방식으로 단어를 묶을 수 있지만 그 의미는 알지 못한다는 사실을 빨리 발견하게 됩니다.”
"down이라는 단어가 단어 뒤에 올 수 있다고 예측합니다. fall에는 이 두 단어의 의미에 대한 이해가 필요하지 않습니다. AI는 통계적 계산을 통해 이 단어가 종종 함께 사용된다고 생각할 수 있습니다. 따라서 GPT-3에서는 완전히 잘못되었지만 임의적인 주장을 하기 쉽습니다."
OpenAI는 2022년 11월 GPT-3를 개선한 최신 모델인 ChatGPT를 출시했습니다. 그럼에도 불구하고 여전히 기존의 모든 언어 모델과 동일한 문제를 겪고 있습니다.
옛날에는 AI가 생성한 텍스트 콘텐츠가 여전히 '얼핏 보면 가짜'였지만, ChatGPT가 등장한 이후 이런 종류의 차별은 점점 더 어려워졌습니다.
교육 분야에서는 ChatGPT에 대한 논쟁이 부정행위 가능성을 중심으로 전개됩니다. Google에서 "ChatGPT 에세이 쓰기"를 검색하면 교육자, 언론인 및 학생이 숙제 및 표준화된 에세이 시험에 ChatGPT를 사용하여 테스트하는 수많은 예를 찾을 수 있습니다.
Wall Street Journal 칼럼니스트는 ChatGPT를 사용하여 합격 AP 영어 논문을 작성했고, Forbes 기자는 ChatGPT를 사용하여 20분 만에 두 개의 대학 에세이를 작성했습니다. 애리조나 주립대학교의 Dan Gillmor 교수는 Guardian과의 인터뷰에서 ChatGPT에게 학생들에게 과제를 주려고 시도했고 AI로 생성된 논문도 좋은 성적을 얻을 수 있다는 사실을 발견했다고 회상했습니다.
현재 일부 개발자는 ChatGPT 생성 콘텐츠에 대한 탐지 도구인 "GPTZero"를 만들었습니다. 콘텐츠를 입력 상자에 붙여넣기만 하면 몇 초 내에 분석 결과를 얻을 수 있고 빠르게 탐지할 수 있습니다. 기사가 ChatGPT에 의해 작성되었는지 또는 사람이 작성했는지 여부.
네티즌 댓글: 전 세계 학생들이 보고 울었습니다.
저자는 프린스턴 대학교 학생인 Edward Tian입니다. 그는 방학 시간의 일부를 사용하여 GPTZero를 작성했습니다.
탐지 프로세스를 살펴보겠습니다. 먼저 뉴요커 보고서의 내용을 예로 들어 보겠습니다(100% 사람이 작성했음이 확실함).
살펴보겠습니다. ChatGPT가 생성한 콘텐츠에서 이를 수락합니다. 감지:
GPTZero 애플리케이션의 원리는 일부 텍스트 속성의 도움을 받아 분석하는 것입니다. 첫 번째는 모델에 대한 텍스트의 무작위성인 혼란성 또는 언어 모델이 텍스트를 "좋아하는" 정도이며, 다음으로는 기계로 작성된 텍스트가 나타내는 혼란의 정도인 폭발성입니다. 사람이 쓴 텍스트의 경우에는 그렇지 않지만 더 균일하고 일정합니다.
GPTZero: "학생 여러분, 죄송합니다! 교수님, 천만에요!"
Guardian에 따르면 OpenAI는 현재 ChatGPT 출력 결과의 "워터마크"를 계산하는 기능을 개발 중입니다. ”를 통해 독자들이 AI 텍스트 선택에 숨겨진 패턴을 발견할 수 있도록 했습니다.
텍사스 대학교 연설에서 OpenAI 객원 연구원인 Scott Aaronson은 회사가 "출력에 통계적으로 워터마킹"을 통해 부정 행위를 방지하는 시스템을 연구하고 있다고 말했습니다. Aaronson은 이 기술이 독자에게는 눈에 띄지 않지만 예측된 기계 생성 텍스트의 징후를 찾는 사람은 통계적으로 감지할 수 있는 방식으로 ChatGPT가 선택한 특정 단어 선택을 미묘하게 조정함으로써 작동할 것이라고 말했습니다.
“우리는 실제로 워터마킹 솔루션의 작동 중인 프로토타입을 보유하고 있습니다.”라고 Aaronson은 덧붙였습니다. "매우 잘 작동하는 것 같습니다. 경험에 따르면 몇 백 단어이면 신호를 받을 수 있는 것 같습니다. 예, 이 텍스트는 GPT에서 나온 것입니다.
사람들의 우려에도 불구하고 ChatGPT와 관련된 애플리케이션도 빠르게 확산되고 있습니다." 열려 있는. 많은 시나리오에서 사람들은 간단한 쿼리를 이해하지 못하는 챗봇과 대화하고 싶어하지 않습니다. 무엇이든 몇 마디 말할 수 있는 ChatGPT가 이 문제를 해결할 수 있습니다. 토론토에 본사를 둔 Ada는 OpenAI와 제휴하여 ChatGPT의 기반이 되는 대규모 모델인 GPT-3.5를 고객 서비스 챗봇에 적용하여 45억 건의 고객 서비스 상호 작용을 완료했습니다.
The Information에 따르면 Microsoft는 OpenAI와도 독점 라이선스 계약을 체결했으며 해당 기술을 Bing 검색 엔진에 통합할 계획입니다.
ChatGPT는 실제 사람을 시뮬레이션하는 과정에 박차를 가하고 있으며 위조품과의 전쟁은 계속될 것입니다.
위 내용은 ChatGPT 부정 행위가 우려를 낳고 있습니다. OpenAI: 자체 감사 도구를 개발 중입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!