ChatGPT가 작년 11월 말에 공식적으로 출시되었다는 사실을 많은 사람들이 잊어버렸을 수도 있지만, 이제 두 달밖에 되지 않았지만, 이로 인해 시작된 열풍으로 인해 기술 기업이 뒤따르게 되었고, 유니콘 스타트업도 탄생하게 되었습니다. made Academics 커뮤니티에서는 논문 승인 요건을 수정했습니다.
ChatGPT가 AI 분야에서 "금지 여부"에 대한 큰 논의를 촉발한 후, OpenAI의 진위 식별 도구가 마침내 출시되었습니다.
1월 31일 OpenAI는 인간의 작업과 AI 생성 텍스트를 구별하는 인식 도구 출시를 공식 발표했습니다. 이 기술은 자체 ChatGPT, GPT-3 및 기타 모델에서 생성된 콘텐츠를 식별하도록 설계되었습니다. 하지만 현재 분류기의 정확도는 걱정스러운 것으로 보인다. OpenAI는 블로그에서 AI 식별 AI 고신뢰 정확도가 약 26%라고 지적했다. 그러나 기관은 다른 방법과 함께 사용하면 AI 텍스트 생성기가 오용되는 것을 방지하는 데 도움이 될 수 있다고 믿습니다.
「우리가 제안하는 분류기의 목적은 인공지능이 생성한 텍스트로 인한 혼란을 줄이는 것입니다. 그러나 여전히 몇 가지 한계가 있으므로 텍스트의 출처를 결정하는 다른 방법을 보완하는 것으로 사용되어야 합니다. OpenAI 대변인은 이메일을 통해 언론에 말했다. "우리는 이러한 도구가 이 초기 분류기에 유용한지에 대한 피드백을 받고 있으며 앞으로 개선된 방법을 공유하기를 희망합니다."
최근 기술 분야는 생성 AI, 특히 텍스트 생성 AI를 중심으로 성장하고 있습니다. 오용에 대한 우려가 커지면서 비평가들은 이러한 도구의 제작자에게 잠재적으로 해로운 영향을 완화하기 위한 조치를 취할 것을 촉구했습니다.
대량의 AI 생성 콘텐츠에 직면하여 일부 산업에서는 학생 학습에 영향을 미칠 것을 우려하여 네트워크 및 장치에서 ChatGPT 사용을 즉시 금지했습니다. 도구에 의해 생성된 콘텐츠의 정확성. 스택 오버플로(Stack Overflow)를 포함한 웹사이트 역시 인공지능이 사용자를 정상적인 토론에서 쓸모없는 콘텐츠로 넘쳐나게 만들 것이라고 말하면서 ChatGPT에서 생성된 콘텐츠를 사용자가 공유하는 것을 금지했습니다.
이러한 상황은 AI 인식 도구의 필요성을 강조합니다. 효과는 만족스럽지 못하지만 OpenAI AI Text Classifier는 GPT 시리즈와 함께 아키텍처 벤치마킹을 달성합니다. ChatGPT와 마찬가지로 웹의 많은 공개 텍스트 예제에 대해 훈련된 언어 모델입니다. ChatGPT와 달리 ChatGPT뿐만 아니라 모든 텍스트 생성 AI 모델에서 텍스트가 AI에 의해 생성될 가능성을 예측하도록 미세 조정되었습니다.
구체적으로 OpenAI는 OpenAI 자체를 포함해 5개 조직에 걸쳐 34개 텍스트 생성 시스템의 텍스트에 대해 AI 텍스트 분류기를 교육했습니다. 이는 Wikipedia의 유사(동일하지는 않음) 인공 텍스트, Reddit에서 공유된 링크에서 가져온 웹사이트, OpenAI 텍스트 생성 시스템을 위해 수집된 "인간 데모" 세트와 짝을 이루었습니다.
OpenAI 텍스트 분류기는 모든 유형의 텍스트에 적합하지 않습니다. 감지할 콘텐츠는 최소 1000자, 즉 약 150~250단어여야 합니다. 여기에는 종이 탐지 플랫폼의 표절 검사 기능이 없습니다. 텍스트 생성 AI가 훈련 세트에서 "정답"을 복사하는 것으로 나타났음을 고려하면 매우 불편한 제한 사항입니다. OpenAI는 영어 중심의 데이터 세트 때문에 어린이가 쓴 텍스트나 영어가 아닌 다른 언어로 작성된 텍스트에서 오류가 발생할 가능성이 더 높다고 말했습니다.
특정 텍스트가 AI에 의해 생성되었는지 평가할 때 탐지기는 긍정적인 예 또는 아니요 대답을 제공하지 않습니다. 신뢰 수준에 따라 AI가 생성할 가능성이 "매우 낮음"(확률 10% 미만), AI가 생성할 가능성이 낮음(10%~45% 확률), "확률이 불확실함"으로 텍스트를 표시합니다. 그것은 "AI 생성(확률 45%~90%)", "아마도" AI 생성(90%~98% 확률) 또는 "매우 가능성 있는" AI 생성(98% 이상 확률)이었습니다.
정확성을 제외하면 이미지 인식 AI와 매우 유사해 보입니다. OpenAI에 따르면 분류자는 9%의 경우 인간이 작성한 텍스트를 AI가 작성한 텍스트로 잘못 표시합니다.
OpenAI는 AI 텍스트 분류기의 성공률이 약 26%라고 주장합니다. 일부 네티즌이 시도한 결과 인식 효과가 실제로 좋지 않다는 것을 발견했습니다.
저명 ML 및 AI 연구자인 Sebastian Raschka가 시험해본 후 "안 된다"고 댓글을 달았습니다. 그는 원본 2015년판의 Python ML 책을 입력 텍스트로 사용했으며 결과는 아래와 같습니다.
Sebastian Raschka는 이것이 흥미로운 예라고 말했지만 이미 터무니없는 에세이 인정 결과로 처벌받을 수 있는 학생들에게 안타까움을 느꼈습니다. 미래.
그래서 그는 그러한 모델을 배포하고 싶다면 혼동 행렬을 공유해 달라고 제안했습니다. 그렇지 않고 교육자가 채점을 위해 이 모델을 채택하면 현실적으로 해를 끼칠 수 있습니다. 또한 거짓양성과 거짓음성에 대한 투명성도 어느 정도 있어야 합니다.
또한 Sebastian Raschka는 셰익스피어의 『맥베스』 첫 페이지의 내용을 입력했고, OpenAI AI 텍스트 분류기는 AI가 생성했을 가능성이 높은 결과를 제공했습니다. 정말 터무니없다!
AI 작성 도구 Easy-Peasy.AI로 만든 콘텐츠도 누군가 업로드한 결과, OpenAI AI 텍스트 분류기는 AI에 의해 생성될 가능성이 매우 낮다고 판단했습니다.
마침내 누군가가 반복 번역 방법을 사용하여 GPT3가 텍스트를 다시 쓰게 했는데, 이 역시 인식기를 속였습니다.
결론적으로는 전방인식도 부정확하고, 역인식도 틀리고, 논문 수정 기술도 꿰뚫어 볼 수 없는 부분이 있습니다. 적어도 AI 텍스트 콘텐츠 인식 분야에서는 OpenAI가 여전히 노력해야 할 것으로 보입니다.
위 내용은 OpenAI는 AI 생성 콘텐츠 식별자를 공식 출시했지만 성공률은 26%에 불과합니다. 종이 표절 검사 도구만큼 좋지는 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!