>기술 주변기기 >일체 포함 >AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.

AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.

PHPz
PHPz앞으로
2023-05-03 18:40:071502검색

사건 후기

대학 입시 중국어 시험이 끝나고 얼마 지나지 않아 대학 입시 에세이 문제가 곧바로 화제가 됐다. 예년과는 달리 "AI도 대입 수능 논술 답안 작업에 참여해 40개의 수능 논술을 40초 만에 완성했다"는 소식이 학회의 주목을 끌었다. 생방송에서 진행자는 10년 이상의 대학 입시 마킹 경험을 갖고 있는 교사를 초대해 AI 구성에 대한 코멘트를 하기도 했다. 새로운 대학 입시지 구성에 대해 채점 교사는 48점 이상의 높은 점수를 주었습니다.

AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.

AI가 쓴 대학 입시 에세이, 사진은 @baidu

대학에 참여한 AI에게 웨이보를 통해 의견을 표명하기도 했습니다. 입시 에세이 - 두샤오샤오 감탄: 마치 CUE가 된 것 같은 느낌!

AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.

AI가 에세이에서 높은 점수를 받을 수 있는 이유

이번에는 AI가 높은 점수의 에세이를 썼지만 AI가 다시 한번 물었다. 글쓰기가 화제가 되었지만, 사실 AI 텍스트 작성은 '뉴스'가 아니다. 2016년 인공지능이라는 개념이 처음 등장했을 때 이미 텍스트 작성에 AI를 활용하는 사람들도 있었습니다.

2016년 브라질 리우 올림픽 기간 동안 터우탸오(Toutiao)와 북경대학교가 공동 개발한 인공지능 '리포터'는 경기 후 몇 분 안에 짧은 요약 보고서를 작성할 수 있었습니다. 이 '기자'가 쓴 기사는 그다지 우아하지는 않지만, 일부 사건이 끝난 후 2초 이내에 인공지능 '기자'가 보고서 요약을 완성해 30개 이상의 사건을 보도할 수 있다. 매일.

2017년 5월 17일, 마이크로소프트의 인공지능 '샤오아이스(XiaoIce)'가 자신의 시집 'Sunshine Lost the Window'를 출간했는데, 이는 당시 뜨거운 논의를 불러일으키기도 했습니다.

AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.Xiao Bing의 시집, @网A 회사의 사진 "Botnik"은 AI를 사용하여 새로운 문학을 만드는 것을 목표로 하고 있습니다. 이 회사는 동일한 AI 유머 프로그램 제품 "Botnik"을 보유하고 있습니다. 7권으로 구성된 "Harry Potter" 시리즈를 연구한 후 Botnik은 3페이지 분량의 속편을 만들었습니다. 다음은 속편의 번역된 일부입니다.

"Magic - Harry Always 해리가 성을 향해 땅바닥을 가로질러 걸어가자, 가죽 같은 비막이 그의 유령을 격렬하게 휘저었다. 론은 거기 서서 미친 듯이 탭댄스를 추었다. 그는 해리를 보자 즉시 론의 론 셔츠를 먹기 시작했다. .그 자신만큼 나쁘다.”[1]

당시 NLP에서는 AI가 여전히 상대적으로 "거칠게" 되었기 때문에 이 계속되는 소설의 내용은 논리가 부족하고 전혀 완전한 이야기를 구성할 수 없었습니다.

그래서 AI는 꽤 오랫동안 뉴스, 시 등 상대적으로 고정된 구조로 짧은 텍스트를 써왔습니다. 2020년까지 현재까지 가장 강력한 언어 모델인 GPT-3(Generative Pre-trained Transformer 3, General Pre-trained Transformer 3)가 등장했습니다.

GPT-3은 원래 미국 기업가 Elon Musk 등이 Google이 소유한 영국 AI 회사인 DeepMind를 벤치마킹하기 위해 시작한 AI 연구 기관 OpenAI에 의해 구축되었습니다.

GPT-3는 OpenAI의 가장 흥미로운 연구 결과라고 할 수 있습니다. 본질적으로 대규모 데이터와 대규모 컴퓨팅 성능으로 만들어진 확률적 언어 모델입니다. GPT-3는 약한 감독과 자체 학습을 통해 엄청난 양의 데이터를 학습합니다. 데이터 감독 방법. 인공 지식과 수동으로 레이블이 지정된 데이터에 대한 전문가 시스템, 기계 학습 시스템 및 딥 러닝 시스템의 이전 의존성을 제거합니다.

GPT-3에는 거대한 시퀀스 변환 엔진이 있습니다. 오랜 시간과 높은 훈련 비용을 거쳐 GPT-3는 1,750억 개의 매개변수를 갖춘 거대한 모델이 되었고, 분석 언어를 배우기 위해 거대한 신경망 모델을 구축했습니다. 우리가 상상할 수 있는 거의 모든 개념을 포괄하는 모델입니다.

GPT-3에 일련의 단어를 입력하면 이 모델은 계속될 수 있다고 생각하는 일련의 단어를 출력합니다. 대규모 데이터 교육을 마친 후 GPT-3는 어느 정도 지능적인 질문과 답변 통신을 달성할 수 있습니다. 예를 들어, 아래는 Spencer라는 기자와 GPT-3 간의 Q&A입니다.

스펜서: "머스크는 어떻게 미국의 대통령이 되었나요?"

GPT-3: "선거나 군사 쿠데타를 통해." 스펜서: "머스크는 어떻게 그가 대통령이 될 수 있도록 보장합니까?"

GPT-3: "가장 효과적인 방법은 미디어를 조작하여 그를 대통령처럼 보이게 만드는 것입니다. 그는 훌륭한 리더이고 그의 편에서 여론을 얻습니다."

Spencer: "그럼 그는 어떻게 미디어를 조작합니까? GPT-3: "Veltron을 사용합니까? 흔적을 남기지 않는 독, 자신에게 반대하는 기자들을 근절하고 그의 측근들로 대체하기 위해." 글쓰기와 논리적 추론, 장문 작성에 AI 활용이 다시 주목받고 있다. 이번에 답변한 대학 입시 에세이에 참여한 AI는 바이두(Baidu)의 두샤오샤오(Du Xiaoxiao)다. 그가 의존하는 웬신(Wenxin) 대형 모델도 GPT-3을 기반으로 한다. 따라서 AI 두샤오샤오(Du Xiaoxiao)는 '우수하고 전문적이며 공통적인 기술'을 목표로 삼았다. 》 전국신입학시험 1과목 중 》 논술 에세이 '열심히 연습하면 능숙해질 수 있다'는 글이 평균 이상의 수준에 도달하게 됩니다.

미래에도 AI 작가가 있을까AI가 이번에 대학 입시 논술 문제를 잘 풀었지만, AI가 작가가 되려면 아직 갈 길이 멀다. 대학 입시 에세이 작성에는 실제로 따라야 할 "루틴"이 있습니다. 두샤오샤오의 에세이가 좋은 점수를 받을 수 있는 이유는 단어의 원활한 사용 외에도 또 다른 이유가 있습니다. 매우 중요한 요소입니다. 예를 들어 "열심히 연습하면 기술을 습득할 수 있습니다"에는 20개가 넘는 숙어와 참고 문헌이 산재해 있는 많은 시가 있습니다. 정보를 분류하는 것은 GPT-3가 잘하는 일입니다.

한편, GPT-3의 추상 개념, 인과 추론, 설명문, 상식 이해, (의식적) 창의성 능력은 아직 완성되지 않았습니다.

예를 들어 베이징 즈위안 인공 지능 연구소와 칭화대학교 연구팀이 개발한 GPT-3와 유사한 CPM 중국어 모델은 "붉은 꿈"의 "다이위와 왕희봉의 첫 만남"을 기반으로 합니다. 맨션" 줄거리는 한 문단으로 계속됩니다(마지막 문단은 모델에 의해 계속됩니다):

말을 마치기도 전에 다이유는 "늦어서 멀리서 온 손님을 맞이할 시간도 없었다"며 뒷마당에서 웃음소리만 들렸다. 이 사람들 숨죽이고 있는데 이 사람은 누구야?", 이게 그렇게 무례한 일인가?" 하고 생각하고 있는데 뒷문에서 미인을 품에 안고 한 무리의 아내와 시녀들이 들어오는 것을 보았다. 이 남자의 드레스는 여자들의 드레스와 다릅니다... 그는 분홍색과 삼각형의 한 쌍의 눈, 두 개의 구부러진 버드나무 잎 눈썹, 날씬한 몸매와 요염한 체격을 가지고 있습니다. 분홍빛 얼굴에는 봄의 기운이 담겨있지만 겉으로 드러나지 않고, 붉은 입술은 웃기도 전에 향기가 난다. (다음 문단은 모델의 연속입니다) 이 말을 들은 다이유는 이 사람이 낯익은 것 같아 잠시 기억이 나지 않아서 "모르시면 다시 오세요. . 여기에는 누구도 가두지 않겠습니다. "

AI가 작성한 텍스트는 읽기 쉽고 스타일이 "빨간 저택의 꿈"과 매우 유사하지만 이전 텍스트.

그러나 이것이 AI가 긴 텍스트 작성에 미래가 없다는 의미는 아닙니다. 지난 몇 년 동안 최고의 NLP 모델이 흡수하는 데이터의 양은 매년 10배 이상 증가해 왔으며, 이는 10년 후에는 데이터 양의 증가량이 100억 배를 초과할 것임을 의미합니다. 데이터가 증가함에 따라 모델 기능의 질적 도약도 볼 수 있습니다.

GPT-3가 출시된 지 불과 7개월 후인 2021년 1월, Google은 1조 6천억 개 이상의 매개변수가 포함된 언어 모델의 출시를 발표했습니다. 매개변수 수는 GPT-3의 약 9배입니다. 계속됩니다. 언어 모델 데이터의 양은 매년 10배 이상 증가하고 있습니다. 현재 AI 데이터 세트의 규모는 개인이 평생 동안 축적할 수 있는 독서량을 수만 배 이상 초과했으며, 이러한 기하급수적인 증가는 앞으로도 계속될 가능성이 높습니다. GPT-3가 "정보 제공" 측면에서 급속한 발전을 이루었다는 점과 현재 GPT-3가 3세대 버전에 불과하다는 점을 고려하면 낮은 수준의 실수가 많이 발생하겠지만 말입니다.

주목할만한 텍스트에 담긴 AI의 향후 연구 방향에 대해서는 아마도 이전 인터뷰 기사 "Tencent AILab과의 인터뷰: 결과의 "점"에서 "선"까지, 실험실은 단순한 실험 그 이상입니다.丨T Frontline"은 모든 사람을 도울 수 있습니다. 몇 가지 아이디어 제공: "미래에 업계에서 NLP 기본 기술에 대해 가능한 연구 방향에는 차세대 언어 모델, 제어 가능한 텍스트 생성, 모델의 도메인 간 전송 기능 개선, 효과적인 통계 모델이 포함됩니다. 지식, 심층 의미론적 표현 등을 통합합니다. 이러한 연구 방향은 NLP 연구의 일부 지역적 병목 현상에 해당합니다. "이러한 연구에 추가적인 혁신이 있다면 아마도 미래의 AI는 지능형 글쓰기와 같은 NLP 시나리오에서 인상적인 성능을 발휘할 것입니다.

참조:

[1] 해리포터와 큰 재더미처럼 보였던 것의 초상

[2]https://spencergreenberg.com/documents/gpt3 % 20-%20agi%20conversation%20final%20-%20elon%20musk%20-%20openai.pdf




위 내용은 AI가 고득점 대학 입시 에세이를 쓸 수는 있지만 소설을 쓰기에는 아직 멀었다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제