Rumah >Peranti teknologi >AI >Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

PHPz
PHPzke hadapan
2023-04-09 10:21:051695semak imbas

Cara kami menyimpan data berubah, daripada rangkaian saraf biologi kepada rangkaian saraf tiruan Sebenarnya, situasi yang paling biasa adalah menggunakan otak untuk menyimpan data. Memandangkan jumlah data yang tersedia hari ini terus berkembang, orang ramai berusaha untuk menyimpan data menggunakan peranti luaran yang berbeza seperti pemacu keras atau storan awan. Dengan peningkatan teknologi pembelajaran mendalam, satu lagi teknologi storan yang menjanjikan telah muncul, yang menggunakan rangkaian saraf tiruan untuk menyimpan maklumat dalam data.

Penyelidik percaya bahawa matlamat utama penyimpanan data adalah untuk memberi perkhidmatan yang lebih baik kepada kehidupan manusia, dan kaedah capaian data adalah sama pentingnya dengan kaedah penyimpanan. Walau bagaimanapun, terdapat perbezaan dalam cara data disimpan dan diakses. Dari segi sejarah, orang ramai telah bergelut untuk merapatkan jurang ini untuk menggunakan maklumat yang ada di dunia dengan lebih baik. Seperti yang ditunjukkan dalam Rajah 3:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

  • Dari segi rangkaian saraf biologi (seperti otak manusia), manusia menerima pendidikan kurikulum (iaitu pengetahuan) pada usia yang sangat muda. umur , supaya mereka boleh mengekstrak data khusus untuk menangani kehidupan yang kompleks dan berubah.
  • Untuk storan peranti luaran, orang biasanya menstruktur data mengikut skema tertentu (seperti jadual), dan kemudian menggunakan bahasa khusus (seperti SQL) untuk mendapatkan semula maklumat yang diperlukan daripada pangkalan data dengan cekap.
  • Untuk storan berasaskan rangkaian saraf tiruan, penyelidik memanfaatkan pembelajaran diselia sendiri untuk menyimpan data daripada korpora besar (iaitu, pra-latihan) dan kemudian menggunakan rangkaian untuk pelbagai tugas hiliran (mis., klasifikasi emosi).

Penyelidik dari CMU telah mencadangkan cara baharu untuk mengakses data yang mengandungi pelbagai jenis maklumat yang boleh berfungsi sebagai isyarat pra-latihan untuk membimbing pengoptimuman parameter model. Kajian membentangkan data secara berstruktur dalam unit isyarat. Ini adalah serupa dengan senario menggunakan pangkalan data untuk menyimpan data: mereka mula-mula distrukturkan ke dalam jadual atau format JSON, supaya maklumat tepat yang diperlukan boleh diambil melalui bahasa khusus seperti SQL.

Selain itu, kajian ini percaya bahawa isyarat berharga wujud dengan banyaknya dalam semua jenis data di dunia, dan bukannya hanya wujud dalam set data penyeliaan susun atur secara manual Perkara yang perlu dilakukan oleh penyelidik ialah (a) mengenal pasti data (). b) Menyusun semula data dengan bahasa bersatu (c) Mengintegrasikan dan menyimpannya ke dalam model bahasa yang telah dilatih. Kajian ini memanggil paradigma pembelajaran ini sebagai reStructured Pra-training (RST). Penyelidik menyamakan proses itu seperti "memburu harta karun di lombong." Sumber data yang berbeza seperti Wikipedia adalah setara dengan lombong yang kaya dengan permata. Ia mengandungi maklumat yang kaya, seperti entiti bernama daripada hiperpautan, yang boleh memberikan isyarat untuk pra-latihan model. Model pralatihan (PLM) yang baik harus memahami dengan jelas komposisi pelbagai isyarat dalam data untuk memberikan maklumat yang tepat berdasarkan keperluan tugas hiliran yang berbeza.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Alamat kertas: https://arxiv.org/pdf/2206.11147.pdf

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Permulaan Pencarian harta karun untuk model bahasa latihan

Penyelidikan ini mencadangkan paradigma baharu pembelajaran tugasan pemprosesan bahasa semula jadi, iaitu RST, yang menekankan semula peranan data dan mengambil kira model pra-latihan dan penalaan halus tugas hiliran sebagai prosedur penyimpanan dan capaian data. Atas dasar ini, penyelidikan ini menyedari prinsip mudah, iaitu, mekanisme penyimpanan yang baik bukan sahaja mempunyai keupayaan untuk menyimpan sejumlah besar data, tetapi juga mempertimbangkan kemudahan akses.

Selepas mengatasi beberapa cabaran kejuruteraan, penyelidikan mencapai ini dengan pra-latihan mengenai data yang dibina semula (terdiri daripada pelbagai maklumat berharga dan bukannya data asal). Eksperimen menunjukkan bahawa model RST bukan sahaja dengan ketara mengatasi sistem sedia ada terbaik (cth., T0) pada 52/55 set data popular daripada pelbagai tugasan NLP (cth., pengelasan, pengekstrakan maklumat, pengambilan fakta, penjanaan teks, dll.), tetapi juga berfungsi. tidak memerlukan Perhalusi tugas hiliran. Ia juga telah mencapai keputusan cemerlang dalam peperiksaan Bahasa Inggeris Peperiksaan Masuk Kolej yang paling berwibawa di China, yang diambil oleh berjuta-juta pelajar setiap tahun.

Secara khusus, peperiksaan kemasukan kolej AI (Qin) yang dicadangkan dalam artikel ini adalah 40 mata lebih tinggi daripada purata markah pelajar dan 15 mata lebih tinggi daripada GPT3 menggunakan parameter 1/16. Qin khas mendapat markah tinggi 138.5 (daripada 150) dalam ujian Bahasa Inggeris 2018.

Selain itu, kajian itu juga mengeluarkan platform penyerahan dalam talian Penanda Aras Gaokao, yang mengandungi 10 kertas ujian Bahasa Inggeris beranotasi dari 2018-2021 hingga sekarang (dan akan diperluas setiap tahun), membolehkan lebih banyak model AI mengambil bahagian dalam pintu masuk kolej peperiksaan, Penyelidikan ini juga mewujudkan tempat ujian yang agak tahap untuk persaingan manusia dan AI, membantu kami lebih memahami kedudukan kami. Selain itu, dalam ujian Bahasa Inggeris Peperiksaan Kemasukan Kolej 2022 beberapa hari lalu (2022.06.08), sistem AI memperoleh markah yang baik iaitu 134 mata, manakala GPT3 hanya memperoleh 108 mata.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Sumbangan utama kajian ini termasuk:

(1) Mencadangkan hipotesis evolusi kaedah NLP . Penyelidikan ini cuba untuk mewujudkan "hipotesis evolusi teknologi NLP" dari perspektif keseluruhan dengan meneroka hubungan intrinsik antara pembangunan teknologi NLP moden. Ringkasnya, idea teras hipotesis ini adalah bahawa lelaran teknologi sentiasa berkembang ke arah sedemikian sehingga pembangun hanya perlu melakukan lebih sedikit untuk mereka bentuk sistem yang lebih baik dan lebih serba boleh.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Setakat ini, evolusi teknologi NLP telah melalui pelbagai lelaran seperti yang ditunjukkan dalam Rajah 2: kejuruteraan ciri → kejuruteraan seni bina → kejuruteraan sasaran → kejuruteraan segera, dan sedang bergerak ke arah Satu langkah ke arah kejuruteraan berasaskan data yang lebih praktikal dan berkesan. Para penyelidik berharap bahawa pada masa hadapan, lebih ramai penyelidik saintifik akan mendapat inspirasi untuk berfikir secara kritis tentang isu ini, memahami kuasa penggerak teras kemajuan teknologi, mencari laluan "kecerunan ke atas" untuk pembangunan akademik dan melakukan kerja yang lebih bermakna secara saintifik.

(2) Paradigma baharu berdasarkan hipotesis evolusi: Pra-latihan Berstruktur semula . Paradigma ini menganggap model pra-latihan/penalaan halus sebagai proses penyimpanan/akses data dan mendakwa bahawa mekanisme storan yang baik harus menjadikan data yang dimaksudkan mudah diakses. Dengan paradigma baharu sedemikian, penyelidikan itu dapat menyatukan 26 jenis isyarat yang berbeza di dunia (cth. entiti ayat) daripada 10 sumber data (cth. Wikipedia). Model umum yang dilatih atas dasar ini mencapai keupayaan generalisasi yang kukuh pada pelbagai tugas, termasuk 55 set data NLP.

(3) AI untuk peperiksaan kemasukan kolej. Berdasarkan paradigma di atas, kajian ini membangunkan sistem AI - Qin - khusus digunakan untuk tugasan ujian Bahasa Inggeris peperiksaan kemasukan kolej. Ini adalah sistem kecerdasan buatan Bahasa Inggeris peperiksaan kemasukan kolej pertama di dunia berdasarkan pembelajaran mendalam. Qin telah mencapai keputusan cemerlang dalam soalan peperiksaan kemasukan kolej selama bertahun-tahun: 40 mata lebih tinggi daripada orang biasa, dan mencapai 15 mata lebih tinggi daripada GPT-3 menggunakan hanya 1/16 daripada parameter GPT-3. Terutama dalam soalan ujian Bahasa Inggeris 2018, QIN menerima skor tinggi 138.5 mata (daripada 150 mata), dengan skor sempurna dalam kedua-dua kefahaman mendengar dan membaca.

(4) Sumber yang kaya. (1) Untuk menjejaki kemajuan teknologi AI sedia ada dalam mencapai kecerdasan manusia, kajian itu mengeluarkan penanda aras baharu-Gaokao Benchmark. Ia bukan sahaja menyediakan penilaian menyeluruh tentang pelbagai tugas dan domain praktikal dalam senario dunia sebenar, ia juga menyediakan skor prestasi manusia supaya sistem AI boleh dibandingkan secara langsung dengan manusia. (2) Kajian ini menggunakan ExplainBoard (Liu et al., 2021b) untuk menetapkan papan pendahulu interaktif untuk Penanda Aras Gaokao supaya lebih banyak sistem AI boleh mengambil bahagian dengan mudah dalam Penanda Aras Gaokao dan memperoleh markah secara automatik. (3) Semua sumber boleh didapati di GitHub.

Selain itu, kejayaan AI dalam peperiksaan kemasukan kolej tugas ujian Bahasa Inggeris telah menyediakan penyelidik dengan banyak idea baharu: Teknologi AI boleh memperkasakan pendidikan dan membantu menyelesaikan satu siri masalah dalam pendidikan dan pengajaran.

Contohnya, (a) membantu guru mengautomasikan penggredan, (b) membantu pelajar menjawab soalan tentang tugasan dan menerangkannya secara terperinci, dan (c) yang lebih penting, menggalakkan ekuiti pendidikan dan menjadikannya mudah diakses oleh kebanyakan keluarga perkhidmatan dengan kualiti yang sama. Kerja ini menyepadukan 26 isyarat berbeza dari seluruh dunia dalam cara yang bersatu buat kali pertama, dan bukannya cuba membezakan antara data yang diselia dan tidak diselia, ia mengambil berat tentang berapa banyak dan cara kita boleh menggunakan sifat maklumat yang diberikan kepada kita. Prestasi cemerlang pada lebih daripada 50 set data daripada pelbagai tugasan NLP menunjukkan nilai pra-latihan berpusatkan data dan memberi inspirasi kepada lebih banyak penerokaan masa hadapan.

Memfaktorkan semula pra-latihan

Paradigma untuk menyelesaikan tugasan NLP berubah dengan pantas dan masih diteruskan Jadual berikut menyenaraikan lima paradigma dalam NLP:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Berbeza dengan paradigma reka bentuk berpusatkan model sedia ada, penyelidikan ini lebih memikirkan daripada perspektif data untuk memaksimumkan penggunaan data sedia ada. Secara khusus, kajian ini menggunakan paparan storan dan capaian data, di mana peringkat pra-latihan dianggap sebagai proses penyimpanan data, manakala tugas hiliran (cth., klasifikasi sentimen) berdasarkan model pra-latihan dianggap sebagai proses capaian data. daripada model pra-latihan, Dan mendakwa bahawa mekanisme penyimpanan data yang baik harus menjadikan data yang disimpan lebih mudah diakses.

Untuk mencapai matlamat ini, kajian ini menganggap data sebagai objek yang terdiri daripada isyarat yang berbeza, dan percaya bahawa model pra-latihan yang baik harus (1) meliputi seberapa banyak jenis isyarat yang mungkin, (2) apabila hiliran Menyediakan mekanisme capaian yang tepat kepada isyarat ini apabila diperlukan oleh misi. Secara umumnya, paradigma baharu ini terdiri daripada tiga langkah: pembinaan semula, pra-latihan dan penalaan halus.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Paradigma baharu pembinaan semula, pra-latihan dan penalaan halus menyerlahkan kepentingan data dan penyelidik perlu melabur lebih banyak tenaga kejuruteraan dalam pemprosesan data.

Kejuruteraan Pemfaktoran Semula

Definisi Isyarat

Isyarat ialah maklumat berguna yang terdapat dalam data yang boleh menyediakan penyeliaan untuk model pembelajaran mesin dan diwakili sebagai n-tuple. Contohnya, "Mozart dilahirkan di Salzburg", "Mozart" dan "Salzburg" boleh dianggap sebagai isyarat untuk pengiktirafan entiti bernama. Biasanya, isyarat boleh dikelompokkan dari perspektif yang berbeza, seperti yang ditunjukkan dalam Rajah 6 di bawah.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Perlombongan Data

Data dunia sebenar mengandungi pelbagai jenis isyarat. Membina semula pra-latihan membolehkan isyarat ini dieksploitasi sepenuhnya. Kajian itu menyusun isyarat yang dikumpul (n-tuples) dalam rajah pokok seperti yang ditunjukkan dalam Rajah 10 di bawah.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Pengeluaran Isyarat

Langkah kajian seterusnya ialah pengekstrakan dan pemprosesan isyarat, yang melibatkan mendapatkan data mentah daripada kaedah perlombongan data yang berbeza, pembersihan data dan Normalisasi data. Kaedah sedia ada dibahagikan secara kasar kepada dua jenis: (1) berasaskan peraturan dan (2) berasaskan pembelajaran mesin. Dalam kerja ini, penyelidikan tertumpu terutamanya pada strategi pengekstrakan isyarat berasaskan peraturan dan meninggalkan lebih banyak kaedah liputan tinggi untuk kerja masa hadapan.

Pembinaan Semula Isyarat

Selepas mengekstrak isyarat yang berbeza daripada pelbagai perlombongan data, langkah penting seterusnya ialah menyatukannya ke dalam bentuk tetap supaya ia boleh diubah semasa pra-latihan Semua maklumat disimpan secara konsisten dalam model. Kaedah segera (Brown et al., 2020; Liu et al., 2021d) boleh mencapai matlamat ini, dan pada dasarnya, dengan reka bentuk segera yang sesuai, ia boleh menyatukan hampir semua jenis isyarat ke dalam gaya model bahasa.

Kajian ini membahagikan isyarat kepada dua kategori luas: isyarat umum dan isyarat berkaitan tugas. Yang pertama mengandungi pengetahuan bahasa asas dan boleh memberi manfaat kepada semua tugas hiliran pada tahap tertentu, manakala yang kedua boleh memanfaatkan beberapa tugas hiliran tertentu.

Eksperimen pada 55 set data NLP yang biasa digunakan

Kajian telah dinilai pada 55 set data dan kemudian membandingkannya dengan GPT3 dan T0pp masing-masing. Keputusan perbandingan dengan GPT3 ditunjukkan dalam rajah: pada empat set data kecuali set data cb, kedua-dua RST-All dan RST-Task mempunyai prestasi sifar pukulan yang lebih baik daripada pembelajaran beberapa pukulan GPT3. Di samping itu, set data cb adalah yang terkecil daripada set data ini, dengan hanya 56 sampel dalam set pengesahan, jadi prestasi gesaan berbeza pada set data ini akan berubah-ubah dengan banyaknya.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Keputusan perbandingan antara

dan T0pp ditunjukkan dalam Jadual 4-6. Contohnya, dalam prestasi purata 55 ukuran, RST-All mengalahkan T0pp pada 49 set data dan menang dengan prestasi maksimum pada 47/55 contoh. Tambahan pula, dalam ujian prestasi purata pada 55 set data, RST-Task mengatasi T0pp pada 52 set data dan mengatasi T0pp pada 50/55 contoh. Ini menggambarkan keunggulan pembelajaran rekonstruktif.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Apakah tugas yang RST-Task mahir? Untuk menjawab soalan ini, kajian ini membandingkan prestasi model RST-Task dalam tetapan sampel sifar dengan model SOTA semasa, dan hasilnya ditunjukkan dalam Rajah 13. RST-Task pandai dalam klasifikasi topik, klasifikasi sentimen dan tugas penaakulan bahasa semula jadi, tetapi berprestasi lemah dalam tugas pengekstrakan maklumat.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Eksperimen Peperiksaan Masuk Kolej: Ke Arah AI Peringkat Manusia

Kajian ini mengumpul 10 kertas ujian Bahasa Inggeris Peperiksaan Kemasukan Kolej, termasuk Peperiksaan Kebangsaan I/III 2018, 2019 2020 Peperiksaan Kebangsaan I/II/III, 2020 Peperiksaan Kebangsaan I/II/III, 2021 Kertas Kebangsaan A/B. Kertas ujian ini mengikut jenis soalan yang sama, dan mereka membahagikan semua jenis soalan ujian kepada tujuh subkategori berikut, seperti yang ditunjukkan dalam Jadual 7:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Setiap peperiksaan kemasukan kolej kertas ujian Bahasa Inggeris mempunyai markah maksimum 150 mata . Mendengar, cloze, membaca dan menulis masing-masing menyumbang 30, 45, 40, dan 35. Lazimnya, bahagian penulisan adalah subjektif dan memerlukan penilaian manusia, manakala bahagian lain adalah objektif dan boleh dijaringkan secara automatik. Seperti yang ditunjukkan dalam Jadual 8:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Gunakan kitaran kejuruteraan pembinaan semula yang ditunjukkan dalam Jadual 1 untuk membina sistem AI Bahasa Inggeris Peperiksaan Masuk Kolej, iaitu Qin. Keseluruhan proses ditunjukkan dalam Rajah 14:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Kajian menggunakan gesaan berikut untuk menukar tuple isyarat asal kepada sampel gesaan, seperti ditunjukkan dalam Jadual 9:

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Keputusan eksperimen ditunjukkan dalam Jadual 10-11 Kita boleh membuat kesimpulan berikut: Dalam setiap kertas ujian Bahasa Inggeris, RST mencapai jumlah skor tertinggi dalam dua set ujian pendengaran, dengan purata skor 130.6 mata berbanding dengan T0pp Sebagai perbandingan, prestasi RST jauh lebih baik daripada T0pp di bawah saiz model yang sama. Merentasi semua tetapan, jumlah skor yang diperolehi oleh RST adalah secara purata 54.5 mata lebih tinggi daripada T0pp, dengan perbezaan tertinggi ialah 69 mata (46% daripada jumlah skor berbanding dengan GPT3, RST boleh mencapai keputusan yang ketara dengan saiz model 16 kali); lebih kecil. Dalam semua tetapan yang dipertimbangkan, jumlah skor yang diperolehi dengan RST adalah secara purata 14.0 mata lebih tinggi daripada T0pp, dengan maksimum 26 mata (17% daripada jumlah skor untuk T0pp, skor mendengar yang diperoleh menggunakan emas dan pertuturan); -transkrip teks berbeza dengan ketara , dengan purata 4.2 mata. Sebagai perbandingan, GPT3 dan RST masing-masing ialah 0.6 dan 0.45, menunjukkan bahawa prestasi T0pp adalah sensitif kepada kualiti teks.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Kajian ini menjalankan analisis yang terperinci untuk memahami prestasi model yang berbeza pada subkategori masalah yang berbeza. Dalam Rajah 15-(a), adalah jelas bahawa RST dan GPT3 mengatasi T0pp pada setiap subkategori masalah.

Rajah 15-(b) menunjukkan prestasi model dan purata prestasi pelajar pada kertas ujian kebangsaan dalam beberapa tahun kebelakangan ini. Jelas sekali bahawa markah keseluruhan T0pp pada kertas 9/10 adalah di bawah purata pelajar, manakala prestasi RST dan GPT3 melebihi purata pelajar. Khususnya, lima daripada sepuluh kertas mempunyai markah keseluruhan RST melebihi 130 (sering dianggap sebagai skor sasaran untuk disasarkan oleh pelajar).

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Peperiksaan Kemasukan Kolej 2022 - Ujian Bahasa Inggeris (2022.06.08) baru sahaja berakhir, dan kami mengetahui tentang prestasi model dalam kertas peperiksaan kemasukan kolej yang paling banyak tahun kebelakangan ini. Kajian ini melakukan eksperimen dengan GPT3 dan RST. Keputusan menunjukkan bahawa jumlah skor RST mencapai 134, iaitu jauh lebih tinggi daripada skor 108 yang dicapai oleh GPT3.

Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3

Atas ialah kandungan terperinci Peperiksaan Masuk Kolej Inggeris tahun ini, CMU menggunakan pra-latihan pembinaan semula untuk mencapai skor tinggi 134, dengan ketara mengatasi GPT3. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam