Rumah > Artikel > Peranti teknologi > Adakah ChatGPT benar-benar akan mengambil alih dunia?
ChatGPT ialah teknologi baharu yang dibangunkan oleh OpenAI yang sangat pandai meniru komunikasi manusia sehingga ramai percaya ia akan mengambil alih dunia tidak lama lagi – dan semua pekerjaan di dalamnya.
Dalam pertukaran 8 Februari yang dianjurkan oleh Carney Institute for Brain Science di Brown University, dua sarjana dari bidang penyelidikan berbeza membincangkan persamaan antara kecerdasan buatan dan kecerdasan manusia.
Perbincangan tentang neurosains ChatGPT memberi para hadirin melihat di sebalik tabir model pembelajaran mesin semasa.
Ellie Pavlick, penolong profesor sains komputer dan saintis penyelidikan Google AI, berkata di sebalik semua buzz di sekitar teknologi baharu, model itu tidak begitu rumit malah baharu.
Pada tahap paling asasnya, ChatGPT ialah model pembelajaran mesin yang direka untuk meramal perkataan seterusnya, ungkapan seterusnya, dsb. dalam ayat, jelasnya.
Model pembelajaran ramalan jenis ini telah wujud selama beberapa dekad, kata Pavlick. Para saintis komputer telah lama cuba membina model yang mempamerkan tingkah laku ini dan boleh bercakap dengan manusia dalam bahasa semula jadi. Untuk melakukan ini, model memerlukan akses kepada pangkalan data komponen pengkomputeran tradisional, membolehkannya "menaakul" idea yang terlalu kompleks.
Apa yang baharu ialah cara ChatGPT dilatih atau dibangunkan. Ia mempunyai akses kepada jumlah data yang tidak dapat diduga—"semua ayat di Internet," seperti yang dikatakan oleh Pavlick.
"ChatGPT sendiri bukanlah titik perubahan," kata Pavlick. "Titik infleksi adalah dalam tempoh lima tahun yang lalu apabila terdapat peningkatan dalam model struktur yang sama, tetapi ia menjadi lebih besar dan lebih besar. Apa yang berlaku ialah apabila ia semakin besar, prestasi mereka juga semakin baik."
Cara ChatGPT dan pesaingnya tersedia secara percuma kepada orang ramai juga baru. Malah setahun yang lalu, Pavlick berkata, untuk berinteraksi dengan sistem seperti ChatGPT, seseorang memerlukan akses kepada sistem seperti Grid Pengiraan Brown, sistem khusus yang hanya pelajar, fakulti dan kakitangan boleh gunakan dengan keizinan khusus, dan juga memerlukan jumlah kecekapan teknikal yang saksama.
Tetapi kini, sesiapa sahaja, tanpa mengira keupayaan teknikal, boleh menggunakan antara muka ChatGPT yang anggun dan diperkemas.
Hasil daripada melatih sistem komputer dengan set data yang begitu besar, Pavlick berkata, ia seolah-olah mengenali corak umum dan nampaknya dapat untuk menghasilkan artikel, cerita, puisi, dialog, drama, dsb.
Ia boleh menjana laporan berita palsu dan penemuan saintifik palsu, dan menghasilkan semua jenis keputusan yang mengejutkan - atau "output".
Kesahihan keputusan mereka telah menyebabkan ramai percaya bahawa model pembelajaran mesin boleh berfikir seperti manusia. Tetapi bagaimana pula dengan mereka?
ChatGPT ialah rangkaian saraf tiruan, jelas Thomas Serre, profesor sains kognitif, linguistik dan psikologi serta sains komputer. Ini bermakna perkakasan dan pengaturcaraan adalah berdasarkan satu set nod yang saling berkaitan, diilhamkan oleh penyederhanaan neuron dalam otak.
Serre berkata memang terdapat banyak persamaan yang menarik dalam cara otak komputer dan otak manusia mempelajari maklumat baharu dan menggunakannya untuk melaksanakan tugas.
“Terdapat kajian mula mencadangkan bahawa mungkin terdapat beberapa kaitan, sekurang-kurangnya secara dangkal, antara jenis perkataan dan representasi ayat yang algoritma seperti ChatGPT gunakan dan eksploitasi untuk memproses maklumat linguistik dan apa yang otak nampaknya lakukan," katanya.
Sebagai contoh, tulang belakang ChatGPT ialah rangkaian neural tiruan tercanggih yang dipanggil rangkaian Transformer. Rangkaian ini, yang diperoleh daripada penyelidikan pemprosesan bahasa semula jadi, baru-baru ini telah menguasai keseluruhan bidang kecerdasan buatan.
Rangkaian Transformer mempunyai mekanisme khas yang dipanggil oleh saintis komputer sebagai "perhatian diri," yang berkaitan dengan mekanisme perhatian yang diketahui berlaku dalam otak manusia.
Satu lagi persamaan dengan otak manusia ialah aspek utama yang menjadikan teknologi itu begitu maju, kata Serre.
Pada masa lalu, melatih rangkaian saraf tiruan pada komputer untuk mempelajari dan menggunakan bahasa atau melakukan pengecaman imej memerlukan saintis melakukan tugas manual yang membosankan dan memakan masa seperti membina pangkalan data dan melabelkan kategori objek, jelasnya.
Model bahasa besar moden, seperti yang digunakan dalam ChatGPT, boleh dilatih tanpa pengawasan manusia yang jelas ini. Dan ini nampaknya berkaitan dengan apa yang Serre panggil sebagai teori otak berpengaruh yang dipanggil teori pengekodan ramalan. Ini mengandaikan bahawa apabila seseorang mendengar seseorang bercakap, otak sentiasa membuat ramalan dan menjangka apa yang akan dikatakan seterusnya.
Walaupun teori ini dicadangkan beberapa dekad yang lalu, Searle berkata ia masih belum diuji sepenuhnya dalam sains saraf. Walau bagaimanapun, ia sedang memacu sejumlah besar kerja eksperimen.
"Saya akan mengatakan bahawa sekurang-kurangnya pada kedua-dua tahap ini, mekanisme perhatian pada enjin teras rangkaian ini sentiasa meramalkan apa yang akan dikatakan, yang nampaknya berkaitan dengan neurosains pada tahap yang sangat kasar. . idea,” Serre mengulas.
Kajian baru-baru ini mengaitkan strategi yang digunakan oleh model bahasa besar dengan proses otak sebenar, dengan menyatakan: "Kami masih perlu banyak belajar, tetapi badan penyelidikan yang semakin meningkat dalam neurosains mencadangkan peranan model bahasa besar ini Dan model visual apakah lakukan [dalam komputer] tidak sepenuhnya tidak berkaitan dengan apa yang otak kita lakukan apabila kita memproses bahasa semula jadi”
Dari perspektif yang lebih gelap, ia seperti proses pembelajaran manusia terdedah kepada berat sebelah Atau kesan rasuah, begitu juga model AI. Sistem ini belajar melalui korelasi statistik, kata Serre. Apa sahaja maklumat yang menguasai set data akan mengambil alih dan menolak maklumat lain.
"Ini adalah bidang tumpuan yang hebat untuk kecerdasan buatan yang tidak khusus untuk bahasa," kata Serre. Beliau memetik bagaimana perwakilan lelaki kulit putih yang berlebihan di internet telah memihak beberapa sistem pengecaman muka sehingga mereka gagal mengenali wajah yang tidak kelihatan putih atau lelaki.
"Sistem hanya sebaik data latihan yang kami berikan kepada mereka, dan kami tahu data latihan tidak begitu baik untuk bermula," kata Serre.
Data juga tidak terhingga, tambahnya, terutamanya memandangkan skala sistem ini dan selera mereka yang rakus.
Pavlick berkata versi terbaharu ChatCPT termasuk lapisan pembelajaran pengukuhan yang bertindak sebagai pagar untuk membantu mencegah penciptaan kandungan berbahaya atau kebencian. Tetapi ini masih dalam proses.
"Sebahagian daripada cabaran ialah... anda tidak boleh memberi model peraturan — anda tidak boleh hanya berkata, 'Jangan sekali-kali menjana perkara sedemikian dan itu,'" kata Pavlick.
"Ia belajar melalui teladan, jadi anda memberikan banyak contoh perkara yang perlu dilakukan dan kemudian berkata, 'Jangan lakukan perkara sedemikian. Lakukan perkara sedemikian.' Jadi, anda sentiasa boleh mencarinya sedikit muslihat untuk melakukan perkara yang tidak baik." . ”
Kawasan berbeza otak dan rangkaian saraf manusia adalah semasa tidur – khususnya, semasa bermimpi. Walaupun teks atau imej yang dijana AI mungkin kelihatan nyata, abstrak atau tidak masuk akal, Pavlick berkata tiada bukti untuk menyokong tanggapan bahawa terdapat persamaan fungsi antara proses impian biologi dan proses pengiraan yang menjana AI.
Dia berkata adalah penting untuk memahami bahawa aplikasi seperti ChatGPT ialah sistem homeostatik - dengan kata lain, ia tidak berkembang dan berubah dalam masa nyata dalam talian, walaupun ia mungkin terus bertambah baik di luar talian.
"Ia bukan seperti [ChatGPT] memainkan semula dan berfikir dan cuba menggabungkan perkara dengan cara baharu untuk mengukuhkan apa sahaja yang diketahuinya atau apa yang berlaku dalam otaknya," kata Pavlik.
" Ia lebih seperti: Selesai. Itulah sistemnya. Kami memanggilnya laluan ke hadapan melalui rangkaian - tiada maklum balas daripadanya. Ia tidak mencerminkan apa yang baru sahaja dilakukannya dan ia tidak mengemas kininya "
Apabila AI diminta untuk membuat, katakan, lagu rap tentang kitaran Krebs, atau imej psychedelic anjing seseorang, outputnya boleh kelihatan kreatif, kata Pavlick Tetapi pada hakikatnya ia hanyalah gabungan tugas sistem telah dilatih untuk melakukannya.
Tidak seperti pengguna bahasa manusia, setiap output tidak mengubah setiap output berikutnya secara automatik, atau mempertingkatkan kefungsian, atau berfungsi dengan cara yang difikirkan oleh orang ramai bahawa impian berfungsi.
Serre dan Pavlick menegaskan bahawa kaveat dalam mana-mana perbincangan tentang kecerdasan manusia atau kecerdasan buatan ialah saintis masih perlu banyak belajar tentang kedua-dua sistem.
Mengenai gembar-gembur di sekitar ChatGPT, khususnya kejayaan rangkaian saraf dalam mencipta bot sembang yang hampir lebih manusia daripada manusia, Pavlick berkata ia wajar dilakukan, terutamanya dari perspektif teknologi dan kejuruteraan.
“Ini sangat mengujakan!” katanya. "Kami sudah lama mahukan sistem seperti ini."
Atas ialah kandungan terperinci Adakah ChatGPT benar-benar akan mengambil alih dunia?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!