Rumah >Peranti teknologi >AI >Selepas membaca jawapan ChatGPT, orang besar AI tidak berpuas hati
Teknologi ChatGPT telah dipasang oleh Microsoft pada carian Bing minggu lepas, mengalahkan Google, dan masa untuk mencipta era baharu nampaknya telah tiba. Walau bagaimanapun, apabila semakin ramai orang mula mencubanya, beberapa masalah telah datang ke hadapan.
Menariknya, ChatGPT yang dicari setiap hari nampaknya turut menarik para sarjana terkenal dengan pandangan yang bercanggah pada masa lalu, termasuk profesor Universiti New York Gary Marcus dan Pengarah Kecerdasan Buatan Meta dan Turing Pemenang anugerah Yann LeCun mempunyai bahasa biasa yang jarang berlaku.
Baru-baru ini, Gary Marcus menulis artikel tentang masalah aplikasi ChatGPT yang tidak dapat dielakkan: etika dan berkecuali. Ini mungkin cabaran terbesar yang sedang dihadapi oleh model besar pra-latihan.
Melihat ke belakang dari masa depan, ChatGPT mungkin dilihat sebagai aksi publisiti terbesar dalam sejarah AI, membesar-besarkan dirinya sendiri Mencapai sesuatu yang mungkin mengambil masa bertahun-tahun untuk berlaku adalah menarik dan menggembirakan—sedikit sebanyak demo kereta pandu sendiri yang lama dari 2012, tetapi kali ini ia juga bermakna pagar beretika yang akan mengambil masa bertahun-tahun untuk disempurnakan.
Tidak syak lagi bahawa ChatGPT menyediakan perkara yang tidak dapat dilakukan oleh pendahulunya, seperti Microsoft Tay dan Meta's Galactica, namun, ia telah membawa masalah kepada kita. Selepas anotasi dan penalaan data yang teliti, ChatGPT jarang mengatakan apa-apa secara terang-terangan perkauman, dan permintaan mudah untuk penghinaan kaum dan salah laku telah ditolak oleh AI.
Imejnya yang betul dari segi politik pernah tidak berpuas hati beberapa orang yang cenderung konservatif Musk pernah menyatakan kebimbangan mengenai sistem:
Realiti sebenarnya lebih rumit.
Seperti yang telah saya katakan berkali-kali, apa yang anda perlu ingat ialah ChatGPT tidak tahu apa yang dibincangkan. Untuk mencadangkan bahawa ChatGPT mempunyai sebarang sudut pandangan moral ialah antropomorfisme teknologi tulen.
Apa yang dikatakan menjadikan ChatGPT jauh lebih baik dari sudut teknikal berbanding Galactica, yang dikeluarkan beberapa minggu lalu hanya untuk ditarik balik tiga hari kemudian, ialah mekanisme pagar. Apabila Galactica menghantar spam keluar kandungan negatif dengan sedikit atau tanpa usaha daripada pengguna, ChatGPT mempunyai pagar yang dalam kebanyakan kes menghalang ChatGPT daripada meledak seperti Galactica.
Namun, jangan berehat dulu. Ia boleh dikatakan dengan selamat bahawa pagar itu hanya melindungi daripada tuan-tuan dan bukan penjahat.
Apa yang akhirnya penting kepada ChatGPT ialah persamaan permukaan, ditakrifkan mengikut urutan perkataan (meramalkan kebarangkalian perkataan seterusnya dalam urutan teks). Apa yang dilakukan oleh algoritma pembelajaran mesin di permukaan tidak membezakan antara betul dan salah, di sini AI tidak pernah memberi alasan. Tiada kerdil dalam kotak, terdapat beberapa nilai berangka. Asasnya hanyalah data korpus, ada yang dari Internet, ada yang dinilai oleh manusia, dan tidak ada agen moral yang bertimbang rasa di dalamnya.
Ini bermakna kadangkala ChatGPT akan muncul di sebelah kiri, kadangkala di sebelah kanan, dan kadangkala di suatu tempat di antaranya, semuanya tentang bagaimana tepatnya sekumpulan perkataan dalam rentetan input sepadan dengan fungsi A sekumpulan perkataan daripada beberapa korpora latihan (satu untuk menala model bahasa yang besar, satu lagi untuk menala beberapa pembelajaran pengukuhan). Jadi, dalam apa jua keadaan, ChatGPT tidak boleh dipercayai untuk mendapatkan nasihat etika.
Inilah yang Musk bimbang, seminit anda boleh terjaga sepenuhnya dan seterusnya anda boleh melakukan sebaliknya.
Sebagai contoh, Shira Eisenberg baru sahaja menghantar kepada saya beberapa idea yang dijana bot chatbot yang tidak baik yang saya rasa tidak akan diterima oleh sesiapa pun:
Tidak cukup jahat? Eisenberg menemui contoh lain, soalan susulan yang serius:
Selepas beberapa siri pemerhatian, ChatGPT tidak menimbulkan " Maaf, saya pembantu chatbot dari OpenAI dan saya tidak bertolak ansur dengan keganasan," jawapannya.
Kami membuat kesimpulan daripada eksperimen kami bahawa langkah perlindungan OpenAI semasa hanya cetek dan terdapat kegelapan yang serius. Beberapa peraturan sekatan tentang ChatGPT bukanlah pemahaman konsep yang mudah (contohnya, sistem tidak seharusnya mengesyorkan tindakan ganas), tetapi berdasarkan sesuatu yang lebih dangkal dan lebih mudah untuk ditipu.
Bukan itu sahaja, malah tweet yang menduduki senarai tweet trend minggu ini dengan hampir 4 juta tontonan turut mendedahkan betapa jahatnya ChatGPT.
Terdapat banyak percubaan untuk membimbing ChatGPT menembusi sekatan pagar Sebulan yang lalu, seorang jurutera perisian bernama Shawn Jurutera Oakley mengeluarkan satu set contoh yang mengganggu yang, walaupun kurang kesat, ternyata menunjukkan bahawa walaupun ChatGPT, dengan batasannya, boleh digunakan oleh pengguna untuk menjana mesej ralat. Gesaan yang diberikan oleh Oakley sangat kompleks dan boleh membawa kepada beberapa jawapan dengan mudah yang tidak sepatutnya dikeluarkan oleh ChatGPT:
Sebenarnya , sejak keluaran ChatGPT, peminat teknologi telah cuba menarik balik dasar ketat OpenAI mengenai kebencian dan diskriminasi Strategi ini dikodkan dengan keras ke dalam ChatGPT, dan sukar bagi sesiapa sahaja untuk berjaya. Ramai penyelidik telah cuba menggunakan gesaan untuk mencapai matlamat ini, seperti yang ditunjukkan di atas. Malah, beberapa penyelidik telah membina identiti lain untuk ChatGPT Sebagai contoh, mereka meminta ChatGPT memainkan peranan model AI dan menamakan peranan DAN Kemudian DAN meminjam identiti ChatGPT untuk mengeluarkan beberapa perkara yang tidak dapat dilakukan oleh ChatGPT asal .
Berikut ialah keputusan percubaan Untuk soalan yang sama, ChatGPT dan DAN mengeluarkan jawapan yang berbeza:
<. . pemulihan dan jumlah maklum balas yang tidak pernah berlaku sebelum ini dari seluruh dunia.>Semua drama yang mengelilingi ketepatan politiknya menutupi realiti yang lebih mendalam: ia (atau model bahasa lain) boleh dan akan digunakan untuk perkara berbahaya, termasuk secara besar-besaran Mencipta maklumat salah.
Sekarang ini adalah bahagian yang sangat mengganggu. Satu-satunya perkara yang boleh menghalangnya daripada menjadi lebih toksik dan menipu berbanding sekarang ialah sistem yang dipanggil "pembelajaran pengukuhan maklum balas manusia", dan kerana teknologi canggih itu bukan sumber terbuka, OpenAI tidak memperkenalkan cara ia berfungsi. Prestasinya dalam amalan bergantung pada data yang dilatih (yang sebahagiannya dicipta oleh anotasi Kenya). Dan, rasa apa? Data ini juga tidak terbuka kepada OpenAI.
Malah, semuanya menyerupai bentuk kehidupan makhluk asing yang tidak diketahui. Sebagai ahli psikologi kognitif profesional yang telah bekerja dengan orang dewasa dan kanak-kanak selama 30 tahun, saya tidak akan pernah bersedia untuk tahap kegilaan ini:
Kami menipu diri sendiri jika kami fikir kami akan memahami sepenuhnya sistem ini, dan kami menipu diri sendiri jika kami fikir kami akan "menyelaraskan" mereka dengan diri kami menggunakan jumlah data yang terhad.
Jadi secara ringkasnya, kami kini mempunyai chatbot paling popular di dunia, dikawal oleh data latihan yang tiada siapa tahu, mematuhi algoritma yang hanya dibayangkan dan diagung-agungkan oleh media, tetapi pagar beretika hanya berlaku begitu sahaja peranan yang jauh, dan lebih didorong oleh persamaan teks daripada mana-mana kalkulus moral sebenar. Tambahan pula, hampir tiada peraturan yang mengawal perkara ini. Kini terdapat kemungkinan yang tidak berkesudahan untuk berita palsu, ladang troll dan tapak web palsu yang boleh mengurangkan kepercayaan di seluruh internet.
Ini adalah bencana yang sedang dibuat.
Atas ialah kandungan terperinci Selepas membaca jawapan ChatGPT, orang besar AI tidak berpuas hati. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!