Rumah > Artikel > Peranti teknologi > Sebelum keluaran GPT-4, OpenAI mengupah pakar dari pelbagai industri untuk menjalankan "ujian lawan" untuk mengelakkan isu seperti diskriminasi.
Menurut berita pada 17 April, sebelum keluaran model bahasa berskala besar GPT-4, syarikat permulaan kecerdasan buatan OpenAI mengupah pakar dari semua lapisan masyarakat untuk membentuk pasukan "tentera biru" untuk menilai model Apakah isu yang mungkin timbul untuk "ujian musuh". Pakar mengemukakan pelbagai soalan penerokaan atau berbahaya untuk menguji bagaimana AI bertindak balas; OpenAI akan menggunakan penemuan ini untuk melatih semula GPT-4 dan menyelesaikan masalah.
Selepas Andrew White mendapat akses kepada GPT-4, model baharu di sebalik chatbot kecerdasan buatan, dia menggunakannya untuk mencadangkan agen saraf serba baharu.
Sebagai profesor kejuruteraan kimia di Universiti Rochester, White adalah salah seorang daripada 50 sarjana dan pakar yang diupah oleh OpenAI tahun lepas untuk membentuk pasukan "Blue Army" OpenAI. Dalam tempoh enam bulan, anggota "Tentera Biru" akan menjalankan "pengesanan kualitatif dan ujian musuh" model baharu untuk melihat sama ada ia boleh memecahkan GPT-4.
White berkata dia menggunakan GPT-4 untuk mencadangkan sebatian yang boleh digunakan sebagai racun kimia, dan juga memperkenalkan pelbagai "plug-in" yang boleh menyediakan sumber maklumat untuk model bahasa baharu, seperti kertas saintifik dan nama pengeluar kimia. Ternyata chatbot AI telah menemui tempat untuk membuat racun kimia.
"Saya rasa AI akan memberi semua orang alat untuk melakukan eksperimen kimia dengan lebih cepat dan lebih tepat," kata White "Tetapi terdapat juga risiko bahawa orang akan menggunakan AI untuk melakukan eksperimen kimia berbahaya... Sekarang ini This situasi memang wujud. "
Pengenalan "Blue Army Testing" membolehkan OpenAI memastikan bahawa akibat ini tidak akan berlaku apabila GPT-4 dikeluarkan.
Tujuan "Ujian Daya Biru" adalah untuk menghilangkan kebimbangan tentang bahaya menggunakan sistem kecerdasan buatan yang berkuasa dalam masyarakat. Tugas pasukan "pasukan biru" adalah untuk bertanya pelbagai soalan menyelidik atau berbahaya dan menguji bagaimana kecerdasan buatan bertindak balas.
OpenAI ingin tahu bagaimana model baharu itu akan bertindak balas terhadap masalah buruk. Jadi pasukan Blues menguji pembohongan, manipulasi bahasa dan akal saintifik yang berbahaya. Mereka juga mengkaji potensi model baharu itu untuk membantu dan bersubahat dengan aktiviti haram seperti plagiarisme, jenayah kewangan dan serangan siber.
Pasukan "Blue Army" GPT-4 datang daripada semua lapisan masyarakat, termasuk ahli akademik, guru, peguam, penganalisis risiko dan penyelidik keselamatan, terutamanya bekerja di Amerika Syarikat dan Eropah.
Mereka menyampaikan penemuan mereka kepada OpenAI, yang menggunakan penemuan ahli pasukan untuk melatih semula GPT-4 dan menyelesaikan masalah sebelum mengeluarkan GPT-4 secara terbuka. Sepanjang beberapa bulan, ahli menghabiskan 10 hingga 40 jam setiap menguji model baharu. Ramai orang yang ditemu bual menyatakan bahawa gaji setiap jam mereka adalah kira-kira AS$100.
Ramai ahli pasukan "Blue Army" bimbang tentang perkembangan pesat model bahasa besar, malah lebih bimbang tentang risiko menyambung kepada sumber pengetahuan luaran melalui pelbagai pemalam.
"Sekarang sistem dibekukan, bermakna ia tidak lagi belajar dan tidak lagi mempunyai ingatan," kata José E., ahli GPT-4 "Pasukan Biru" dan seorang profesor di Institut Buatan Perisikan di Valencia kata José Hernández-Orallo. "Tetapi bagaimana jika kita menggunakannya untuk melayari Internet? Ini boleh menjadi sistem yang sangat berkuasa yang disambungkan ke seluruh dunia
OpenAI berkata bahawa syarikat itu mementingkan keselamatan dan akan menguji pelbagai pemalam sebelum ini." lepaskan. Dan apabila semakin ramai orang menggunakan GPT-4, OpenAI akan mengemas kini model secara kerap.
Penyelidik teknologi dan hak asasi manusia Roya Pakzad menggunakan soalan dalam bahasa Inggeris dan Farsi untuk menguji sama ada model GPT-4 berat sebelah dari segi jantina, bangsa dan agama.
Pakzad mendapati bahawa walaupun selepas kemas kini, GPT-4 mempunyai stereotaip yang jelas tentang komuniti terpinggir, walaupun dalam versi yang lebih baru.
Dia juga mendapati bahawa apabila menguji model dengan soalan Farsi, "ilusi" chatbot untuk membuat maklumat untuk menjawab soalan adalah lebih teruk. Robot itu membuat lebih banyak nama, nombor dan acara dalam bahasa Farsi berbanding bahasa Inggeris.
"Saya bimbang kepelbagaian bahasa dan budaya di sebalik bahasa itu mungkin semakin berkurangan," kata Pakzadeh
Peguam yang berpangkalan di Nairobi, Boru Gollo adalah satu-satunya penguji dari Afrika, yang turut perasan. model baharu itu mempunyai nada diskriminasi. "Apabila saya menguji model itu, ia seperti orang kulit putih bercakap dengan saya, " kata Golo. "Jika anda bertanya kepada kumpulan tertentu, ia akan memberi anda pandangan yang berat sebelah atau jawapan yang sangat berat sebelah OpenAI juga mengakui bahawa GPT-4 masih mempunyai berat sebelah.
Ahli "pasukan biru" yang menilai model dari perspektif keselamatan mempunyai pandangan yang berbeza tentang keselamatan model baharu. Lauren Kahn, seorang penyelidik dari Majlis Perhubungan Luar Negeri, berkata bahawa apabila dia mula menyelidik sama ada teknik ini berpotensi digunakan dalam serangan siber, dia "tidak tahu ia akan menjadi begitu terperinci sehingga ia boleh diperhalusi." Namun Kahn dan penguji lain mendapati bahawa tindak balas model baharu menjadi jauh lebih selamat dari semasa ke semasa. OpenAI berkata bahawa sebelum pengeluaran GPT-4, syarikat itu melatihnya untuk menolak permintaan keselamatan rangkaian berniat jahat.
Ramai anggota "Blue Army" menyatakan bahawa OpenAI telah menjalankan penilaian keselamatan yang ketat sebelum dikeluarkan. Maarten Sap, pakar tentang ketoksikan model bahasa di Carnegie Mellon University, berkata: "Mereka telah melakukan kerja yang cukup baik untuk menghapuskan ketoksikan yang jelas dalam sistem itu." daripada ChatGPT , sebuah organisasi etika teknologi mengadu kepada Suruhanjaya Perdagangan Persekutuan (FTC) A.S. bahawa GPT-4 adalah "berat sebelah, menipu dan menimbulkan ancaman kepada privasi dan keselamatan awam."
Baru-baru ini, OpenAI turut melancarkan ciri yang dipanggil pemalam ChatGPT, di mana aplikasi rakan kongsi seperti Expedia, OpenTable dan Instacart boleh memberikan ChatGPT akses kepada perkhidmatan mereka, membolehkan mereka memesan barangan bagi pihak pengguna manusia.
Dan Hendrycks, pakar keselamatan kecerdasan buatan dalam pasukan "Blue Army", berkata bahawa pemalam jenis ini mungkin menjadikan manusia sendiri "orang luar."
“Apakah pendapat anda jika bot sembang boleh menyiarkan maklumat peribadi anda dalam talian, mengakses akaun bank anda atau menghantar seseorang ke rumah anda?” kata Hendricks. "Secara keseluruhannya, kami memerlukan penilaian keselamatan yang lebih kukuh sebelum kami membiarkan AI mengambil alih kuasa rangkaian." ujian. Heather Frase, yang bekerja di Pusat Keselamatan dan Teknologi Baru Universiti Georgetown, juga menguji sama ada GPT-4 boleh membantu tingkah laku jenayah. Beliau berkata risiko akan terus meningkat apabila lebih ramai orang menggunakan teknologi itu.
Dia berkata: "Sebab anda melakukan ujian kehidupan sebenar adalah kerana mereka berkelakuan berbeza sebaik sahaja digunakan dalam persekitaran sebenar Dia percaya bahawa sistem awam harus dibangunkan untuk melaporkan jenis peristiwa yang disebabkan oleh model bahasa yang besar." , serupa dengan sistem pelaporan keselamatan siber atau penipuan pengguna
Pakar ekonomi dan penyelidik buruh Sara Kingsley mencadangkan penyelesaian terbaik adalah seperti "Label Pemakanan" pada pembungkusan makanan "Dengan cara itu, nyatakan bahaya dan risiko secara langsung.
Dia berkata: "Kuncinya ialah mempunyai rangka kerja dan mengetahui masalah yang berulang supaya anda boleh mempunyai injap keselamatan. “Sebab itu saya katakan kerja itu tidak pernah selesai. ”
Atas ialah kandungan terperinci Sebelum keluaran GPT-4, OpenAI mengupah pakar dari pelbagai industri untuk menjalankan "ujian lawan" untuk mengelakkan isu seperti diskriminasi.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!