Rumah > Artikel > Peranti teknologi > Untuk menyelesaikan halangan terbesar kepada pelaksanaan AI, adakah OpenAI telah menemui jalannya?
OpenAI nampaknya telah menemui penyelesaian kepada "karut serius" kecerdasan buatan generatif.
Pada 31 Mei, OpenAI mengumumkan di laman web rasminya bahawa ia telah melatih model yang boleh membantu menghapuskan "ilusi" biasa dan masalah biasa lain dalam AI generatif.
OpenAI menyatakan bahawa model ganjaran boleh dilatih untuk mengesan halusinasi, dan model ganjaran dibahagikan kepada penyeliaan hasil (menyediakan maklum balas berdasarkan hasil akhir) atau penyeliaan proses (menyediakan maklum balas untuk setiap langkah dalam rantai pemikiran) model.
Iaitu, penyeliaan proses memberi ganjaran kepada setiap langkah yang betul dalam penaakulan, manakala penyeliaan hasil hanya memberi ganjaran kepada jawapan yang betul.
OpenAI berkata sebaliknya, penyeliaan proses mempunyai kelebihan penting - ia secara langsung melatih model untuk menghasilkan rantai pemikiran yang diluluskan oleh manusia :
Penyeliaan proses mempunyai beberapa kelebihan konsisten berbanding penyeliaan hasil. Setiap langkah diawasi dengan tepat, jadi ia memberi ganjaran kepada tingkah laku yang mengikut model rantaian pemikiran yang konsisten.
Penyeliaan proses juga lebih berkemungkinan menghasilkan alasan yang boleh dijelaskan kerana ia menggalakkan model mengikuti proses yang diluluskan oleh manusia
Pemantauan hasil boleh memberi ganjaran kepada proses yang tidak konsisten dan selalunya lebih sukar untuk disemak.
OpenAI menguji kedua-dua model pada set data matematik, mendapati bahawa pendekatan penyeliaan proses menghasilkan "prestasi yang lebih baik dengan ketara."
Tetapi adalah penting untuk ambil perhatian bahawa setakat ini pendekatan penyeliaan proses hanya diuji dalam domain matematik dan lebih banyak kerja diperlukan untuk melihat prestasinya secara lebih umum.
Selain itu, OpenAI tidak menyatakan berapa lama masa yang diperlukan untuk penyelidikan ini digunakan untuk ChatGPT, yang masih dalam peringkat penyelidikan.
Walaupun keputusan awal adalah baik, OpenAI menyebut bahawa pendekatan yang lebih selamat mengalami penurunan prestasi, yang dipanggil cukai penjajaran.
Keputusan semasa menunjukkan penyeliaan proses tidak menjana cukai penjajaran apabila menangani masalah matematik, tetapi situasi dalam maklumat umum tidak diketahui.
"Ilusi" AI generatif
Sejak kemunculan AI generatif, tuduhan mengada-adakan maklumat palsu dan "menjana halusinasi" tidak pernah hilang Ini juga merupakan salah satu masalah terbesar dengan model AI generatif semasa.
Pada Februari tahun ini, Google melancarkan chatbot Bard secara tergesa-gesa sebagai tindak balas kepada ChatGPT yang dibiayai oleh Microsoft Walau bagaimanapun, didapati kesilapan akal telah dibuat dalam demonstrasi, menyebabkan harga saham Google menjunam.
Terdapat banyak sebab untuk halusinasi AI, dan memasukkan data untuk menipu program AI supaya salah klasifikasi adalah salah satunya.
Sebagai contoh, pembangun menggunakan data (seperti imej, teks atau jenis lain) untuk melatih sistem kecerdasan buatan Jika data ditukar atau diherotkan, aplikasi akan mentafsir input secara berbeza dan menghasilkan hasil yang salah.
Ilusi boleh berlaku dalam model berasaskan bahasa yang besar seperti ChatGPT disebabkan penyahkodan transformer yang salah, menyebabkan model bahasa berpotensi menghasilkan cerita atau naratif yang tidak logik atau samar-samar.
Atas ialah kandungan terperinci Untuk menyelesaikan halangan terbesar kepada pelaksanaan AI, adakah OpenAI telah menemui jalannya?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!