Rumah > Artikel > Peranti teknologi > Syarikat OpenAI mengeluarkan langkah keselamatan yang digunakan semasa membina model kecerdasan buatan seperti GPT-4
OpenAI baru-baru ini mengumumkan bahawa ia akan membina langkah keselamatan ke dalam alat kecerdasan buatannya. Syarikat itu ialah pembangun model kecerdasan buatan linguistik berskala besar GPT-4 yang berkuasa, yang merupakan teras chatbot ChatGPT dan sistem kecerdasan buatan yang lain. Pendedahan syarikat dibuat di tengah-tengah permintaan yang semakin meningkat untuk lebih banyak kawalan ke atas pembangunan sistem AI generatif.
Dalam catatan blog, OpenAI memperincikan langkah yang diambil untuk menghalang sistem kecerdasan buatannya daripada menjana kandungan berbahaya dan mengelak daripada melanggar peraturan privasi data. Walaupun alat AI yang dibangunkan oleh syarikat itu telah menerajui ledakan global dalam AI generatif, dalam beberapa minggu kebelakangan ini pengawal selia mula berminat dengan keselamatan sistem AI sedemikian, dengan Itali menyebut kemungkinan pelanggaran peraturan GDPR adalah dilarang.
Pakar kecerdasan buatan termasuk Musk dan pengasas bersama Apple Wozniak baru-baru ini memanggil dalam surat terbuka untuk menghentikan sementara pembangunan model bahasa besar (LLM), dan Presiden AS Biden turut menyertai Berikutan perbincangan ini, beliau memberitahu pemberita bahawa syarikat kecerdasan buatan mesti mengutamakan keselamatan.
OpenAI berkata ia menghabiskan masa enam bulan sebelum mengeluarkan GPT-4 yang paling canggih sehingga kini bulan lepas untuk menyempurnakan sistem untuk menjadikannya seperti sukar untuk digunakan untuk tujuan jahat.
Penyelidik keselamatan sebelum ini telah menunjukkan bahawa adalah mungkin untuk memintas kawalan keselamatan ChatGPT dengan "menipu" chatbots untuk menghasilkan ucapan benci atau kod perisian hasad yang meniru sistem kecerdasan buatan yang lemah. OpenAI mengatakan ini kurang berkemungkinan berlaku dengan GPT-4 berbanding model GPT-3.5.
Jurutera syarikat berkata: “Berbanding dengan GPT-3.5, GPT-4 adalah 82% kurang berkemungkinan untuk membalas permintaan untuk kandungan yang tidak dibenarkan, dan kami telah membina sistem yang teguh untuk memantau Penyalahgunaan sistem kecerdasan buatan sedang membangunkan ciri yang membolehkan pembangun menetapkan piawaian yang lebih ketat untuk keluaran model bagi menyokong lebih baik pembangun dan pengguna yang memerlukan keupayaan sedemikian."
Syarikat itu juga mengambil peluang untuk menjawab kebimbangan pengawal selia data tentang cara modelnya mengumpul data daripada internet untuk tujuan latihan. Selepas Itali mengharamkan ChatGPT, Kanada melancarkan penyiasatan ke atas keselamatan chatbot dan negara-negara lain di Eropah sedang mempertimbangkan sama ada untuk mengikuti petunjuk Itali.
OpenAI berkata: “Model bahasa besar kami dilatih pada korpus teks yang luas, termasuk kandungan yang tersedia secara umum, kandungan berlesen dan kandungan yang dijana oleh penyemak manusia Kami tidak memindahkan data ke Untuk perkhidmatan penjualan, pengiklanan atau membina profil pengguna ”
Syarikat juga memperincikan bagaimana ia memastikan data peribadi tidak bocor semasa latihan. "Walaupun beberapa data latihan kami termasuk maklumat peribadi yang tersedia di internet awam, kami mahu model bahasa besar kami belajar tentang dunia, bukan individu," kata syarikat itu
Oleh itu, kami berusaha untuk belajar sebanyak itu mungkin jika boleh Langkah-langkah ini meminimumkan kemungkinan model kami akan menghasilkan respons yang mengandungi maklumat peribadi "
Sebelum OpenAI mengeluarkan kenyataan ini, Presiden A.S. Biden memberitahu pemberita bahawa pembangunan kecerdasan buatan Pengarang bertanggungjawab memastikan produk mereka selamat sebelum didedahkan kepada umum.
Biden bercakap selepas membincangkan pembangunan kecerdasan buatan dengan Majlis Penasihat Sains dan Teknologinya. Beliau berkata bahawa kerajaan A.S. komited untuk memajukan Rang Undang-undang Hak Kecerdasan Buatan yang diperkenalkan pada Oktober tahun lalu untuk melindungi individu daripada kesan negatif sistem automatik termaju.
Biden berkata: “Kami mencadangkan rang undang-undang hak pada Oktober lalu untuk memastikan bahawa perlindungan penting dibina ke dalam sistem AI dari awal supaya kami tidak perlu kembali dan melakukannya. Saya Nantikan perbincangan kami memastikan inovasi yang bertanggungjawab dan pagar yang sesuai untuk melindungi hak dan keselamatan rakyat Amerika, melindungi privasi mereka, dan menangani kemungkinan berat sebelah dan maklumat yang salah ”
Atas ialah kandungan terperinci Syarikat OpenAI mengeluarkan langkah keselamatan yang digunakan semasa membina model kecerdasan buatan seperti GPT-4. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!