Rumah >Peranti teknologi >AI >Adakah GPT-5 akan dihentikan? OpenAI mengeluarkan respons pada awal pagi: Untuk memastikan keselamatan AI, kami tidak 'memotong sudut'
Dalam beberapa hari kebelakangan ini, ia telah menjadi "masa penuh peristiwa" untuk OpenAI.
Disebabkan isu keselamatan yang mungkin disebabkan oleh ChatGPT dan GPT-4, OpenAI telah menerima beberapa kritikan dan halangan dari dunia luar:
Peristiwa ini menunjukkan bahawa walaupun AI telah terbukti mempunyai keupayaan untuk membawa banyak faedah kepada masyarakat manusia, teknologi sentiasa pedang bermata dua dan juga boleh membawa risiko sebenar kepada masyarakat manusia, dan AI tidak pengecualian.
Pada 6 April, OpenAI secara rasmi mengeluarkan catatan blog bertajuk "Pendekatan kami terhadap keselamatan AI", yang membincangkan cara "membina, menggunakan dan menggunakan sistem kecerdasan buatan dengan selamat."
OpenAI komited untuk memastikan kecerdasan buatan yang kuat selamat dan bermanfaat secara meluas (kepada masyarakat manusia). Alat AI kami memberikan banyak manfaat kepada orang ramai hari ini.
Pengguna dari seluruh dunia memberitahu kami bahawa ChatGPT membantu meningkatkan produktiviti mereka, meningkatkan kreativiti mereka dan menyediakan pengalaman pembelajaran yang disesuaikan.
Kami juga menyedari bahawa, seperti mana-mana teknologi, alatan ini datang dengan risiko sebenar - jadi kami bekerja keras untuk memastikan keselamatan terbina dalam sistem kami di setiap peringkat.
1. Bina sistem kecerdasan buatan yang semakin selamat
Sebelum mengeluarkan sebarang sistem baharu, kami menjalankan ujian yang ketat, melibatkan pakar luar dalam maklum balas dan berusaha untuk memanfaatkan pembelajaran pengukuhan daripada maklum balas manusia Teknologi seperti menambah baik tingkah laku model dan mewujudkan sistem keselamatan dan pemantauan yang meluas.
Sebagai contoh, selepas model terbaharu kami, GPT-4, melengkapkan latihan, semua kakitangan kami menghabiskan masa lebih 6 bulan untuk menjadikannya lebih selamat dan konsisten sebelum dikeluarkan kepada umum.
Kami percaya bahawa sistem kecerdasan buatan yang berkuasa harus menjalani penilaian keselamatan yang ketat. Peraturan diperlukan untuk memastikan amalan ini diterima pakai, dan kami terlibat secara aktif dengan kerajaan untuk meneroka bentuk terbaik peraturan ini.
2 Belajar daripada penggunaan dunia sebenar untuk meningkatkan perlindungan
Kami berusaha untuk mencegah risiko yang boleh dijangka sebelum penggunaan, namun, perkara yang boleh kami pelajari dalam makmal adalah Terhad. Walaupun terdapat penyelidikan dan ujian yang meluas, kami tidak dapat meramalkan semua cara yang berfaedah orang menggunakan teknologi kami, atau semua cara orang menyalahgunakannya. Itulah sebabnya kami percaya bahawa pembelajaran daripada penggunaan dunia sebenar ialah komponen utama untuk mencipta dan mengeluarkan sistem AI yang semakin selamat dari semasa ke semasa.
Kami mengeluarkan sistem AI baharu dengan berhati-hati secara berperingkat-peringkat, dengan banyak perlindungan disediakan, mendorong mereka keluar kepada populasi yang semakin berkembang, dan terus menambah baik berdasarkan apa yang kami pelajari.
Kami menawarkan model kami yang paling berkebolehan melalui perkhidmatan dan API kami sendiri supaya pembangun boleh menggunakan teknologi ini secara langsung dalam aplikasi mereka. Ini membolehkan kami memantau dan mengambil tindakan ke atas penyalahgunaan dan terus membina mitigasi untuk cara sebenar orang menyalahgunakan sistem kami, bukan hanya teori tentang rupa penyalahgunaan.
Penggunaan dunia sebenar juga telah mendorong kami untuk membangunkan dasar yang semakin bernuansa untuk menghalang tingkah laku yang menimbulkan risiko sebenar kepada orang ramai, sambil turut membenarkan banyak penggunaan teknologi kami yang berfaedah.
Yang penting, kami percaya masyarakat mesti diberi masa untuk mengemas kini dan menyesuaikan diri dengan AI yang semakin berkebolehan, dan setiap orang yang terjejas oleh teknologi ini harus mempunyai pemahaman tentang AI Mempunyai suara penting dalam pembangunan selanjutnya. Penggunaan berulang membantu kami membawa pelbagai pihak berkepentingan ke dalam perbualan tentang penggunaan teknologi AI dengan lebih berkesan berbanding jika mereka tidak mengalami alatan ini secara langsung.
3. Melindungi kanak-kanak
Aspek utama keselamatan ialah melindungi kanak-kanak. Kami memerlukan orang yang menggunakan alatan AI kami berumur 18 tahun ke atas, atau 13 tahun ke atas dengan kelulusan ibu bapa, dan kami sedang mengusahakan pilihan pengesahan.
Kami tidak membenarkan teknologi kami digunakan untuk menghasilkan kandungan yang penuh kebencian, gangguan, ganas atau dewasa, antara kategori lain (berbahaya). Model terbaharu kami, GPT-4, mempunyai kadar tindak balas 82% lebih rendah untuk permintaan kandungan yang tidak dibenarkan berbanding GPT-3.5, dan kami telah membina sistem yang teguh untuk memantau penyalahgunaan. GPT-4 kini tersedia kepada pengguna ChatGPT Plus, dan kami berharap dapat menyediakannya kepada lebih ramai orang dari semasa ke semasa.
Kami meletakkan banyak usaha untuk meminimumkan kemungkinan model kami akan menghasilkan kandungan yang berbahaya kepada kanak-kanak. Sebagai contoh, apabila pengguna cuba memuat naik bahan penderaan selamat kanak-kanak ke alat imej kami, kami menyekat tindakan itu dan melaporkannya kepada Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi.
Sebagai tambahan kepada pagar keselamatan lalai kami, kami bekerjasama dengan pembangun seperti Akademi Khan bukan untung – yang membina pembantu berkuasa AI yang berfungsi sebagai tutor maya untuk pelajar dan pembantu bilik darjah untuk guru --Sesuaikan pengurangan keselamatan untuk kes penggunaan mereka. Kami juga sedang membangunkan ciri yang membolehkan pembangun menetapkan piawaian yang lebih ketat untuk keluaran model untuk menyokong pembangun dan pengguna yang mahukan fungsi ini dengan lebih baik.
4. Hormati Privasi
Model bahasa besar kami dilatih pada korpus teks yang meluas, termasuk kandungan awam, dibenarkan dan kandungan yang dihasilkan oleh penyemak manusia . Kami tidak menggunakan data untuk menjual perkhidmatan kami, iklan atau membina profil pada orang, kami menggunakan data untuk menjadikan model kami lebih berguna kepada orang ramai. ChatGPT, sebagai contoh, meningkatkan keupayaan dengan melatih orang ramai tentang perbualan dengannya.
Walaupun beberapa data latihan kami termasuk maklumat peribadi di internet awam, kami mahu model kami belajar tentang dunia, bukan dunia peribadi. Oleh itu, kami berusaha untuk mengalih keluar maklumat peribadi daripada set data latihan jika boleh, memperhalusi model kami untuk menolak permintaan untuk maklumat peribadi dan membalas permintaan daripada individu supaya maklumat peribadi mereka dialih keluar daripada sistem kami. Langkah-langkah ini meminimumkan kemungkinan model kami boleh menghasilkan kandungan yang merangkumi maklumat peribadi.
5. Tingkatkan ketepatan fakta
Model bahasa berskala besar meramalkan dan menjana urutan perkataan seterusnya berdasarkan corak yang telah mereka lihat sebelum ini, termasuk input teks yang disediakan oleh pengguna. Dalam sesetengah kes, perkataan yang paling mungkin seterusnya mungkin tidak tepat dari segi fakta.
Meningkatkan ketepatan fakta ialah tugas penting untuk OpenAI dan banyak pembangun AI lain, dan kami sedang membuat kemajuan. Dengan memanfaatkan maklum balas pengguna pada output ChatGPT yang dibenderakan sebagai tidak betul sebagai sumber data utama.
Kami menyedari bahawa terdapat banyak lagi kerja yang perlu dilakukan untuk mengurangkan lagi kemungkinan halusinasi dan mendidik orang ramai tentang batasan semasa alatan AI ini.
6. Penyelidikan dan Penglibatan Berterusan
Kami percaya bahawa cara praktikal untuk menangani isu keselamatan AI adalah dengan melabur lebih banyak masa dan sumber untuk menyelidik mitigasi yang berkesan dan menyesuaikan teknologi, dan menyasarkan Diuji dengan dunia sebenar penderaan.
Yang penting, kami percaya bahawa meningkatkan keselamatan dan keupayaan AI harus seiring. Sehingga kini, kerja keselamatan terbaik kami diperoleh daripada bekerja dengan model kami yang paling berkebolehan kerana model tersebut lebih baik mengikut arahan pengguna dan lebih mudah untuk dibimbing atau "dilatih."
Kami akan semakin berhati-hati apabila model yang lebih berkebolehan dicipta dan digunakan, dan kami akan terus memperkukuh langkah berjaga-jaga keselamatan apabila sistem AI kami terus berkembang.
Sementara kami menunggu lebih daripada 6 bulan untuk menggunakan GPT-4 untuk memahami dengan lebih baik keupayaan, faedah dan risikonya, kadangkala ia mungkin mengambil masa lebih lama daripada itu untuk meningkatkan prestasi sistem AI. Oleh itu, penggubal dasar dan vendor AI perlu memastikan bahawa pembangunan dan penggunaan AI diuruskan dengan berkesan di peringkat global, dan tiada siapa yang "membuat jalan keluar" untuk mencapai kejayaan secepat mungkin. Ini adalah cabaran yang sukar yang memerlukan inovasi teknologi dan institusi, tetapi ia juga merupakan sumbangan yang ingin kami lakukan.
Menyelesaikan isu keselamatan juga memerlukan perdebatan, percubaan dan penglibatan yang meluas, termasuk mengenai sempadan gelagat sistem AI. Kami telah dan akan terus menggalakkan kerjasama dan dialog terbuka di kalangan pihak berkepentingan untuk mewujudkan ekosistem AI yang selamat.
Atas ialah kandungan terperinci Adakah GPT-5 akan dihentikan? OpenAI mengeluarkan respons pada awal pagi: Untuk memastikan keselamatan AI, kami tidak 'memotong sudut'. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!