Rumah  >  Artikel  >  Peranti teknologi  >  Tiga pemimpin OpenAI secara peribadi menulis artikel ini: Bagaimanakah kita harus mentadbir superintelligence?

Tiga pemimpin OpenAI secara peribadi menulis artikel ini: Bagaimanakah kita harus mentadbir superintelligence?

王林
王林ke hadapan
2023-05-26 14:08:041139semak imbas

AI tidak pernah menjejaskan kehidupan manusia dengan begitu meluas dan membawa begitu banyak kebimbangan dan masalah kepada manusia seperti yang berlaku pada hari ini.

Seperti semua inovasi teknologi utama yang lain pada masa lalu, pembangunan AI juga mempunyai dua sisi, satu untuk kebaikan dan satu untuk kejahatan Ini juga merupakan permulaan agensi kawal selia di seluruh dunia Salah satu sebab penting untuk campur tangan aktif.

Dalam apa jua keadaan, pembangunan teknologi AI nampaknya menjadi trend umum dan tidak dapat dihalang Cara membuat AI mematuhi nilai manusia dan etika? Pembangunan dan penggunaan yang lebih selamat ialah isu yang perlu dipertimbangkan dengan serius oleh semua pengamal AI semasa.

Hari ini, Tiga pengasas bersama OpenAI - Ketua Pegawai Eksekutif Sam Altman, Presiden Greg Brockman, Ketua Saintis Ilya Sutskever Mengarang bersama artikel membincangkan cara mentadbir superintelligence. Mereka berpendapat bahawa sekarang adalah masa yang baik untuk mula memikirkan tentang tadbir urus superintelligent—sistem kecerdasan buatan masa depan yang lebih berkebolehan daripada AGI.

Berdasarkan apa yang kita lihat setakat ini, dapat dibayangkan bahawa dalam tempoh sepuluh tahun akan datang, kecerdasan buatan (AI) akan mengatasi manusia dalam kebanyakan bidang Tahap kemahiran pakar dan keupayaan untuk menjalankan seberapa banyak aktiviti pengeluaran sebagai salah satu syarikat terbesar hari ini.

Terlepas dari potensi manfaat dan keburukan, superintelligence akan menjadi lebih berkuasa daripada teknologi lain yang perlu dihadapi oleh manusia pada masa lalu. Kita boleh mempunyai masa depan yang sangat makmur; tetapi kita mesti menguruskan risiko untuk sampai ke sana. Memandangkan kemungkinan risiko wujud, kita tidak boleh bertindak balas secara pasif sahaja. Tenaga nuklear adalah satu contoh teknologi dengan sifat ini; yang lain ialah biologi sintetik.

Begitu juga, kita mesti mengurangkan risiko teknologi AI semasa, tetapi superintelligence akan memerlukan pengendalian dan penyelarasan khas.

Titik permulaan

Terdapat banyak idea penting dalam peluang kami untuk berjaya memimpin pembangunan ini; pada tiga idea ini.

Pertama, kami memerlukan beberapa penyelarasan antara usaha pembangunan terkemuka untuk memastikan superintelligence dibangunkan dengan cara yang kedua-duanya memastikan kita selamat dan boleh membantu sistem ini disepadukan dengan lancar dengan masyarakat. Terdapat banyak cara untuk mencapai matlamat ini; Kerajaan utama dunia boleh bersatu untuk menubuhkan projek yang akan menjadi sebahagian daripada usaha semasa, atau kita boleh melakukannya melalui "persetujuan kolektif" (dengan Pasukan sokongan organisasi baharu, seperti yang dicadangkan di bawah), akan mengehadkan pertumbuhan keupayaan AI yang canggih kepada kadar tertentu setiap tahun.

Sudah tentu, syarikat individu juga harus dipegang pada standard yang sangat tinggi untuk membangun secara bertanggungjawab.

Kedua, akhirnya kita mungkin memerlukan sesuatu yang serupa dengan Agensi Tenaga Atom Antarabangsa (IAEA) untuk mengawal pembangunan superintelligence; > Sebarang usaha yang melebihi ambang keupayaan tertentu (atau sumber seperti pengkomputeran) perlu diawasi oleh badan antarabangsa ini, yang boleh memeriksa sistem, memerlukan audit, menguji pematuhan piawaian keselamatan, mengenakan had ke atas tahap penggunaan dan tahap keselamatan, dsb. Menjejaki pengkomputeran dan penggunaan tenaga akan sangat membantu dan memberi kami sedikit harapan bahawa idea ini sebenarnya boleh dicapai. Sebagai langkah pertama, syarikat secara sukarela boleh bersetuju untuk mula melaksanakan elemen yang mungkin diperlukan oleh badan sedemikian suatu hari nanti, manakala sebagai langkah kedua, negara individu boleh melaksanakannya. Yang penting, agensi sedemikian harus menumpukan pada mengurangkan "risiko kewujudan" dan bukannya isu yang harus diserahkan kepada negara individu, seperti mentakrifkan apa yang AI harus dibenarkan untuk mengatakan.

Ketiga, kita perlu mempunyai keupayaan teknikal yang mencukupi untuk menjadikan superintelligence selamat. Ini adalah soalan penyelidikan terbuka yang kami dan orang lain melaburkan usaha yang besar.

Apa yang tidak dalam skop

Kami percaya adalah penting untuk membenarkan syarikat dan projek sumber terbuka membangunkan model di bawah ambang keupayaan yang ketara, tanpa memerlukan jenis peraturan yang kami huraikan di sini (termasuk mekanisme yang menyusahkan seperti pelesenan atau pengauditan).

Sistem hari ini akan mencipta nilai yang sangat besar untuk dunia, dan walaupun mereka mempunyai risiko, tahap risiko tersebut nampaknya setanding dengan teknologi internet yang lain dan tindak balas masyarakat Pendekatan itu nampaknya sesuai.

Sebaliknya, sistem yang kami fokuskan akan mempunyai kuasa melebihi mana-mana teknologi setakat ini, dan kami harus berhati-hati untuk tidak mengatasinya dengan menggunakan yang serupa standard kepada teknologi yang jauh lebih rendah pada ambang ini untuk mengecilkan perhatian kepada mereka.

Penyertaan dan Potensi Awam

Tetapi untuk, tadbir urus sistem yang paling mantap, dan tentang keputusan penempatan mereka , mesti ada pengawasan awam yang kuat. Kami percaya bahawa orang di seluruh dunia harus memutuskan sempadan dan lalai sistem AI secara demokratik. Kami belum tahu cara mereka bentuk mekanisme sedemikian, tetapi kami merancang untuk melakukan beberapa eksperimen. Kami terus percaya bahawa, dalam sempadan yang luas ini, pengguna individu harus mempunyai kawalan yang ketara ke atas cara mereka berkelakuan dengan AI.

Memandangkan risiko dan kesukaran, patut difikirkan mengapa kami membina teknologi ini.

Di OpenAI, kami melakukan ini atas dua sebab asas. Pertama, kami percaya ia akan membawa kepada dunia yang lebih baik daripada yang kami bayangkan hari ini (kami sudah melihat contoh awal perkara ini dalam bidang seperti pendidikan, kerja kreatif dan produktiviti peribadi). Dunia menghadapi banyak masalah, dan kami memerlukan lebih banyak bantuan untuk menyelesaikannya; teknologi ini boleh meningkatkan masyarakat kita, dan kami pasti terkejut dengan kreativiti semua orang menggunakan alatan baharu ini. Pertumbuhan ekonomi dan peningkatan dalam kualiti hidup akan mengejutkan.

Kedua, kami percaya bahawa berhenti membina superintelligence akan menjadi keputusan yang secara tidak intuitif berisiko dan penuh dengan kesukaran. Disebabkan kelebihannya yang besar, kos pembinaan superintelligence semakin rendah setiap tahun, bilangan pembina meningkat dengan pesat, dan pada asasnya ia adalah sebahagian daripada laluan teknologi yang sedang kita lalui, menghentikannya akan memerlukan sesuatu seperti Rejim pengawasan global wujud, malah rejim sedemikian bukanlah jaminan kejayaan. Jadi kita kena betulkan.

Atas ialah kandungan terperinci Tiga pemimpin OpenAI secara peribadi menulis artikel ini: Bagaimanakah kita harus mentadbir superintelligence?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam