Rumah > Artikel > Peranti teknologi > Mengenai peraturan AI, Musk terus "mengibarkan bendera" dan Sunak juga mengeluarkan amaran!
Pada hari Khamis, Sidang Kemuncak Keselamatan Kecerdasan Buatan pertama di dunia berakhir di UK dialog AI Musk dengan Perdana Menteri Britain Sunak menarik perhatian industri
Dalam hal ini, Musk sekali lagi menekankan kepentingan meningkatkan peraturan AI, dan Sunak juga memberi amaran bahawa AI mungkin membawa risiko yang serupa dengan perang nuklear
Pengawasan AI
Dalam perbualan antara keduanya, Musk menyifatkan kecerdasan buatan sebagai "kuasa yang paling mengganggu dalam sejarah" dan berkata bahawa kita akhirnya akan "mempunyai sesuatu yang lebih bijak daripada manusia yang paling bijak."
Pada masa yang sama, dia juga membandingkan kecerdasan buatan dengan "pedang bermata dua." Pada pendapat beliau, teknologi ini mempunyai sekurang-kurangnya 80% peluang untuk memberi manfaat kepada manusia dan 20% peluang untuk menjadi berbahaya. Ia mungkin menjadi salah satu "ancaman terbesar" yang dihadapi manusia.
"Kecerdasan buatan mempunyai potensi untuk menjadi kekuatan untuk kebaikan, tetapi potensi untuk menjadi buruk bukanlah sifar."Mengenai cara kecerdasan buatan akan mempengaruhi kerja, Musk meramalkan bahawa tenaga kerja manusia akan dihapuskan.
"Suatu hari, kita akan Tiada kerja diperlukan. Jika anda mahukan pekerjaan untuk memenuhi keperluan peribadi anda, anda boleh mencari pekerjaan, tetapi AI akan dapat melakukan segala-galanya. "
"Sama ada ini akan membuatkan orang selesa tidak jelas, dan salah satu cabaran pada masa hadapan ialah bagaimana kita mencari makna dalam hidup."
Musk baru-baru ini menyatakan pandangan baharu tentang peraturan Dia percaya: "Walaupun peraturan sememangnya menjengkelkan, selama ini kami telah mengetahui bahawa timbang tara adalah perkara yang baik
Beliau mencadangkan penubuhan organisasi "pengadil pihak ketiga" neutral untuk menyelia aktiviti pembangunan syarikat AI agar segera menemui trend aktiviti dan potensi masalah syarikat AI terkemuka
Membangunkan peraturan kawal selia kecerdasan buatan yang berkesan memerlukan pemahaman yang mendalam tentang perkembangannya, jadi dia tidak bimbang untuk merumuskan peraturan yang berkaitan lebih awal tanpa pemahaman yang mencukupi
Apabila ditanya tentang perkara yang perlu dilakukan oleh kerajaan untuk "mengurus dan mengurangkan" risiko AI, Musk mengesahkan keperluan untuk campur tangan kerajaan dan berkata beliau tidak bersetuju dengan "peraturan kurang daripada 1%.
Musk telah menghabiskan sedekad yang lalu memberi amaran bahawa kecerdasan buatan boleh menimbulkan ancaman eksistensi kepada manusia. Ketika trend kecerdasan buatan melanda seluruh dunia, pada Julai tahun ini, Musk mengumumkan bahawa dia sedang membentuk pasukan xAI yang bertujuan untuk "memahami realiti." Dia pernah berkata: "Dari perspektif keselamatan kecerdasan buatan, kecerdasan buatan dengan rasa ingin tahu yang paling besar dan cuba memahami alam semesta akan memberi manfaat kepada manusia
Musk dan Sunak bersetuju bahawa "suis" fizikal mungkin diperlukan untuk menghalang robot daripada kehilangan kawalan dengan cara yang berbahaya, merujuk siri "Terminator" dan filem fiksyen sains yang lain. Sunak berkata: "Semua filem dengan plot yang sama pada dasarnya berakhir dengan orang mematikannya
Pada pertemuan itu, Sunak turut memberi amaran bahawa AI mungkin membawa risiko kepada manusia pada skala yang setanding dengan perang nuklear. Dia bimbang tentang risiko model AI lanjutan yang ditimbulkan kepada orang ramai.
"Orang yang membangunkan teknologi ini telah meningkatkan risiko yang boleh dibawa oleh AI, dan adalah penting untuk tidak terlalu cemas mengenainya. Terdapat kontroversi mengenai topik ini. Orang dalam industri tidak bersetuju dengan perkara ini, dan kami tidak dapat mengetahui dengan pasti. "
"Tetapi ada sebab untuk mempercayai ia boleh menimbulkan risiko pada skala pandemik dan perang nuklear, itulah sebabnya, sebagai pemimpin, kami mempunyai tanggungjawab untuk bertindak dan mengambil langkah untuk melindungi orang ramai, dan itulah yang kami lakukan."
"Pengisytiharan Bletchley"
Sehari sebelumnya, di Sidang Kemuncak Keselamatan Kepintaran Buatan, kerajaan British mengumumkan "Deklarasi Bletchley".
Perjanjian kecerdasan buatan pertama di dunia telah ditandatangani dan diluluskan oleh wakil dari 28 negara dan wilayah, termasuk China, India, Amerika Syarikat dan Kesatuan Eropah. Perjanjian itu bertujuan untuk menangani risiko yang mungkin dihadapi oleh model kecerdasan buatan canggih di luar kawalan dan penyalahgunaan, dan memberi amaran bahawa kecerdasan buatan boleh menyebabkan bahaya "malapetaka"
Manifesto AI menyatakan bahawa ia membawa peluang besar kepada dunia. AI mempunyai potensi untuk mengubah atau meningkatkan kesejahteraan, keamanan dan kemakmuran manusia. Pada masa yang sama, AI juga menimbulkan risiko yang ketara, walaupun dalam alam kehidupan seharian
"Semua isu adalah kritikal dan kami mengakui keperluan dan kesegeraan untuk menanganinya."
Banyak risiko yang ditimbulkan oleh AI merupakan isu antarabangsa dan oleh itu paling baik ditangani melalui kerjasama antarabangsa
"Untuk mencapai matlamat ini, kami mengesahkan bahawa AI harus direka bentuk, dibangunkan, digunakan dan digunakan dengan cara yang selamat, berpaksikan manusia, boleh dipercayai dan bertanggungjawab untuk manfaat semua."
Kenyataan itu menyatakan bahawa semua pihak yang terlibat digalakkan untuk membangunkan rancangan yang sesuai mengikut konteks untuk menangani keupayaan yang berpotensi berbahaya dan kemungkinan kesan yang berkaitan, dan untuk menyediakan ketelusan dan akauntabiliti. Terutama untuk mencegah pengembangan isu penyalahgunaan dan kawalan serta risiko lain
Dalam konteks kerjasama, pengisytiharan itu memberi tumpuan kepada dua perkara utama: 1. Mengenal pasti risiko keselamatan AI yang menjadi perhatian bersama, membina "pemahaman epistemik" berasaskan bukti dan saintifik dan mengekalkannya sebagai keupayaan terus meningkat. kesedaran memahami, dan mengambil pendekatan global yang lebih luas untuk memahami kesan AI terhadap masyarakat kita.
2. Negara harus menggubal dasar berasaskan risiko dan bekerjasama antara satu sama lain. “Untuk memajukan agenda ini, kami berazam untuk menyokong rangkaian penyelidikan sains keselamatan AI yang inklusif di peringkat antarabangsa untuk memperdalam pemahaman tentang risiko dan keupayaan AI yang belum difahami sepenuhnya.
Dilaporkan bahawa Sidang Kemuncak Keselamatan Kecerdasan Buatan seterusnya akan dihoskan oleh Korea Selatan dan Perancis pada 2024.Atas ialah kandungan terperinci Mengenai peraturan AI, Musk terus "mengibarkan bendera" dan Sunak juga mengeluarkan amaran!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!