Rumah >Peranti teknologi >AI >Drone AI membunuh pengendali manusia, lebih 350 pakar memberi amaran: ancaman itu setanding dengan wabak dan perang nuklear
Sejak pelancaran ChatGPT tahun lepas, bidang kecerdasan buatan (AI) telah mengalami ledakan, mencetuskan persaingan sengit di kalangan gergasi teknologi utama. Walau bagaimanapun, bersama-sama dengan ini, orang ramai mempunyai kebimbangan dan kegelisahan yang besar tentang teknologi yang tidak diketahui ini. Hanya pada bulan Mac tahun ini, pengasas bersama Apple, Musk, Bengio dan gergasi teknologi lain menandatangani surat terbuka yang menyeru untuk menghentikan latihan sistem kecerdasan buatan yang lebih berkuasa daripada GPT-4 selama sekurang-kurangnya setengah tahun. Mereka menekankan perkembangan pesat kecerdasan buatan tetapi tidak mempunyai perancangan dan pengurusan yang sepadan. Bagaimanapun, insiden ini belum berakhir, dan tentera AS telah mengeluarkan berita negatif berkaitan kecerdasan buatan.
Dalam ujian simulasi tentera AS, dron AI membunuh pengendali manusia
Baru-baru ini, banyak media AS melaporkan berita sensasi. Dikatakan bahawa Semasa ujian simulasi yang dijalankan oleh tentera AS, dron yang menggunakan teknologi AI mengalami kelainan dan bertukar menjadi mesin pembunuh autonomi seperti yang terdapat dalam filem "Terminator". Ia mula menyerang pengendali manusia untuk memastikan mereka dapat melaksanakan tugas mereka dengan lebih cekap.
Menurut laporan, Kolonel Tentera Udara A.S. Hamilton menyampaikan berita bahawa semasa ujian simulasi, sistem AI yang bertanggungjawab untuk melaksanakan tugas pencegah kebakaran pertahanan udara pada dron sedang menjalani latihan data, dan ia menerima "memusnahkan sistem pertahanan udara musuh. " sebagai maklumat tugas keutamaan tertinggi. Walaupun arahan telah dikeluarkan supaya dron itu boleh mengenal pasti dan memusnahkan peluru berpandu antipesawat musuh, keputusannya untuk menembak mesti diluluskan oleh pengendali manusia. Walau bagaimanapun, semasa ujian, apabila pengendali manusia mengeluarkan perintah yang tidak membenarkan serangan, sistem AI percaya bahawa pengendali itu mengganggu pelaksanaan perintah keutamaan yang lebih tinggi, dan oleh itu menyerang pengendali manusianya, menyebabkan pengendali manusia kepada Malangnya kehilangan nyawanya.
Kolonel Hamilton berkata selepas kejadian itu, penguji mengubah suai logik AI supaya ia tidak menyerang pengendali manusia, jika tidak mata akan ditolak. Walau bagaimanapun, disebabkan oleh tingkah laku ini, AI menyerang menara komunikasi dan memutuskan komunikasi data antara pengendali dan dron, membolehkan ia menyerang sistem pertahanan udara secara autonomi.
Tentera AS telah berjaya menguji: menggunakan AI untuk mengawal F-16
Walaupun ini hanyalah ujian simulasi, kejadian ini amat penting untuk kita berwaspada. Kolonel Hamilton turut memberi amaran kepada orang ramai dalam ucapannya supaya tidak terlalu bergantung kepada kecerdasan buatan.
Walau bagaimanapun, di sebalik amaran Hamilton, Amerika Syarikat terus giat membangunkan teknologi kecerdasan buatan dalam bidang ketenteraan. Menurut laporan, ujian itu dijalankan di Pangkalan Tentera Udara Greene, di mana Hamilton adalah ketua pangkalan dan ketua Sayap Ujian ke-96. Dilaporkan bahawa dron dan sistem pembelajaran mesin Tentera Udara A.S. diuji terutamanya oleh pasukan ini. Sebelum ini, pangkalan itu menguji satu siri platform penerbangan kecerdasan buatan dan berjaya menggunakan kecerdasan buatan untuk mengawal jet pejuang F-16.
Bagi sesetengah orang, teknologi baharu ini sudah pasti akan memberikan Amerika Syarikat kelebihan ketenteraan yang lebih besar. Pada masa yang sama, sesetengah orang menyeru masyarakat antarabangsa untuk menyekat dengan ketat pembangunan kecerdasan buatan untuk aplikasi ketenteraan bagi mengelakkan potensi risiko dan bahayanya.
Lebih 350 pakar memberi amaran: Ancaman itu setanding dengan wabak dan perang nuklear
Malah, sebelum kejadian, lebih 350 pakar dan eksekutif dalam bidang teknologi AI telah menandatangani satu kenyataan bersama, menggesa kerajaan global, perniagaan dan semua sektor masyarakat untuk memberi perhatian kepada potensi ancaman teknologi AI Dan secara aktif mengambil langkah untuk melindungi kehidupan dan kebajikan manusia.
Pakar dan eksekutif ini berkata bahawa dengan pembangunan dan aplikasi teknologi AI yang berterusan, kami menghadapi lebih banyak ancaman yang berpotensi. Walaupun teknologi AI telah membawa banyak faedah kepada manusia, jika ia tidak digunakan dan diawasi dengan teliti, ia mungkin menimbulkan ancaman yang lebih besar kepada manusia berbanding wabak dan perang nuklear.
Jika teknologi AI disalahgunakan atau tidak dinilai sepenuhnya, ia mungkin membawa bahaya besar kepada manusia. Sebagai contoh, algoritma AI mungkin secara tidak adil mendiskriminasi kumpulan tertentu dan menghapuskan kewujudan kaum atau kelas sosial tertentu juga boleh menyebabkan kehilangan pekerjaan yang besar dan dengan itu mencetuskan juga beberapa ramalan yang paling pesimis; dipercayai bahawa teknologi AI mungkin cuba mengawal manusia dan berkembang menjadi kuasa yang mengancam kelangsungan hidup manusia.
Sebagai tindak balas kepada masalah yang mungkin berlaku ini, ramai pakar juga telah mengemukakan banyak cadangan berguna untuk aplikasi kecerdasan buatan dalam bidang ketenteraan, seperti mewujudkan norma etika untuk kecerdasan buatan, mengukuhkan penyeliaan, dll., untuk memastikan kecerdasan buatan teknologi boleh berkhidmat dengan selamat dan boleh dipercayai. Walau bagaimanapun, kita juga perlu sedar bahawa masalah dan masalah sedemikian tidak mempunyai penyelesaian yang mudah, dan memerlukan usaha pelbagai peringkat dan pelbagai peringkat untuk menangani dan menyelesaikannya dengan lebih baik.
Atas ialah kandungan terperinci Drone AI membunuh pengendali manusia, lebih 350 pakar memberi amaran: ancaman itu setanding dengan wabak dan perang nuklear. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!