Rumah >Peranti teknologi >AI >10 Sebab Mengapa Kepintaran Buatan Generatif Membimbangkan
Model AI generatif seperti ChatGPT sangat mengagumkan sehingga ada yang mendakwa bahawa AI bukan sahaja boleh menjadi sebaik manusia, tetapi selalunya lebih pintar. Mereka melemparkan karya seni yang indah dalam gaya yang mempesonakan. Mereka boleh menulis teks yang penuh dengan butiran, idea dan pengetahuan. Artifak yang dihasilkan sangat pelbagai dan nampaknya begitu unik sehingga sukar untuk mempercayai ia berasal dari mesin. Kami baru mula menemui semua yang boleh dilakukan oleh AI generatif.
Sesetengah pemerhati percaya bahawa kecerdasan buatan baharu ini akhirnya telah melepasi ambang Ujian Turing. Yang lain berpendapat bahawa ambang tidak mudah diatasi, tetapi hanya overhyped. Namun, karya agung ini sangat menakjubkan sehinggakan sekumpulan orang sudah berada di ambang pengangguran.
Namun, apabila orang sudah terbiasa, aura kecerdasan buatan generatif akan hilang. Sekumpulan pemerhati bertanyakan soalan dengan cara yang betul, menyebabkan mesin pintar ini mengatakan sesuatu yang bodoh atau salah. Ini telah menjadi fesyen pada masa kini. Sesetengah menggunakan bom logik lama yang popular dalam kelas seni sekolah rendah, seperti meminta foto matahari pada waktu malam atau beruang kutub dalam ribut salji. Yang lain membuat permintaan pelik yang menunjukkan had kesedaran kontekstual AI, juga dikenali sebagai akal sehat. Mereka yang berminat boleh mengira corak di mana AI generatif gagal.
Artikel ini mencadangkan sepuluh kelemahan atau kelemahan kecerdasan buatan generatif. Qing Neng ini mungkin dibaca sebagai anggur yang agak masam, kerana jika mesin dibenarkan mengambil alih, dia akan kehilangan pekerjaannya. Anda boleh mengatakan bahawa saya adalah orang kecil yang menyokong pasukan manusia, tetapi saya hanya berharap bahawa manusia dapat menunjukkan kepahlawanan dalam perjuangan mereka dengan mesin. Namun, bukankah kita semua patut bimbang?
Apabila model AI generatif seperti DALL-E dan ChatGPT mula-mula dicipta, ia sebenarnya baru bermula dari Ia membuat corak baharu daripada berjuta-juta contoh dalam set latihannya, dan hasilnya adalah sintesis potong dan tampal daripada pelbagai sumber. Jika manusia melakukan ini, ia dipanggil plagiarisme.
Sudah tentu manusia juga belajar melalui peniruan. Walau bagaimanapun, dalam beberapa kes, peminjaman itu sangat jelas sehingga menyebabkan seorang guru sekolah rendah tidak senang. Kandungan yang dijana AI ini terdiri daripada ketulan besar teks, dipersembahkan lebih atau kurang perkataan demi perkataan. Kadang-kadang, bagaimanapun, terdapat cukup pencampuran atau sintesis yang terlibat walaupun apabila diserahkan kepada sekumpulan profesor universiti adalah sukar untuk mengetahui asal-usulnya. Walau apa pun, adalah mustahil untuk melihat keunikan di dalamnya. Walaupun berkilat seperti mesin ini, mereka tidak mampu menghasilkan kerja yang benar-benar baru.
Walaupun plagiarisme sebahagian besarnya menjadi kebimbangan pihak sekolah, undang-undang hak cipta juga terpakai kepada pasaran. Apabila seseorang memplagiat karya orang lain, mereka berisiko dibawa ke mahkamah dan didenda berpotensi berjuta-juta dolar. Tetapi bagaimana dengan kecerdasan buatan? Adakah peraturan yang sama dikenakan kepada mereka?
Undang-undang hak cipta ialah topik yang kompleks, dan status undang-undang AI generatif akan mengambil masa bertahun-tahun untuk diselesaikan. Tetapi ingat ini: Apabila AI mula menghasilkan kerja yang kelihatan cukup baik untuk meletakkan manusia di ambang pengangguran, sesetengah daripada mereka pasti akan menggunakan masa lapang baharu mereka untuk memfailkan tuntutan mahkamah.
Plagiarisme dan hak cipta bukan satu-satunya isu undang-undang yang timbul daripada AI generatif. Peguam sudah pun mengimpikan isu etika litigasi baharu. Sebagai contoh, adakah syarikat yang membuat program lukisan mengumpul data tentang tingkah laku lukisan pengguna manusia dan kemudian menggunakan data tersebut untuk melatih kecerdasan buatan? Perlukah manusia diberi pampasan atas penggunaan tenaga kerja kreatif ini? Kejayaan generasi semasa kecerdasan buatan sebahagian besarnya berpunca daripada pemerolehan data. Jadi apa yang berlaku apabila orang yang menjana data mahu sekeping pai? Mana yang adil? Apa yang boleh dianggap sah?
AI amat pandai meniru jenis kecerdasan yang manusia ambil masa bertahun-tahun untuk berkembang. Apabila ahli antropologi memaparkan artis abad ke-17 yang tidak jelas, atau menulis muzik baharu menggunakan struktur tonal Renaissance yang hampir dilupakan, kami mempunyai sebab yang kukuh untuk kagum. Kami tahu ia mengambil masa bertahun-tahun penyelidikan untuk membangunkan kedalaman pengetahuan ini. Apabila AI melakukan perkara yang sama ini selepas hanya beberapa bulan latihan, hasilnya boleh menjadi sangat tepat dan betul, tetapi kehilangan beberapa bahan utama.
Jika mesin yang terlatih dapat mencari resit lama yang betul dalam kotak kasut digital yang dipenuhi dengan berbilion rekod, ia juga boleh mempelajari segala-galanya yang perlu diketahui tentang penyair seperti Aphra Behn. Anda mungkin percaya bahawa mesin telah dibina untuk menyahkod makna hieroglif Maya. AI mungkin kelihatan meniru sisi kreativiti manusia yang suka bermain dan tidak dapat diramalkan, tetapi mereka tidak boleh melakukannya. Pada masa yang sama, ketidakpastian adalah yang mendorong inovasi kreatif. Industri seperti fesyen bukan sahaja taksub dengan perubahan, tetapi ditakrifkan olehnya. Sememangnya, kecerdasan buatan mempunyai tempatnya, tetapi begitu juga kecerdasan manusia yang lama dan berjaya.
Apabila bercakap tentang kecerdasan, AI bersifat mekanikal dan berasaskan peraturan. Sebaik sahaja AI memproses satu set data latihan, ia mencipta model, yang tidak benar-benar berubah. Sesetengah jurutera dan saintis data membayangkan melatih semula model AI secara beransur-ansur dari semasa ke semasa supaya mesin belajar menyesuaikan diri. Tetapi, dalam kebanyakan kes, ideanya adalah untuk mencipta set neuron kompleks yang mengekodkan beberapa pengetahuan dalam bentuk tetap. Ketekalan mempunyai tempatnya dan mungkin berfungsi untuk industri tertentu. Bahaya dengan AI ialah ia akan kekal terperangkap dalam zeitgeist data latihannya. Apa yang berlaku apabila kita manusia menjadi sangat bergantung pada AI generatif sehingga kita tidak lagi dapat menjana bahan baharu untuk model latihan?
Data latihan untuk AI perlu datang dari suatu tempat, dan kami tidak sentiasa pasti apa yang akan berlaku. dalam rangkaian saraf. Bagaimana jika AI membocorkan maklumat peribadi daripada data latihannya? Lebih teruk, mengunci AI adalah lebih sukar kerana ia direka bentuk untuk menjadi sangat fleksibel. Pangkalan data hubungan boleh menyekat akses kepada jadual tertentu yang mengandungi maklumat peribadi. Walau bagaimanapun, AI boleh membuat pertanyaan dalam berpuluh-puluh cara yang berbeza. Penyerang akan cepat belajar cara bertanya soalan yang betul dengan cara yang betul untuk mendapatkan data sensitif yang mereka inginkan. Sebagai contoh, katakan latitud dan longitud aset tertentu dikunci. Penyerang yang bijak mungkin bertanya lokasi masa tepat matahari terbit dalam beberapa minggu. AI yang patuh akan cuba menjawab. Kami belum mempunyai pegangan untuk mengajar AI untuk melindungi data peribadi.
Jika anda tahu bahawa pengaturcara kerangka utama terawal mencipta akronim GIGO atau “Sampah Masuk,” Sampah Keluar” dan anda boleh tahu bahawa mereka mengenali inti masalah komputer sejak itu. Banyak masalah dengan AI datang daripada data latihan yang lemah. Jika set data tidak tepat atau berat sebelah, hasilnya pasti akan mencerminkannya.
Perkakasan di tengah-tengah AI generatif mungkin dipacu logik seperti Spock, tetapi manusia yang membina dan melatih mesin tidak. Bias dan pilih kasih telah ditunjukkan untuk mencari jalan mereka ke dalam model AI. Mungkin seseorang menggunakan data berat sebelah untuk mencipta model. Mungkin mereka menambah penggantian untuk menghalang model daripada menjawab soalan panas tertentu. Mungkin mereka meletakkan jawapan berkod keras dan kemudian ia menjadi sukar untuk dikesan. Umat manusia telah menemui banyak cara untuk memastikan kecerdasan buatan menjadi kenderaan yang sangat baik untuk kepercayaan kita yang berbahaya.
Sangat mudah untuk memaafkan model AI kerana melakukan kesilapan kerana mereka melakukannya dengan baik dalam banyak cara lain. Walau bagaimanapun, banyak kesilapan sukar diramal kerana kecerdasan buatan berfikir secara berbeza daripada manusia. Sebagai contoh, ramai pengguna ciri teks-ke-imej mendapati bahawa AI mendapat perkara yang agak mudah salah, seperti aritmetik. Manusia belajar aritmetik asas di sekolah rendah, dan kemudian kita menggunakan kemahiran ini dalam pelbagai cara. Minta kanak-kanak berumur 10 tahun melukis lakaran sotong, dan kanak-kanak itu hampir pasti akan menentukan bahawa ia mempunyai lapan kaki. Versi semasa kepintaran buatan cenderung terganggu apabila melibatkan penggunaan matematik yang abstrak dan kontekstual. Ini boleh diubah dengan mudah jika pembina model menumpukan perhatian kepada salah langkah ini, tetapi terdapat kesilapan lain. Kepintaran mesin adalah berbeza daripada kecerdasan manusia, yang bermaksud kebodohan mesin akan berbeza juga.
Kadang-kadang tanpa disedari, kita manusia cenderung untuk mengisi kekosongan kecerdasan buatan. Kami mengisi maklumat yang hilang atau memasukkan jawapan. Jika AI memberitahu kami bahawa Henry VIII adalah raja yang membunuh isterinya, kami tidak akan mempersoalkannya kerana kami sendiri tidak memahami sejarah ini. Kami hanya menganggap lebih awal bahawa AI adalah betul, sama seperti yang kami lakukan apabila kami bersorak di hadapan bintang berkarisma. Jika sesuatu pernyataan itu terdengar yakin, fikiran manusia selalunya bersedia menerimanya sebagai benar dan betul.
Masalah paling sukar bagi pengguna AI generatif ialah mengetahui apabila AI salah. Mesin tidak boleh berbohong seperti manusia, tetapi itu menjadikan mereka lebih berbahaya. Mereka boleh menghasilkan beberapa keping data yang sangat tepat dan kemudian beralih kepada spekulasi atau fitnah secara terang-terangan tanpa disedari oleh sesiapa. Pengedar kereta terpakai atau pemain poker sering mengetahui apabila mereka menipu, dan kebanyakannya mempunyai bukti yang mendedahkan tingkah laku fitnah mereka. Tetapi kecerdasan buatan tidak.
Kandungan digital boleh disalin tanpa had, yang telah mengubah banyak model ekonomi yang dibina di sekitar kekurangan. AI Generatif akan memecahkan lebih banyak corak ini. AI Generatif akan menyebabkan beberapa penulis dan artis tidak bekerja; ia juga membatalkan banyak peraturan ekonomi yang kita harapkan untuk terus hidup. Bolehkah kandungan yang disokong iklan masih berfungsi apabila kedua-dua iklan dan kandungan boleh dicampur semula dan dilahirkan semula tanpa henti? Adakah bahagian internet percuma akan dikurangkan kepada dunia di mana robot mengklik iklan pada halaman web, semuanya dibuat dan direplikasi tanpa had oleh AI generatif?
Kelimpahan mudah ini boleh mengganggu setiap sudut ekonomi. Jika token ini boleh direplikasi selama-lamanya, adakah orang akan terus membayar untuk token yang tidak boleh ditiru? Jika membuat seni begitu mudah, adakah ia masih akan dihormati? Adakah ia masih istimewa? Jika ia tidak istimewa, adakah sesiapa yang peduli? Adakah segala-galanya hilang nilai apabila ia diambil mudah? Adakah ini yang dimaksudkan oleh Shakespeare apabila dia berkata "The slings and arrows of outrageous fortune"? Janganlah kita cuba menjawab sendiri persoalan ini. Mari lihat kepada kecerdasan buatan generatif untuk mendapatkan jawapan. Jawapannya akan menarik, pelik, dan akhirnya secara misteri terperangkap dalam dunia bawah tanah antara betul dan salah.
Sumber: www.cio.com
Atas ialah kandungan terperinci 10 Sebab Mengapa Kepintaran Buatan Generatif Membimbangkan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!