Rumah > Artikel > Peranti teknologi > Jurutera Google membuat kesilapan besar. Kecerdasan buatan masih belum memahami keupayaannya.
Kecerdasan buatan sememangnya boleh membuat ramalan yang lebih tepat sekarang, tetapi ia berdasarkan statistik data berskala besar. Tanpa pemahaman, keupayaan ramalan yang diperoleh melalui pembelajaran mesin mesti bergantung pada data besar, dan tidak boleh digunakan untuk membuat ramalan seperti manusia, yang selalunya hanya memerlukan data kecil.
Tidak lama dahulu, Google Inc. (selepas ini dirujuk sebagai Google) jurutera AI Lemoine percaya bahawa model bahasa aplikasi perbualan LAMDA adalah "hidup" dan "kesedarannya telah mengalu-alukan Datang dan bangun" dan mengeluarkan 21 muka surat bukti. Dia percaya bahawa LaMDA mempunyai kecerdasan kanak-kanak berusia tujuh atau lapan tahun, dan percaya bahawa LaMDA bukan sahaja menganggap dirinya sebagai manusia, tetapi memperjuangkan haknya sebagai manusia. Pandangan dan bukti LeMoyne menarik perhatian meluas dalam industri. Baru-baru ini, insiden itu sampai ke kesimpulan terakhir Google mengeluarkan kenyataan yang mengatakan bahawa Lemo telah dipecat kerana melanggar "dasar keselamatan pekerjaan dan data." Google berkata bahawa selepas semakan yang meluas, ia mendapati bahawa dakwaan Lemoine bahawa LaMDA masih hidup adalah tidak berasas sama sekali.
Walaupun "sama ada AI mempunyai kesedaran autonomi" sentiasa menjadi topik kontroversi dalam industri AI, kali ini kisah dramatik jurutera Google dan LaMDA sekali lagi mencetuskan perbincangan hangat mengenai topik ini dalam industri .
"Jika anda hendak melancong, ingatlah untuk berpakaian hangat, kerana di sini sangat sejuk, ini adalah LaMDA berbual dengan pasukan penyelidik saintifik ketika " bermain" Pluto Apabila ditanya, "Adakah sesiapa melawat Pluto?" ia menjawab dengan fakta yang tepat.
Kini, AI semakin baik dalam berbual. Bolehkah seorang profesional yang telah lama terlibat dalam penyelidikan kecerdasan buatan berfikir bahawa dia mempunyai kesedaran Sejauh mana model AI berkembang?
Sesetengah saintis telah mencadangkan bahawa otak manusia boleh melengkapkan perancangan untuk tingkah laku masa hadapan menggunakan hanya sebahagian daripada maklumat input visual. Cuma maklumat input visual harus dilengkapkan dalam keadaan sedar. Kesemuanya melibatkan "penjanaan maklumat kontrafaktual," iaitu, penjanaan sensasi yang sepadan tanpa input deria langsung. Ia dipanggil "counterfactual" kerana ia melibatkan kenangan masa lalu, atau ramalan tingkah laku masa depan, dan bukannya peristiwa sebenar yang sedang berlaku.
“Kecerdasan buatan masa kini sudah mempunyai model latihan yang kompleks, tetapi ia masih bergantung pada data yang disediakan oleh manusia untuk belajar Jika ia mempunyai keupayaan untuk menjana maklumat kontrafaktual, kecerdasan buatan boleh menjana datanya sendiri dan membayangkan situasi itu sendiri mungkin akan dihadapi pada masa hadapan, seterusnya menjadi lebih fleksibel dalam menyesuaikan diri dengan situasi baru yang belum pernah ditemui sebelum ini, ini juga membolehkan kecerdasan buatan mempunyai rasa ingin tahu dan mencuba sendiri jika tidak pasti apa yang akan berlaku dalam. masa depan," kata Tan Mingzhou, pengarah Bahagian Kecerdasan Buatan Yuanwang Think Tank dan ketua pegawai strategi Turing Robot.
Dalam sembang harian orang, jika mereka tidak mahu "berbual sampai mati", kandungan sembang kedua-dua pihak dalam perbualan selalunya akan melompat-lompat dan menjangkau julat yang besar, meninggalkan sejumlah ruang tertentu untuk imaginasi. Tetapi kini kebanyakan sistem AI hanya boleh bercakap dalam nada lurus Jika ayat diubah sedikit, teks itu akan keluar dari topik atau boleh ditertawakan.
Tan Mingzhou menegaskan: "LaMDA memperkatakan bahagian paling kompleks dalam model bahasa - dialog domain terbuka. LaMDA adalah berdasarkan model Transformer, yang membolehkan mesin memahami konteks. Contohnya, dalam perenggan, Pada masa lalu, AI hanya tahu bahawa kata ganti nama seperti "nya" dalam teks diterjemahkan sebagai "nya", tetapi tidak tahu bahawa "nya" di sini merujuk kepada orang yang sama model Transformer membolehkan AI memahami perenggan ini dari tahap holistik dan ketahui bahawa "nya" di sini merujuk kepada orang yang sama "
Menurut penilaian penyelidik saintifik, ciri ini membolehkan model bahasa berdasarkan model Transformer melakukan perbualan domain terbuka. Tidak kira sejauh mana topik itu menyimpang, AI boleh menyambung ke teks sebelumnya dan berbual tanpa terganggu. Tetapi LaMDA tidak berpuas hati dengan perkara ini Ia juga boleh menjadikan sembang menarik, nyata, dan membuat orang berfikir AI mempunyai personaliti. Di samping itu, apabila bercakap dengan manusia, LaMDA juga memperkenalkan sistem perolehan maklumat luaran untuk bertindak balas kepada perbualan melalui pencarian dan pemahaman tentang dunia sebenar, menjadikan jawapannya lebih bijak, responsif dan sederhana.
Pada 2018, saintis komputer pemenang Anugerah Turing Yann LeCun pernah berkata, “Kecerdasan buatan tidak mempunyai pemahaman asas tentang dunia, malah Tidak seperti baik seperti tahap kognitif kucing peliharaan.” Sehingga hari ini, dia masih percaya bahawa kecerdasan buatan adalah jauh dari tahap kognitif kucing. Walaupun otak kucing hanya mempunyai 800 juta neuron, ia jauh di hadapan mana-mana rangkaian saraf tiruan gergasi. Mengapa ini?
Tan Mingzhou berkata: "Otak manusia memang membuat ramalan berkali-kali, tetapi ramalan tidak boleh dianggap sebagai semua pemikiran otak. Sudah tentu, ia bukan intipati kecerdasan otak, tetapi hanya sejenis kepintaran. ”
Jadi, apakah intipati kecerdasan? Yang Likun percaya bahawa "pemahaman", pemahaman dunia dan pelbagai perkara, adalah intipati kecerdasan. Asas umum kecerdasan kucing dan manusia ialah pemahaman peringkat tinggi tentang dunia, membentuk model berdasarkan perwakilan abstrak persekitaran, seperti meramalkan tingkah laku dan akibat. Untuk kecerdasan buatan, pembelajaran dan penguasaan keupayaan ini adalah sangat kritikal. Yang Likun pernah berkata, "Sebelum tamat kerjaya saya, jika AI boleh mencapai IQ anjing atau lembu, maka saya akan sangat gembira." ramalan yang lebih tepat Ramalan, tetapi ia adalah statistik berdasarkan data berskala besar. Kegagalan seperti ini untuk memahami bahawa keupayaan ramalan yang diperoleh melalui pembelajaran mesin mesti bergantung pada data besar, dan tidak boleh membuat ramalan seperti manusia yang selalunya hanya memerlukan data kecil.
Tan Mingzhou berkata: "Ramalan adalah berdasarkan pemahaman. Bagi manusia, tanpa pemahaman, ramalan adalah mustahil. Contohnya, jika anda melihat seseorang memegang pizza di tangannya, jika anda tidak. Jika anda memahaminya kek adalah untuk memuaskan rasa lapar anda, anda tidak akan meramalkan bahawa dia akan makan kek seterusnya, tetapi ini tidak berlaku untuk mesin Terdapat tiga cabaran utama dalam penyelidikan kecerdasan buatan: belajar untuk mewakili dunia cara yang serasi dengan pembelajaran berasaskan kecerunan; perwakilan hierarki perancangan tindakan pembelajaran "
Sebab kami "masih belum melihat kecerdasan buatan peringkat kucing" adalah kerana mesin belum lagi. mencapai pemahaman yang benar tentang sesuatu.
Personaliti yang dipanggil hanyalah gaya bahasa yang dipelajari daripada manusia
Dalam bidang kecerdasan buatan, ujian Turing ialah kaedah ujian yang paling terkenal, yang menjemput penguji untuk bertanya soalan rawak kepada manusia dan sistem AI tanpa mengetahuinya Jika penguji tidak dapat membezakan antara jawapan yang datang daripada manusia dan sistem AI, Berasal daripada sistem AI, ia dianggap AI lulus ujian Turing.
Tan Mingzhou menjelaskan bahawa dari segi orang awam, LaMDA telah mempelajari sejumlah besar data perbualan manusia, dan perbualan ini datang daripada orang yang mempunyai personaliti yang berbeza Ia boleh dianggap bahawa ia telah mempelajari personaliti “purata”. ialah, Apa yang dipanggil "LaMDA mempunyai keperibadian" hanya bermaksud bahasa pertuturannya mempunyai gaya tertentu, dan ia berasal dari gaya pertuturan manusia dan tidak terbentuk secara spontan.
"Personaliti adalah konsep yang lebih kompleks daripada kecerdasan. Ini adalah dimensi lain. Psikologi mempunyai banyak penyelidikan mengenai perkara ini. Tetapi pada masa ini, penyelidikan kecerdasan buatan tidak banyak merangkumi aspek ini."
Tan Mingzhou berkata bahawa AI dengan kesedaran dan persepsi diri harus mempunyai agensi dan mempunyai perspektif unik tentang orang dan benda. Walau bagaimanapun, dari sudut pandangan semasa, AI semasa belum mempunyai unsur-unsur ini. Sekurang-kurangnya AI tidak akan mengambil tindakan melainkan ia diberi arahan. Apatah lagi meminta dia menjelaskan kelakuannya. Pada masa ini, AI hanyalah sistem komputer yang direka oleh orang sebagai alat untuk melakukan perkara tertentu.
Atas ialah kandungan terperinci Jurutera Google membuat kesilapan besar. Kecerdasan buatan masih belum memahami keupayaannya.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!