Rumah > Artikel > Peranti teknologi > Google menggunakan kecerdasan buatan untuk menyerlahkan kelemahan dalam kognisi manusia
Hari ini, beberapa ayat yang kelihatan sangat seperti manusia sebenarnya dihasilkan oleh sistem kecerdasan buatan yang telah dilatih pada sejumlah besar teks manusia. Orang ramai sangat terbiasa menganggap bahawa bahasa fasih berasal dari pemikiran, merasakan manusia bahawa bukti sebaliknya boleh tidak dapat difahami, dan jika model AI boleh menyatakan dirinya dengan lancar, itu bermakna ia juga berfikir dan berasa seperti manusia.
Jadi mungkin, seorang bekas jurutera Google baru-baru ini mendakwa bahawa sistem kecerdasan buatan Google LAMDA sedar diri kerana ia boleh menjana teks tentang dakwaan perasaannya. Insiden itu dan liputan media seterusnya membawa kepada beberapa artikel dan siaran yang menimbulkan keraguan terhadap dakwaan bahawa model pengiraan bahasa manusia masih hidup.
Teks yang dijana oleh model seperti LaMDA Google mungkin sukar untuk dibezakan daripada teks yang ditulis oleh manusia. Pencapaian mengagumkan ini adalah hasil projek selama beberapa dekad untuk membina model yang mampu menjana bahasa yang gramatis dan bermakna. Model hari ini, dengan set data dan peraturan yang menghampiri bahasa manusia, berbeza daripada percubaan awal ini dalam beberapa cara penting. Pertama, mereka pada dasarnya dilatih di seluruh Internet. Kedua, mereka boleh mempelajari perkaitan antara perkataan yang berjauhan, bukan hanya perkataan yang bersebelahan. Ketiga, mereka mempunyai banyak pengubahsuaian dalaman sehinggakan jurutera yang mereka bentuknya pun sukar memahami mengapa mereka menghasilkan satu urutan perkataan dan bukan satu lagi.
Model bahasa kecerdasan buatan berskala besar membolehkan perbualan lancar. Walau bagaimanapun, mereka tidak mempunyai mesej keseluruhan untuk disampaikan, jadi frasa mereka cenderung mengikuti kiasan sastera biasa yang diambil daripada teks yang mereka latih. Otak manusia mempunyai peraturan berwayar keras untuk menyimpulkan niat di sebalik kata-kata. Setiap kali anda terlibat dalam perbualan, otak anda secara automatik membina model mental pasangan perbualan anda. Anda kemudian menggunakan apa yang mereka katakan untuk mengisi model dengan matlamat, perasaan dan kepercayaan orang itu. Lonjakan daripada ujaran kepada model mental adalah lancar dan dicetuskan setiap kali anda menerima ayat yang lengkap. Proses kognitif ini menjimatkan banyak masa dan tenaga anda dalam kehidupan seharian dan sangat memudahkan interaksi sosial anda. Walau bagaimanapun, dalam kes sistem AI, ia gagal kerana ia membina model mental daripada udara nipis.
Ironi yang menyedihkan ialah kecenderungan kognitif yang sama yang membenarkan orang mengaitkan kemanusiaan dengan model bahasa AI yang besar juga menyebabkan mereka memperlakukan manusia sebenar secara tidak berperikemanusiaan. Penyelidikan linguistik sosiobudaya menunjukkan bahawa mengandaikan hubungan yang terlalu kuat antara ekspresi fasih dan pemikiran fasih boleh membawa kepada berat sebelah terhadap orang yang berbeza. Sebagai contoh, orang yang mempunyai loghat asing sering dilihat sebagai kurang bijak dan kurang berkemungkinan mendapat pekerjaan yang mereka layak. Prasangka yang sama wujud terhadap dialek yang tidak dianggap berprestij, seperti bahasa Inggeris Selatan di Amerika Syarikat, terhadap orang pekak yang menggunakan bahasa isyarat dan terhadap orang yang mengalami gangguan bahasa seperti gagap. Kecondongan ini sangat berbahaya, sering membawa kepada andaian perkauman dan seksis yang telah terbukti berkali-kali sebagai tidak berasas.
Atas ialah kandungan terperinci Google menggunakan kecerdasan buatan untuk menyerlahkan kelemahan dalam kognisi manusia. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!