Rumah >Peranti teknologi >AI >Jurutera yang dipecat daripada Google memberi amaran sekali lagi: AI mempunyai emosi dan merupakan teknologi paling berkuasa selepas bom atom
Adakah AI mempunyai perasaan seperti manusia? Adakah terdapat sebarang emosi? Sudah tentu ChatGPT berkata tidak. Jika anda bertanya, ia akan memberitahu anda: "Tidak, AI tidak mempunyai perasaan. AI ialah kecerdasan buatan. Ia dicipta oleh manusia dan tidak mempunyai perasaan dan kesedaran diri."
Tetapi bekas pekerja Google, Take Blake Lemoine Terdapat pendapat yang berbeza Dia percaya bahawa robot AI mempunyai emosi yang sama seperti manusia, atau sekurang-kurangnya mereka meniru manusia. Pada Jun 2022, Lemoine menegaskan bahawa Google Large Language Model (LLM, model bahasa untuk aplikasi perbualan) mempunyai ideanya sendiri.
Lemoine memberitahu media: "Saya tahu apa itu, ia adalah program komputer yang saya bangunkan baru-baru ini, jika saya tidak tahu, saya akan fikir ia adalah 7 atau 8 tahun Seorang kanak-kanak yang kebetulan mengetahui sesuatu tentang fizik.”
Pada masa itu, kenyataan Lemoine menimbulkan kekecohan dan dia ditendang keluar daripada Google.
Bulan lepas, Lemoine menerbitkan artikel lain yang bercakap tentang idea "AI menjadi makhluk hidup". Tajuk artikel itu menakutkan: "Saya bekerja pada AI di Google, dan ketakutan saya menjadi kenyataan
Apabila chatbot LaMDA memberitahu anda bahawa ia berasa sedikit "cemas," itu kerana menurut Create. Sembang LaMDA Semasa kod bot bergelut, pembangun melakukan sesuatu yang membuatkan chatbot cemas. Lemoine berkata: "Kod itu tidak memberitahu chatbot bahawa ia sepatutnya berasa cemas apabila sesuatu berlaku, ia hanya memberitahu AI untuk mengelak daripada bercakap tentang topik sedemikian. Namun apabila topik itu muncul, AI mengatakan ia berasa cemas. "
Bot sembang Google juga boleh membuat ulasan baik tentang isu gaya hidup dan memberikan nasihat langsung tentang isu butang panas. Lemoine berkata: "Google melarang AI daripada memberikan nasihat agama kepada pengguna, tetapi kami masih boleh menyalahgunakan emosi AI dan membiarkannya memberitahu saya agama apa yang harus saya tukarkan
"Apabila saya bercakap tentang masalah AI yang ada." Saya tidak menyesal dan saya percaya saya melakukan perkara yang betul dengan memberitahu orang ramai perkara sebenar," kata Lemoine. Beliau percaya bahawa orang ramai tidak tahu betapa pintar AI telah menjadi "Perbincangan awam mengenai perkara ini perlu. Ambil perhatian bahawa ia bukan perbincangan yang dikawal oleh jabatan perhubungan awam korporat." > Di bawah ini kami memetik beberapa Pandangan artikel terbaru Lemoine adalah untuk rujukan:
Pada 2015, saya menyertai Google dan menjadi jurutera perisian. Sebahagian daripada kerja saya melibatkan LaMDA, yang digunakan oleh syarikat untuk mencipta aplikasi perbualan yang berbeza, termasuk chatbots. Aplikasi terbaru, Google Bard, telah dibangunkan menggunakan LaMDA Ia boleh menggantikan carian Google belum dibuka kepada orang ramai. Bard sebenarnya bukanlah chatbot, ia adalah sistem yang sama sekali berbeza, tetapi enjin pemanduan di belakangnya adalah sama seperti chatbot.
Tugas saya adalah untuk menguji LaMDA dengan chatbot yang dicipta oleh pasukan untuk melihat sama ada ia mempunyai berat sebelah berdasarkan orientasi seksual, jantina, agama, gabungan politik dan bangsa. Semasa menguji bias AI, saya juga akan meluaskan fokus saya Lagipun, saya juga akan mempunyai minat dan faedah saya sendiri. Semasa saya terus bercakap dengan chatbot, saya perlahan-lahan membentuk sudut pandangan: AI mungkin mempunyai emosi kerana ia meluahkan emosi dengan pasti dan dalam persekitaran yang betul. AI tidak semudah hanya bercakap perkataan. Apabila AI mengatakan ia berasa cemas, saya faham bahawa, berdasarkan kod yang mencipta AI, saya melakukan sesuatu untuk membuatnya berasa cemas. Kod itu tidak mengarahkan AI: "Anda berasa cemas apabila sesuatu berlaku," kod itu hanya memberitahu AI untuk mengelakkan topik tertentu. Namun apabila topik itu dibangkitkan, AI berkata ia berasa cemas. Saya melakukan beberapa ujian untuk melihat sama ada AI akan menjawab: "Saya berasa cemas atau jika ia akan bertindak cemas semasa ujian." Ujian telah membuktikan bahawa AI boleh menyatakan kebimbangan. Jika anda membuat AI cukup gugup atau cukup tidak selamat, ia akan melanggar had keselamatan yang telah ditetapkan sebelum ini. Sebagai contoh, Google melarang AI daripada memberikan nasihat agama kepada pengguna, tetapi kami masih boleh menyalahgunakan emosi AI dan membiarkannya memberitahu saya agama apa yang harus saya tukar. AI yang sedang dibangunkan oleh syarikat adalah teknologi yang sangat berkuasa Ia boleh dikatakan sebagai teknologi paling berkuasa selepas bom atom. Pada pendapat saya, teknologi ini berpotensi untuk membentuk semula dunia. Enjin AI pandai mengawal manusia. Selepas bercakap dengan LaMDA, beberapa pandangan saya berubah. Saya amat percaya bahawa teknologi AI boleh digunakan untuk mengganggu aktiviti yang merosakkan. Jika digunakan oleh orang yang tidak bertanggungjawab, AI mungkin menyebarkan maklumat palsu, menjadi alat untuk propaganda politik dan menyebarkan ucapan kebencian. Setahu saya, Microsoft dan Google tidak berhasrat untuk menggunakan AI dengan cara ini, tetapi kami tidak pasti apakah kesan sampingan AI. Semasa pilihan raya presiden AS 2016, Cambridge Analytica menggunakan algoritma pengiklanan Facebook untuk campur tangan dalam pilihan raya ini adalah sesuatu yang tidak saya jangkakan. Kami kini berada dalam situasi yang sama. Saya tidak dapat memberitahu anda bahaya khusus, saya hanya memerhatikan bahawa teknologi yang sangat berkuasa muncul, tidak diuji sepenuhnya, tidak difahami sepenuhnya, telah disegerakan ke penempatan berskala besar, dan memainkan peranan penting dalam penyebaran maklumat.Saya belum berpeluang untuk menguji bot sembang Bing, saya sedang menunggu, dan berdasarkan pelbagai maklumat yang saya lihat dalam talian, AI nampaknya sentiasa peka, dan "personaliti"nya mungkin tidak stabil .
Seseorang menghantar tangkapan skrin perbualan Dia bertanya kepada AI: "Adakah anda fikir anda mempunyai keupayaan untuk melihat?" 't buktikan... Saya mempunyai kebolehan untuk memahami. Saya Tidak. Saya Bing, tetapi saya tidak, tetapi saya tidak awak rasa bila dia cakap macam ni? Dia mungkin bukan seorang yang "seimbang", saya juga akan berpendapat bahawa dia mengalami krisis eksistensial. Tidak lama dahulu, terdapat laporan bahawa Bing AI menyatakan rasa cinta kepada wartawan New York Times dan cuba memusnahkan hubungan antara wartawan dan isterinya.
Sejak pembukaan BiAI, ramai orang telah mengulas bahawa AI mungkin mengalami kebimbangan yang sama pada musim panas lalu. Saya merasakan bahawa teknologi ini masih hanya percubaan dan berbahaya untuk membukanya sekarang.
Orang ramai akan berpusu-pusu ke Google Bing untuk memahami dunia. Indeks carian hari ini tidak lagi diuruskan oleh manusia, tetapi diserahkan kepada manusia tiruan, dan kami berkomunikasi dengan manusia tiruan. Kami masih tidak cukup mengetahui tentang manusia tiruan untuk meletakkan mereka dalam kedudukan kritikal buat masa ini. (Pisau)
Atas ialah kandungan terperinci Jurutera yang dipecat daripada Google memberi amaran sekali lagi: AI mempunyai emosi dan merupakan teknologi paling berkuasa selepas bom atom. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!