Rumah  >  Artikel  >  Peranti teknologi  >  Lihat ChatGPT!

Lihat ChatGPT!

PHPz
PHPzke hadapan
2023-04-12 23:10:011198semak imbas
Pengarang |. Peter Wayner

Planner |. Bill Gates, Nadella dari Microsoft, Musk dari Tesla, Robin Li, Hongyi Zhou, Zhang Chaoyang dari China, dan juga Zheng Yuanjie, seorang pengarang yang tidak berada dalam lingkungan teknologi, telah mula percaya bahawa "penulis mungkin menganggur pada masa hadapan " kerana kemunculan ChatGPT. "Ya. Untuk contoh lain, Brin, bos Google yang sudah bersara, berasa cemas, bekas pengasas bersama Meituan, Wang Huiwen, juga keluar semula, menyiarkan jawatan wira untuk merekrut bakat AI dan mencipta OpenAI Cina.

AI Generatif, yang diwakili oleh ChatGPT dan DALL-E, menulis teks yang penuh dengan butiran, idea dan pengetahuan yang kaya dalam siri gaya yang mempesonakan, mengeluarkan jawapan dan karya seni yang Cantik. Artifak yang terhasil sangat pelbagai dan unik sehingga sukar untuk mempercayai ia berasal dari mesin.

Sehinggakan sesetengah pemerhati percaya bahawa AI baharu ini akhirnya telah melepasi ambang ujian Turing. Dalam kata-kata beberapa: ambang tidak sedikit melebihi, tetapi ditiup berkeping-keping. Seni AI ini sangat bagus sehingga "kumpulan orang lain sudah berada di ambang pengangguran."

Walau bagaimanapun, selepas lebih sebulan penapaian, rasa hairan orang ramai terhadap AI semakin pudar, dan "halo bintang asal" AI generatif juga beransur-ansur hilang. Sebagai contoh, beberapa pemerhati bertanya soalan dengan cara yang betul, manakala ChatGpt "meludah" sesuatu yang bodoh atau salah.

Sebagai contoh lain, sesetengah orang menggunakan bom logik lama yang popular dalam kelas seni sekolah rendah, meminta untuk mengambil gambar matahari pada waktu malam atau beruang kutub dalam ribut salji. Yang lain bertanya soalan orang yang tidak dikenali, melihat had kesedaran konteks AI.

Artikel ini meringkaskan "Sepuluh Dosa" AI generatif. Tuduhan ini mungkin berbunyi seperti anggur masam (saya juga cemburu dengan kuasa AI. Jika dibiarkan mesin mengambil alih, saya juga akan kehilangan pekerjaan saya, haha~) tetapi ia bertujuan untuk menjadi peringatan, bukan untuk memburuk-burukkan.

1. Plagiarisme lebih sukar dikesan

Apabila model AI generatif seperti DALL-E dan ChatGPT dicipta, ia sebenarnya hanya dicipta daripada ratusan data dalam latihan set Cipta corak baharu daripada beribu-ribu contoh. Hasilnya ialah sintesis potong dan tampal yang diambil daripada pelbagai sumber, dan apabila manusia melakukan ini, ia juga dikenali sebagai plagiarisme.

Sudah tentu, manusia juga belajar melalui peniruan, tetapi dalam beberapa kes, jenis "mengambil" dan "meminjam" AI ini sangat jelas sehingga membuatkan seorang guru sekolah rendah begitu marah kerana dia tidak dapat mengajar pelajarnya. Kandungan yang dijana AI ini terdiri daripada sejumlah besar teks yang dipersembahkan lebih kurang verbatim. Walau bagaimanapun, kadangkala terdapat doping atau sintesis yang mencukupi sehingga sekumpulan profesor universiti mungkin menghadapi masalah untuk mengesan sumbernya. Apapun, yang hilang ialah keunikan. Walaupun berkilauan seperti mesin ini, mereka tidak dapat menghasilkan sesuatu yang benar-benar baru.

2. Hak Cipta: Apabila kemanusiaan mengambil alih, litigasi meningkat

Walaupun plagiarisme sebahagian besarnya merupakan isu sekolah, undang-undang hak cipta terpakai kepada pasaran. Apabila seseorang dihimpit daripada kerja orang lain, mereka boleh dibawa ke mahkamah, yang boleh mengenakan denda berjuta-juta dolar. Tetapi bagaimana dengan AI? Adakah peraturan yang sama dikenakan kepada mereka?

Undang-undang hak cipta ialah subjek yang kompleks, dan isu identiti undang-undang AI generatif akan mengambil masa bertahun-tahun untuk diselesaikan. Tetapi satu perkara tidak sukar untuk diramalkan: apabila kecerdasan buatan cukup baik untuk menggantikan pekerja, mereka yang diganti pasti akan menggunakan "masa lapang di rumah" mereka untuk memfailkan tuntutan mahkamah.

3. Manusia bertindak sebagai buruh tanpa gaji untuk model

Plagiarisme dan hak cipta bukan satu-satunya isu undang-undang yang dibangkitkan oleh AI generatif. Peguam sudah merumuskan isu etika baharu dalam litigasi. Sebagai contoh, adakah syarikat yang membuat program lukisan dibenarkan untuk mengumpul data tentang tingkah laku lukisan pengguna manusia dan boleh menggunakan data tersebut untuk latihan AI? Berdasarkan ini, patutkah seseorang diberi pampasan untuk tenaga kerja kreatif yang digunakan? Kejayaan semasa AI sebahagian besarnya berpunca daripada akses kepada data. Jadi, bolehkah ia berlaku apabila orang ramai yang menjana data mahukan sekeping pai? Apakah keadilan? Apakah undang-undang?

4. Pengumpulan maklumat bukanlah penciptaan pengetahuan

AI sangat baik dalam meniru jenis kecerdasan yang manusia mengambil masa bertahun-tahun untuk berkembang. Apabila seorang sarjana dapat memperkenalkan artis abad ke-17 yang tidak dikenali, atau mengarang muzik baharu dengan struktur tonal Renaissance yang hampir dilupakan, ada sebab untuk kagum. Kami tahu bahawa mengembangkan pengetahuan yang mendalam ini memerlukan pengajian bertahun-tahun. Apabila AI melakukan perkara yang sama ini dengan hanya beberapa bulan latihan, hasilnya boleh menjadi sangat tepat dan betul, tetapi ada sesuatu yang hilang.

Kecerdasan buatan nampaknya hanya meniru sisi kreativiti manusia yang menarik dan tidak dapat diramalkan, tetapi ia "serupa dalam bentuk tetapi tidak serupa dalam semangat" dan tidak boleh benar-benar melakukan ini. Pada masa yang sama, ketidakpastian adalah yang mendorong inovasi kreatif. Industri fesyen dan hiburan bukan sahaja ketagih kepada perubahan, tetapi juga ditakrifkan dengan "perubahan".

Malah, kedua-dua kecerdasan buatan dan kecerdasan manusia mempunyai bidang kepakaran mereka sendiri. Contohnya: Jika mesin terlatih boleh mencari resit lama yang betul dalam kotak digital yang dipenuhi dengan berbilion-bilion rekod, ia juga boleh belajar tentang orang seperti Aphra Behn (penulis abad ke-17 pertama yang terkenal dengan penulisan Semuanya seorang penyair seperti British). perempuan (yang mencari rezeki) tahu. Malah boleh dibayangkan bahawa mesin telah dibina untuk menguraikan maksud hieroglif Maya.

5. Kepintaran tidak berubah dan sukar untuk berkembang

Apabila bercakap tentang kecerdasan, kecerdasan buatan pada asasnya adalah mekanikal dan berasaskan peraturan. Sebaik sahaja AI melalui satu set data latihan, ia mencipta model yang tidak benar-benar berubah. Sesetengah jurutera dan saintis data membayangkan melatih semula model AI secara beransur-ansur dari semasa ke semasa supaya mesin boleh belajar menyesuaikan diri.

Tetapi, dalam kebanyakan kes, ideanya adalah untuk mencipta set neuron kompleks yang mengekodkan beberapa pengetahuan dalam bentuk tetap. "Ketekalan" ini ada tempatnya, dan mungkin terpakai pada industri tertentu. Tetapi ia juga merupakan kelemahannya. Bahayanya ialah kognisinya akan sentiasa berada dalam "kitaran era" data latihannya.

Apa yang berlaku jika kita menjadi sangat bergantung pada AI generatif sehingga kita tidak lagi boleh mencipta bahan baharu untuk model latihan?

6 Pintu kepada privasi dan keselamatan terlalu longgar

Data latihan untuk kecerdasan buatan perlu datang dari suatu tempat, dan kami tidak selalunya begitu pasti apa yang berlaku di dalam rangkaian saraf Apa yang akan muncul. Bagaimana jika AI membocorkan maklumat peribadi daripada data latihannya?

Lebih teruk lagi, mengunci AI adalah lebih sukar kerana ia direka bentuk untuk menjadi sangat fleksibel. Pangkalan data perhubungan boleh menyekat akses kepada jadual tertentu dengan maklumat peribadi. Walau bagaimanapun, AI boleh membuat pertanyaan dalam berpuluh-puluh cara yang berbeza. Penyerang akan cepat belajar cara bertanya soalan yang betul dengan cara yang betul untuk mendapatkan data sensitif yang mereka inginkan.

Sebagai contoh, jika penyerang mengintai lokasi aset, AI juga boleh digunakan untuk meminta latitud dan longitud. Penyerang yang bijak mungkin bertanyakan saat tepat matahari akan terbit di lokasi tersebut beberapa minggu kemudian. AI yang teliti akan melakukan yang terbaik untuk memberikan jawapan. Bagaimana untuk mengajar kecerdasan buatan untuk melindungi data peribadi juga merupakan masalah yang sukar.

7. The Unknown Land of Prejudice

Sejak era kerangka utama, komuniti teknologi telah mencipta konsep "Sampah Masuk, Sampah Keluar" (GIGO), juga dikenali sebagai GIGO Biarkan orang ramai melihat inti masalah komputer. Banyak masalah dengan AI datang daripada data latihan yang lemah. Jika set data tidak tepat atau berat sebelah, keputusan akan mencerminkan perkara ini.

Perkakasan teras AI generatif secara teorinya dipacu logik, tetapi manusia yang membina dan melatih mesin tidak. Pendapat pra-kehakiman dan berat sebelah gabungan politik telah ditunjukkan untuk diperkenalkan ke dalam model AI. Mungkin seseorang menggunakan data berat sebelah untuk mencipta model. Mungkin mereka menambah semacam korpus latihan untuk menghalang model daripada menjawab soalan panas tertentu. Mungkin mereka memasukkan jawapan berwayar dan kemudian ia menjadi sukar untuk dikesan.

Kecerdasan buatan sememangnya alat yang baik, tetapi ini juga bermakna terdapat 10,000 cara untuk orang yang mempunyai motif tersembunyi untuk menjadikan AI pembawa kepercayaan berbahaya yang sangat baik.

Berikut adalah contoh pinjaman pembelian rumah asing. Dalam kes ini, sistem AI yang digunakan untuk menilai bakal penyewa bergantung pada rekod mahkamah dan set data lain, yang kebanyakannya mempunyai berat sebelah sendiri, mencerminkan perkauman sistemik, seksisme, dan kebolehan, dan terkenal ralat. Walaupun sesetengah orang jelas mempunyai keupayaan untuk membayar sewa, mereka sering dinafikan pinjaman rumah kerana algoritma saringan penyewa menganggap mereka tidak layak atau tidak layak. Ini juga jawapan yang sering kita dengar daripada jurujual: Data/sistem/AI yang besar mendorong ini.

Lihat ChatGPT!

Gelagat ChatGPT selepas tersinggung

8.

Mudah untuk memaafkan model AI atas kesilapan kerana mereka melakukan banyak perkara lain. Cuma banyak kesilapan sukar diramal kerana kecerdasan buatan berfikir secara berbeza daripada manusia.

Sebagai contoh, ramai pengguna ciri teks ke imej mendapati AI melakukan kesilapan mudah seperti mengira. Manusia mempelajari asas aritmetik pada awal sekolah rendah, dan kemudian kita menggunakan kemahiran ini dalam pelbagai cara. Minta seorang kanak-kanak berumur 10 tahun melukis sotong, dan kanak-kanak itu hampir pasti akan mengesahkan bahawa ia mempunyai lapan kaki. Versi semasa kepintaran buatan cenderung terganggu apabila melibatkan penggunaan matematik yang abstrak dan kontekstual.

Ini boleh ditukar dengan mudah jika pembina model memberi perhatian kepada kesilapan ini, tetapi terdapat ralat lain yang tidak diketahui juga. Kepintaran mesin akan berbeza daripada kecerdasan manusia, yang bermaksud bahawa kebodohan mesin juga akan berbeza.

9 Mesin juga boleh berbohong dan mudah menipu orang

Kadang-kadang, tanpa disedari, kita manusia cenderung terjerumus ke dalam perangkap AI. Di titik buta pengetahuan, kita cenderung mempercayai AI. Jika AI memberitahu kami bahawa Henry VIII adalah raja yang membunuh isterinya, kami tidak akan mempersoalkannya kerana kami sendiri tidak mengetahui sejarah ini. Kita cenderung untuk menganggap bahawa kecerdasan buatan adalah betul, sama seperti apabila kita, sebagai ahli penonton di persidangan, melihat hos berkarisma melambai, kita juga lalai untuk mempercayai bahawa "orang di atas pentas lebih tahu daripada saya."

Masalah paling rumit bagi pengguna AI generatif ialah mengetahui bila AI ​​berlaku salah. "Mesin tidak berbohong" sering menjadi mantra kami, tetapi sebenarnya ini tidak berlaku. Walaupun mesin tidak boleh berbohong seperti manusia, kesilapan yang mereka lakukan adalah lebih berbahaya.

Mereka boleh menulis perenggan data yang betul-betul tepat tanpa sesiapa mengetahui apa yang berlaku, dan kemudian beralih kepada spekulasi atau pembohongan. AI juga boleh melakukan seni "campuran kebenaran dan kepalsuan". Tetapi perbezaannya ialah pengedar kereta terpakai atau pemain poker sering tahu apabila mereka berbohong Kebanyakan orang boleh memberitahu di mana mereka berbohong, tetapi AI tidak boleh.

10. Penyalahgunaan yang tidak terhingga: Model ekonomi membimbangkan

Kebolehulangan yang tidak terhingga bagi kandungan digital telah menyebabkan banyak model ekonomi yang dibina berdasarkan kekurangan menjadi masalah. AI Generatif akan terus memecahkan corak ini. AI Generatif akan menyebabkan beberapa penulis dan artis tidak bekerja, dan ia membatalkan banyak peraturan ekonomi yang kita semua jalani.

  • Adakah kandungan yang disokong iklan akan berfungsi apabila kedua-dua iklan dan kandungan boleh diadun semula dan dilahirkan semula tanpa henti?
  • Adakah bahagian internet yang percuma akan bertukar menjadi dunia "robot mengklik pada iklan halaman", semuanya dihasilkan oleh kecerdasan buatan dan mampu mereplikasi tanpa had?
  • "Kemakmuran dan kelimpahan" yang dicapai dengan mudah boleh mengganggu setiap sudut ekonomi.
  • Jika token yang tidak boleh digunakan boleh direplikasi selama-lamanya, adakah orang akan terus membayarnya?
  • Jika membuat seni begitu mudah, adakah ia masih akan dihormati? Adakah ia masih istimewa? Adakah sesiapa keberatan jika ia tidak istimewa?
  • Adakah segala-galanya hilang nilainya apabila segala-galanya dipandang remeh?
  • Adakah ini yang dimaksudkan oleh Shakespeare apabila dia bercakap tentang "sling dan anak panah nasib yang keterlaluan"?

Jangan cuba jawab sendiri, biarkan AI generatif melakukannya sendiri. Ia mungkin mengembalikan jawapan yang menarik, unik dan pelik, dan kemungkinan besar ia akan mengikut garis "kekaburan"—jawapan yang agak misteri, di tepi betul dan salah, dan bukan ikan mahupun unggas.

Pautan asal: https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html

Atas ialah kandungan terperinci Lihat ChatGPT!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam