Rumah > Artikel > Peranti teknologi > Bagaimana untuk mengawal selia bot AI generatif seperti ChatGPT dan Bard?
Penyelidikan menunjukkan bahawa penggunaan meluas alatan kecerdasan buatan am mewujudkan cabaran baharu bagi pengawal selia yang mungkin sukar mereka hadapi. Malah, cara mengawal selia alatan AI generatif seperti chatbot OpenAI ChatGPT telah menjadi masalah yang menyusahkan pembuat dasar di seluruh dunia.
ChatGPT boleh menjana sebarang jenis kandungan melalui kata kunci dan dilatih untuk memasukkan sejumlah besar pengetahuan. Penyelesaiannya akan melibatkan penilaian risiko, yang sebahagian daripadanya, khususnya, harus dipantau dengan teliti.
Dua bulan selepas pelancaran ChatGPT, chatbot AI ini menjadi produk pengguna yang paling pesat berkembang dalam sejarah, dengan lebih 100 juta pengguna aktif pada Januari tahun ini sahaja. Ini telah mendorong syarikat teknologi besar di seluruh dunia untuk memberi perhatian kepada atau mempercepatkan pelancaran sistem AI, dan telah membawa tenaga baharu kepada bidang AI perbualan.
Microsoft sedang membenamkan AI perbualan dalam penyemak imbasnya, enjin carian dan rangkaian produk yang lebih luas, Google bercadang untuk melakukan perkara yang sama dengan chatbot Bard dan penyepaduan lain dalam Gmail dan Google Cloud dan gergasi Tech yang lain juga melancarkan mereka sendiri; chatbots; pemula seperti Jasper dan Quora juga membawa AI generatif dan perbualan ke dalam pasaran pengguna dan perusahaan arus perdana...
AI Generatif mempercepatkan Permintaan peraturan
Maklumat salah yang meluas dan e-mel pancingan data yang sukar ditemui menimbulkan risiko sebenar kepada aplikasi AI, yang boleh membawa kepada kesilapan diagnosis dan ralat perubatan jika digunakan untuk maklumat perubatan. Terdapat juga risiko berat sebelah yang tinggi jika data yang digunakan untuk mengisi model tidak pelbagai.
Walaupun Microsoft mempunyai model yang dilatih semula yang lebih tepat dan pembekal seperti AI21 Inc. sedang berusaha untuk mengesahkan kandungan yang dijana terhadap data langsung, AI yang dijana "kelihatan nyata tetapi tidak tepat sama sekali" Risiko tindak balas kekal tinggi.
Pesuruhjaya Pasaran Dalaman Kesatuan Eropah Thierry Breton baru-baru ini menyatakan bahawa bil AI EU akan datang akan merangkumi peruntukan untuk sistem AI generatif seperti ChatGPT dan Bard.
"Seperti yang ditunjukkan oleh ChatGPT, penyelesaian AI boleh menawarkan peluang besar kepada perniagaan dan rakyat, tetapi ia juga boleh membawa risiko, itulah sebabnya kami memerlukan rangka kerja kawal selia yang kukuh untuk memastikan AI Dipercayai berasaskan kualiti untuk data," katanya.
Pembangunan AI perlu beretika
Pembekal perisian analitis SAS menggariskan beberapa risiko yang ditimbulkan oleh AI dalam laporan bertajuk "AI dan Inovasi Bertanggungjawab" . Dr. Kirk Borne, pengarang laporan itu, berkata: “AI telah menjadi begitu berkuasa dan begitu meluas sehingga semakin sukar untuk mengetahui sama ada kandungan yang dihasilkannya adalah benar atau palsu, baik atau buruk Kepantasan penggunaan teknologi ini jauh lebih pantas daripada kadar peraturan.”
Dr Iain Brown, ketua sains data di SAS UK dan Ireland, berkata kedua-dua kerajaan dan industri mempunyai tanggungjawab untuk memastikan bahawa AI digunakan untuk kebaikan dan bukannya kemudaratan. Ini termasuk menggunakan rangka kerja etika untuk membimbing pembangunan model AI dan tadbir urus yang ketat untuk memastikan model ini membuat keputusan yang adil, telus dan saksama. Kita boleh membandingkan model AI dengan model pencabar dan mengoptimumkannya apabila data baharu tersedia. ”
Pakar lain percaya bahawa pembangun perisian akan dikehendaki mengurangkan risiko yang diwakili oleh perisian, dan hanya aktiviti yang paling berisiko akan menghadapi langkah pengawalseliaan yang lebih ketat
Ropes & Grey LLP (Ropes & Grey ) Penolong Data, Privasi dan Keselamatan Siber Edward Machin berkata bahawa tidak dapat dielakkan bahawa teknologi seperti ChatGPT, yang kelihatan sekelip mata, akan diterima pakai lebih cepat daripada peraturan kawal selia, terutamanya dalam persekitaran yang sudah sukar seperti AI
Beliau berkata: “Walaupun dasar kawal selia untuk teknologi ini akan diperkenalkan, kaedah dan masa kawal selia masih perlu dilihat. Pembekal sistem AI akan menanggung beban, tetapi pengimport dan pengedar (sekurang-kurangnya di EU) juga akan menanggung potensi obligasi. Ini mungkin meletakkan beberapa pembangun perisian sumber terbuka dalam masalah. Bagaimana tanggungjawab pembangun sumber terbuka dan pihak hiliran lain dikendalikan boleh memberi kesan yang menyedihkan ke atas kesediaan individu ini untuk berinovasi dan menjalankan penyelidikan. ”
Peraturan Hak Cipta, Privasi dan GDPR
Di samping itu, Machin percaya bahawa sebagai tambahan kepada peraturan keseluruhan AI, terdapat juga isu mengenai hak cipta dan privasi kandungan yang dihasilkannya. Contohnya, tidak jelas betapa mudahnya (jika ada) pembangun boleh memproses permintaan individu untuk dialih keluar atau pembetulan, mahupun cara mereka boleh mengikis tapak pihak ketiga daripada tapak mereka dengan cara yang mungkin melanggar syarat perkhidmatan mereka. Banyak data.
Lilian Edwards, seorang profesor undang-undang, inovasi dan masyarakat di Universiti Newcastle yang bekerja pada peraturan AI di Institut Alan Turing, berkata beberapa model ini akan tertakluk kepada peraturan GDPR, yang boleh menyebabkan untuk Mengeluarkan perintah untuk memadamkan data latihan atau bahkan algoritma itu sendiri Jika pemilik tapak web kehilangan trafik ke carian AI, ia juga boleh menamatkan pengikisan besar-besaran data daripada internet yang pada masa ini menguasai enjin carian seperti Google
Beliau menegaskan bahawa masalah terbesar ialah sifat umum model AI ini. Ini menjadikan mereka sukar dikawal di bawah Akta AI EU, yang dirangka berdasarkan risiko yang dihadapi, kerana sukar untuk memberitahu perkara yang akan dilakukan oleh pengguna akhir dengan teknologi tersebut. Suruhanjaya Eropah cuba menambah peraturan untuk mengawal jenis teknologi ini.
Meningkatkan ketelusan algoritma mungkin merupakan penyelesaian. "Big Tech akan mula melobi pengawal selia, berkata, 'Anda tidak boleh mengenakan kewajipan ini kepada kami kerana kami tidak dapat membayangkan setiap risiko atau penggunaan pada masa hadapan,'" kata Edwards "Terdapat cara untuk menangani masalah ini untuk Syarikat Teknologi Besar membantu lebih kurang, termasuk dengan menjadikan algoritma asas lebih telus Kami berada dalam masa yang sukar dan memerlukan insentif untuk bergerak ke arah keterbukaan dan ketelusan untuk lebih memahami cara AI membuat keputusan dan menjana kandungan >
Dia juga berkata: “Ini adalah masalah yang sama yang dihadapi oleh orang ramai apabila menggunakan teknologi yang lebih membosankan, kerana teknologi adalah global dan orang yang mempunyai niat buruk berada di mana-mana, jadi sangat sukar untuk mengawalnya sukar untuk dipadankan dengan peraturan AI. " Adam Leon Smith, ketua pegawai teknologi DragonFly, penyedia perkhidmatan perundingan AI, berkata: "Pengawal selia global semakin sedar bahawa jika penggunaan sebenar teknologi AI tidak dipertimbangkan, situasi akan berlaku. , adalah sukar untuk mengawal selia keperluan ketepatan dan berat sebelah hanya boleh dipertimbangkan dalam konteks penggunaan, dan sukar untuk mempertimbangkan keperluan risiko, hak dan kebebasan sebelum diterima pakai secara besar-besaran ”“Pengawal selia boleh. Ketelusan dan pembalakan diberi mandat oleh penyedia teknologi AI Namun, hanya pengguna yang mengendalikan dan menggunakan sistem model bahasa besar (LLM) untuk tujuan tertentu boleh memahami risiko dan melaksanakan langkah mitigasi melalui penyeliaan manual atau pemantauan berterusan.Peraturan AI akan berlaku
Terdapat perbahasan besar-besaran mengenai peraturan AI dalam Suruhanjaya Eropah, dan pengawal selia data mesti menanganinya dengan serius. Akhirnya, Smith percaya bahawa apabila pengawal selia memberi lebih perhatian kepada isu ini, penyedia AI akan mula menyenaraikan tujuan teknologi "mungkin tidak digunakan", termasuk mengeluarkan penafian undang-undang sebelum pengguna log masuk, meletakkan mereka dalam kedudukan berasaskan risiko di luar skop tindakan peraturan. Leon Smith berkata bahawa amalan terbaik semasa untuk mengurus sistem AI hampir tidak melibatkan model bahasa berskala besar, yang merupakan bidang baru muncul yang sedang membangun dengan sangat pesat. Walaupun terdapat banyak kerja yang perlu dilakukan dalam bidang ini, banyak syarikat menawarkan teknologi ini dan tidak membantu menentukannya. Ketua Pegawai Teknologi OpenAI Mira Muratti juga berkata bahawa alatan AI generatif perlu dikawal, "Adalah penting bagi syarikat seperti kami untuk menyedarkan orang ramai tentang perkara ini dengan cara yang terkawal dan bertanggungjawab." Tetapi dia juga berkata bahawa selain mengawal selia pembekal AI, lebih banyak pelaburan dalam sistem AI diperlukan, termasuk daripada agensi kawal selia dan kerajaan. ”Atas ialah kandungan terperinci Bagaimana untuk mengawal selia bot AI generatif seperti ChatGPT dan Bard?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!