Rumah > Artikel > Peranti teknologi > Era model besar sudah tiba! Bagaimana untuk menangani risiko keselamatan data? Petua daripada pakar di Xiaomanyao AI Summit
Apakah sebab di sebalik populariti model bahasa besar seperti ChatGPT? Industri manakah yang akan membawa berita baik? Di manakah potensi risiko gelembung? Dari 25 hingga 26 Mei, lebih daripada 20 penyelidik dan pengamal dalam bidang AI membincangkan aplikasi AIGC di sub-forum Persidangan Teknologi Xiaomanyao 2023 - "Menuju Era Pintar dan Merealisasikan Lonjakan Tamadun" Sidang Kemuncak Khas AIGC dan paradigma perniagaan baharu, laluan pembangunan baharu dalam pelbagai industri dan bidang, serta potensi risiko keselamatan data dan isu etika.
Pada majlis pelepasan buku baharu di sidang kemuncak pada 26hb, Long Zhiyong, pengarang "The Age of Big Models", bekas pakar produk kanan dan timbalan pengurus besar unit perniagaan Alibaba, pengasas bersama dan ketua operasi pegawai syarikat pemula AI Silicon Valley, diterima Semasa temu bual, Nandu berkata terus terang bahawa AI generatif harus mengikuti model penyeragaman dahulu dan pembangunan kemudian Untuk menangani potensi risiko gelembung model besar, terdapat kedua-dua cara teknikal, seperti besar penilaian kendiri model, semakan algoritma pematuhan, dsb., serta proses manual, dan yang lebih penting, industri Hanya dengan mempunyai jangkaan yang munasabah tentang kesukaran dan kitaran menyelesaikan masalah kita boleh mengelakkan risiko yang disebabkan oleh terlalu optimistik.
Model besar mencetuskan pusingan baharu revolusi intelektual dan penstrukturan semula industri
"Otak" pintar sebenar di sebalik kecerdasan buatan generatif seperti ChatGPT ialah model bahasa yang besar! Kejayaan teknologi berdasarkan model pra-latihan generatif yang besar telah membawa pelbagai aplikasi kepada individu dan industri, mencetuskan pusingan baharu revolusi intelektual dan penstrukturan semula industri, dan membina hubungan kerjasama otak-komputer baharu.
Era model besar telah tiba! Long Zhiyong mendedahkan bahawa "Era Model Besar" menyediakan analisis mendalam dan penghuraian teknologi, aplikasi dan perubahan industri, menerangkan dengan jelas prinsip di sebalik model besar ChatGPT, menggambarkan bagaimana model besar akan memacu masyarakat ke era revolusi pintar dan kerjasama otak-komputer, dan Ringkaskan langkah berjaga-jaga dan metodologi untuk perusahaan menggunakan model besar dalam perniagaan mereka sendiri, dan memberikan cadangan untuk individu dan perusahaan untuk menghadapi perubahan. Menurutnya, model besar telah digunakan secara khusus dalam bidang seperti kerja pengetahuan, perusahaan komersial, dan hiburan kreatif, dan terutamanya membawa dua jenis inovasi: inovasi tambahan dan inovasi yang mengganggu.
Dalam ucaptama di sidang kemuncak itu, saintis kecerdasan buatan Liu Zhiyi turut menyebut bahawa kecerdasan buatan memperkasakan pelbagai bidang pembangunan ekonomi dan sosial, dan permintaan untuk model besar terus meningkat untuk menaik taraf industri dalam pelbagai bidang hiliran. Dianggarkan bahawa saiz pasaran industri kecerdasan buatan China akan menjadi 370 juta yuan pada tahun 2022, dan dijangka mencecah 1.537 bilion yuan pada tahun 2027. Ia dijangka akan terus menembusi ke dalam banyak bidang seperti pembuatan hiliran, pengangkutan, kewangan, dan penjagaan perubatan, dan mencapai pelaksanaan berskala besar.
"Era Model Besar" telah dikeluarkan pada 26 Mei di sidang kemuncak khas AIGC 2023 "Menuju Era Pintar dan Mencapai Lonjakan Tamadun".
AI Generatif membawa risiko seperti hakisan kepercayaan
Walau bagaimanapun, dengan penggunaan meluas model besar, potensi gelembung juga muncul. Kurang daripada 20 hari selepas Samsung memperkenalkan ChatGPT, terbongkar bahawa data sulit telah dibocorkan. Orang ramai semakin memberi perhatian kepada risiko undang-undang, isu etika dan isu keselamatan data yang dibawa oleh teknologi seperti perubahan wajah AI dan lukisan AI.
Apabila bercakap tentang "inovasi teknologi AI dan tadbir urus beretika dalam era model besar," Liu Zhiyi berkata bahawa kecerdasan buatan generatif mempunyai risiko tertentu Jika risiko ini tidak dipertimbangkan dan dikurangkan semasa mengembangkan skala, kelajuan transformasi mungkin diperlahankan. Kemas kini berterusan model terlatih untuk meningkatkan prestasi mungkin menimbulkan kebimbangan tentang data sensitif, privasi dan keselamatan. Setiap orang yang terlibat dalam pembangunan, penggunaan, perbincangan dan pengawalseliaan AI generatif harus berusaha untuk mengurus risiko seperti penghakisan kepercayaan, risiko jangka panjang pengangguran pekerja, berat sebelah dan diskriminasi, privasi data dan perlindungan harta intelek.
Liu Zhiyi berkongsi tiga pandangan dalam temu bual dengan Nandu. Beliau berkata bahawa pertama, teknologi AI secara semula jadi akan memasuki pelbagai bidang ekonomi negara dan sistem sosial, dan risiko akan berkembang kerana teknologi itu sendiri adalah kotak hitam, seperti rangkaian neural yang mendalam Melalui pengiraan teknologi dan algoritma, tidak seseorang tahu setiap langkahnya. Bagaimana untuk mencapainya adalah legap dan tidak dapat dijelaskan, dan terdapat risiko. Kedua, teknologi AI sering dikaitkan dengan penciptaan dunia digital. Sebagai contoh, pemalsuan mendalam, termasuk memalsukan bunyi dan imej, adalah untuk menukar identiti fizikal kepada identiti digital Semakin maju ekonomi digital, semakin mereka memerlukan sokongan teknikal ini dan semakin kuat pergantungan mereka, tetapi semakin besar risiko yang mereka bawa. Ketiga, negara saya amat mementingkan senario aplikasi dan ekologi Pelaksanaan senario aplikasi ini mestilah inovatif dan sudah pasti akan membawa risiko ini dengan inovasi senario, jadi akan ada penyeliaan awal. Pentadbiran Ruang Siber China mengeluarkan " "Langkah-langkah Pengurusan Perkhidmatan Kecerdasan Buatan Generatif (Draf untuk Komen)" dan "Pendapat Mengenai Memperkukuh Tadbir Urus Etika Sains dan Teknologi" yang dikeluarkan oleh Kementerian Sains dan Teknologi semuanya merupakan pertimbangan awal bagi beberapa risiko.
Long Zhiyong, pengarang "The Age of Big Models", bekas pakar produk kanan dan timbalan pengurus besar unit perniagaan Alibaba, dan pengasas bersama dan ketua pegawai operasi syarikat pemula AI Silicon Valley, bercakap di buku baharu majlis pelepasan.
Kemukakan keperluan untuk kebolehpercayaan dan ketelusan algoritma model besar
"Privasi data sememangnya merupakan isu penting untuk model besar GPT," kata Long Zhiyong dalam temu bual dengan Nandu Baru-baru ini, OpenAI membuat persediaan lebih awal apabila menjawab pertanyaan di Amerika Syarikat, sebagai contoh, ia menyediakan keupayaan untuk mematikan rekod sembang dalam ChatGPT Untuk pilihan peribadi, pengguna boleh menolak model besar untuk menggunakan data peribadi mereka sendiri untuk latihan untuk pelanggan korporat, OpenAI akan menyediakan model yang digunakan secara persendirian untuk mengelakkan syarikat bimbang tentang data latihan mereka yang diperhalusi dikongsi oleh. model besar kepada pesaing Langkah ini berkemungkinan Akan diterima pakai oleh model besar domestik.
Mengenai cara menangani potensi risiko gelembung model besar dan cara mengimbangi hubungan antara pengawalseliaan yang kukuh dan pembangunan kecerdasan buatan generatif, Long Zhiyong berkata secara terus terang bahawa AI generatif harus mengikuti model penyeragaman dahulu dan pembangunan kemudian. Sebagai pemegang utama tanggungjawab undang-undang untuk produk yang dijana AI, penyedia perkhidmatan model besar bertanggungjawab untuk ketepatan dan orientasi nilai kandungan AIGC, dan tekanan pematuhan mereka masih besar Ini adalah norma yang kuat, " dinyatakan dalam "Beijing Promosi Dalam dokumen "Beberapa Langkah untuk Pembangunan Inovatif Kecerdasan Buatan Am", disebutkan bahawa AI generatif harus digalakkan untuk mencapai aplikasi positif dalam bidang bukan perkhidmatan awam seperti penyelidikan saintifik, dan harus dipandu dalam bidang teras Zhongguancun untuk menjalankan juruterbang kawal selia yang inklusif dan berhemat Saya fikir ia adalah isyarat positif yang mencapai keseimbangan antara norma dan pembangunan."
Beliau menyebut bahawa pemikiran agensi kawal selia memerlukan penambahbaikan dalam kebolehpercayaan dan ketelusan algoritma besar. Dalam "The Age of Big Models," amaran telah dikeluarkan tentang potensi risiko gelembung industri, dan salah satu faktor utama ialah kebolehpercayaan dan ketelusan model besar. Ilya, ketua saintis OpenAI, percaya bahawa ilusi model besar dan pemalsuan maklumat adalah halangan utama yang menghalang penggunaan GPT dalam pelbagai industri. Sebab mengapa masalah halusinasi sukar untuk dihapuskan adalah pertama disebabkan oleh objektif latihan dan kaedah model besar Kedua, atribut kotak hitam AI sejak era pembelajaran mendalam adalah legap dan tidak dapat mengesan masalah khusus dalam model. Memandangkan mekanisme kemunculan keupayaan baharu model besar juga telus dan tidak dapat diramalkan, industri model besar perlu mengejar kebolehkawalan di tengah-tengah kehilangan kawalan dan mencari pembangunan dalam peraturan.
Dihasilkan oleh: Institut Penyelidikan Data Besar Nandu
Penyelidik: Yuan Jiongxian
Atas ialah kandungan terperinci Era model besar sudah tiba! Bagaimana untuk menangani risiko keselamatan data? Petua daripada pakar di Xiaomanyao AI Summit. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!