Rumah  >  Artikel  >  Peranti teknologi  >  Kesan pengurusan data pada AI generatif

Kesan pengurusan data pada AI generatif

WBOY
WBOYke hadapan
2023-06-07 11:15:36869semak imbas

2023 akan menjadi permulaan arus perdana bagi apa yang kita ingat sebagai era AI, didorong oleh teknologi yang diperkatakan oleh semua orang: ChatGPT.

Model bahasa AI Generatif seperti ChatGPT telah menangkap imaginasi kami kerana buat pertama kalinya kami dapat melihat AI bercakap dengan kami seperti orang sebenar dan menghasilkan Esei, puisi dan kandungan baharu lain yang kami mencari kreatif. Dengan penyelesaian AI generatif, mungkin terdapat potensi kejayaan untuk meningkatkan kelajuan inovasi, produktiviti dan kecekapan dalam menyampaikan nilai. Walaupun terdapat batasan, terdapat banyak ruang untuk meningkatkan kesedaran tentang privasi data dan amalan terbaik pengurusan mereka.

Baru-baru ini, ramai dalam bidang teknologi dan keselamatan telah membunyikan penggera mengenai kekurangan pemahaman dan pagar pengawal kawal selia yang mencukupi di sekitar penggunaan teknologi kecerdasan buatan. Kebimbangan telah dinyatakan tentang kebolehpercayaan output alat AI, hak harta intelek, pendedahan data sensitif dan pelanggaran isu privasi dan keselamatan.

Insiden Samsung dengan ChatGPT menjadi tajuk utama kerana gergasi teknologi itu secara tidak sengaja membocorkan rahsianya kepada ChatGPT. Samsung bukan satu-satunya syarikat yang melakukan ini: Kajian Cyberhaven mendapati bahawa 4% pekerja telah memasukkan data syarikat sensitif ke dalam model bahasa yang besar. Ramai orang tidak menyedari bahawa apabila mereka menggunakan data perusahaan untuk melatih model, syarikat AI mungkin menggunakan semula data tersebut pada masa lain.

Seolah-olah kami tidak memerlukan apa-apa lagi makanan jenayah siber, syarikat risikan keselamatan siber RecordedFuture mendedahkan: "Dalam beberapa hari selepas ChatGPT dikeluarkan, kami mendapati Ramai pelakon ancaman yang berkongsi perisian hasad yang cacat tetapi berfungsi sepenuhnya, tutorial kejuruteraan sosial, skim menjana wang dan banyak lagi - semuanya dengan menggunakan ChatGPT ”

Persendirian, apabila seseorang mendaftar menggunakan alat seperti ChatGPT, ia mempunyai akses kepada alamat IP, tetapan penyemak imbas dan aktiviti penyemakan imbas - sama seperti enjin carian hari ini, kata Jose Blaya, pengarah Kejuruteraan Akses Internet. Tetapi pertaruhannya lebih tinggi kerana ia boleh mendedahkan kepercayaan politik atau orientasi seksual tanpa persetujuan seseorang, dan boleh bermakna maklumat yang memalukan atau malah merosakkan kerjaya dikeluarkan.

Jelas sekali, kami memerlukan peraturan dan piawaian yang lebih baik untuk melaksanakan teknologi AI baharu ini. Tetapi terdapat kekurangan perbincangan tentang peranan penting tadbir urus data dan pengurusan data, yang boleh memainkan peranan penting dalam penerimaan perusahaan dan penggunaan kecerdasan buatan yang selamat.

Ini semua mengenai data

Berikut ialah tiga bidang yang perlu anda fokuskan:

Mengenai proprietari pra-latihan Model AI atau Model Bahasa Besar (LLM), isu teras tadbir urus dan ketelusan data terletak pada data latihan. Program pembelajaran mesin menggunakan llm mengandungi set data yang besar daripada banyak sumber. Masalahnya ialah, LLM ialah kotak hitam dan memberikan sedikit ketelusan ke dalam data sumber. Kami tidak berat sebelah dan tidak berat sebelah tentang kredibiliti sumber, tetapi elakkan daripada memasukkan maklumat pengenalan peribadi yang menyalahi undang-undang atau data penipuan. Open AI, sebagai contoh, tidak berkongsi data sumbernya. The Washington Post menganalisis set data C4 Google, meliputi 15 juta tapak web, dan menemui berpuluh-puluh tapak yang tidak menyenangkan yang termasuk data maklumat yang menghasut dan boleh dikenal pasti secara peribadi serta kandungan lain yang boleh dipersoalkan. Tadbir urus data memerlukan ketelusan ke dalam sumber data dan memastikan kesahihan dan kebolehpercayaan pengetahuan yang diperoleh daripada sumber data ini. Sebagai contoh, bot AI anda mungkin telah dilatih mengenai data daripada sumber yang tidak disahkan atau tapak berita palsu, memihakkan pengetahuannya yang kini menjadi sebahagian daripada dasar baharu atau program R&D syarikat anda.

Pada masa ini, vendor kecerdasan buatan yang berbeza mempunyai strategi berbeza untuk mengendalikan privasi data pengguna, termasuk pengasingan data dan domain data. Pekerja anda mungkin secara tidak sedar memberikan data kepada LLM, namun mereka mungkin tidak menyedari bahawa data ini akan dimasukkan ke dalam pangkalan pengetahuan model. Ada kemungkinan syarikat boleh membocorkan rahsia perdagangan, kod perisian dan data peribadi secara tidak sengaja kepada orang ramai. Sesetengah penyelesaian AI menawarkan penyelesaian, seperti API untuk melindungi privasi data dengan mengecualikan data daripada model pra-latihan, tetapi ini mengehadkan nilainya kerana kes penggunaan yang ideal adalah untuk menambah model pra-latihan dengan data khusus kes, Sambil memastikan data peribadi. Mempunyai alat AI terlatih memahami konsep "domain" data adalah satu penyelesaian kepada masalah tersebut. Medan "biasa" data latihan digunakan untuk pra-latihan dan dikongsi antara entiti, manakala sambungan model latihan berdasarkan "data proprietari" dengan selamat dihadkan dalam sempadan organisasi. Pengurusan data memastikan bahawa sempadan ini dicipta dan dipelihara.

Kerja terbitan yang disebabkan oleh AI meliputi bidang ketiga pengurusan data, yang berkaitan dengan proses AI dan akhirnya pemilik data. Katakan saya menggunakan bot AI untuk menyelesaikan masalah pengekodan. Biasanya, saya akan tahu siapa yang bertanggungjawab untuk menyiasat dan membetulkan sesuatu kerana jika sesuatu tidak dikendalikan dengan betul, pepijat atau ralat akan berlaku. Tetapi dengan AI, organisasi saya bertanggungjawab terhadap sebarang ralat atau akibat buruk yang timbul daripada tugas yang saya minta AI untuk laksanakan—walaupun kami tidak telus tentang proses atau data sumber. Anda tidak boleh menyalahkan mesin: di suatu tempat, ia adalah manusia yang membuat kesilapan atau hasil yang buruk. Bagaimana dengan IP? Adakah anda memiliki IP karya yang dibuat menggunakan alat AI generatif Bagaimana anda mempertahankannya di mahkamah Menurut Harvard Business Review, dunia seni sudah mula memfailkan tuntutan mahkamah?

Strategi pengurusan data untuk dipertimbangkan sekarang

Pada peringkat awal ini, kami tidak tahu perkara yang kami tidak tahu tentang AI, termasuk data yang tidak baik, privasi dan keselamatan , pengetahuan Risiko kepada hak harta dan set data sensitif lain. Kecerdasan Buatan juga merupakan bidang yang luas dengan pelbagai pendekatan seperti LLM, automasi berasaskan logik, ini hanyalah sebahagian daripada topik yang diterokai dengan menggabungkan dasar tadbir urus data dan amalan pengurusan data:

  • Jeda percubaan dengan AI generatif sehingga anda mempunyai strategi pengawasan, dasar,

dan prosedur untuk mengurangkan risiko dan mengesahkan keputusan.

  • Panduan Pengurusan Data Disatukan: Mulakan dengan pemahaman yang kukuh tentang data anda, tidak kira di mana ia berada. Di manakah maklumat peribadi anda yang sensitif dan data pelanggan?

Elakkan memberikan data yang tidak perlu kepada aplikasi AI dan jangan kongsikan sebarang data proprietari yang sensitif. Kunci/sulitkan IP dan data pelanggan untuk menghalangnya daripada dikongsi.

    Fahami cara dan sama ada alatan AI boleh telus kepada sumber data.

Bolehkah vendor melindungi data anda di blognya, tetapi "bagaimana" tidak jelas: "Sama ada syarikat sedang mengusahakan VertexAI Sama ada melatih model atau membina pengalaman perkhidmatan pelanggan pada GenerativeAIAppBuilder, data peribadi dirahsiakan dan tidak akan digunakan dalam korpus latihan model asas yang lebih luas Sila semak syarat kontrak setiap alat AI dengan teliti untuk memahami sebarang maklumat yang anda berikan. Adakah data akan dirahsiakan

Tandakan data sebagai kerja derivatif pemilik atau orang atau jabatan menugaskan projek ini tahu bagaimana AI dimasukkan ke dalam proses dan oleh siapa

    Contohnya, pasukan mungkin mahu menanggalkannya dan mengenal pasti data ciri dan menyalurkannya kepada latihan biasa set data untuk kegunaan masa hadapan dan penjejakan proses ini adalah penting > Kekal dimaklumkan tentang sebarang peraturan dan panduan industri yang sedang dibangunkan, dan libatkan rakan sebaya dalam organisasi lain untuk memahami cara mereka melaksanakan pengurangan risiko dan pengurusan data mana-mana projek AI generatif, berunding dengan pakar undang-undang untuk memahami risiko dan proses yang perlu diikuti sekiranya berlaku pelanggaran data, pelanggaran privasi dan harta intelek, pelakon yang berniat jahat, atau keputusan palsu/salah

Pendekatan Praktikal untuk Kecerdasan Buatan dalam Perusahaan
  • Kecerdasan Buatan berkembang pada kadar yang tidak pernah berlaku sebelum ini, terus berinovasi, mengurangkan kos dan meningkatkan pengalaman pengguna, dan mempunyai potensi besar sebagai alat Suka yang paling berkuasa , AI perlu diterapkan dengan teliti dalam persekitaran yang betul dan dilengkapi dengan tadbir urus data dan langkah pengurusan data yang sesuai untuk memastikan keselamatan Dalam bidang pengurusan data AI, tiada piawaian yang jelas dan penyelidikan berterusan diperlukan dalam penggunaan AI memohon, perniagaan harus berhati-hati dan memastikan mereka memahami sepenuhnya pendedahan data, pelanggaran data dan kemungkinan risiko keselamatan data

Atas ialah kandungan terperinci Kesan pengurusan data pada AI generatif. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam