Rumah  >  Artikel  >  Peranti teknologi  >  Kembali dalam talian di Itali, tetapi masalah kawal selia OpenAI baru bermula

Kembali dalam talian di Itali, tetapi masalah kawal selia OpenAI baru bermula

WBOY
WBOYke hadapan
2023-05-12 21:16:131295semak imbas

Kembali dalam talian di Itali, tetapi masalah kawal selia OpenAI baru bermula

Menurut berita pada 7 Mei, pada minggu lalu, OpenAI telah berjaya menenangkan pengawal selia Itali, mendorong mereka menarik balik larangan sementara pada robot sembang ChatGPT, tetapi syarikat kecerdasan buatan The pertempuran antara firma penyelidikan dan pengawal selia Eropah masih belum berakhir, dan lebih banyak cabaran baru bermula.

Awal tahun ini, ChatGPT ChatGPT yang popular tetapi kontroversial menghadapi halangan undang-undang utama di Itali, dengan Pihak Berkuasa Perlindungan Data Itali (GPDP) menuduh OpenAI melanggar peraturan perlindungan data EU. Dalam usaha untuk menyelesaikan isu itu, syarikat itu bersetuju untuk menyekat penggunaan perkhidmatan di Itali.

Pada 28 April, ChatGPT telah dilancarkan semula di Itali, dan OpenAI dengan mudah menangani kebimbangan Pihak Berkuasa Perlindungan Data Itali tanpa membuat perubahan besar pada perkhidmatannya. Ini adalah kemenangan yang jelas untuk OpenAI.

Walaupun Pihak Berkuasa Perlindungan Data Itali "mengalu-alukan" perubahan yang dibuat kepada ChatGPT, cabaran undang-undang yang dihadapi OpenAI dan syarikat lain yang membangunkan chatbots mungkin baru sahaja bermula. Pengawal selia di beberapa negara sedang menyiasat cara alat kecerdasan buatan ini mengumpul data dan menjana maklumat, memetik sebab mulai daripada pengumpulan data latihan yang tidak dibenarkan kepada kecenderungan chatbots untuk mengeluarkan mesej yang salah.

Kesatuan Eropah telah mula menguatkuasakan Peraturan Perlindungan Data Am (GDPR), salah satu rangka kerja undang-undang privasi terkuat di dunia, dengan kesan yang boleh menjangkau jauh di luar Eropah. Pada masa yang sama, penggubal undang-undang EU sedang mengusahakan undang-undang yang khusus menyasarkan kecerdasan buatan, yang juga berkemungkinan akan membawa era baharu peraturan sistem seperti ChatGPT.

CtGPT telah menjadi sasaran perhatian banyak pihak

CtGPT ialah salah satu aplikasi yang paling banyak ditonton dalam kecerdasan buatan generatif (AIGC), meliputi penjanaan teks dan imej berdasarkan gesaan pengguna , video dan audio serta alatan lain. Menurut laporan, hanya dua bulan selepas pelancarannya pada November 2022, ChatGPT mencapai 100 juta pengguna aktif bulanan, menjadikannya salah satu aplikasi pengguna yang paling pesat berkembang dalam sejarah.

Dengan ChatGPT, orang ramai boleh menterjemah teks ke dalam bahasa yang berbeza, menulis kertas kolej dan juga menjana kod. Tetapi sesetengah pengkritik, termasuk pengawal selia, menunjukkan maklumat yang tidak boleh dipercayai yang dikeluarkan oleh ChatGPT, isu hak cipta dan kelemahan dalam melindungi data.

Itali ialah negara pertama yang mengambil tindakan terhadap ChatGPT. Pada 31 Mac, Pihak Berkuasa Perlindungan Data Itali menuduh OpenAI melanggar Peraturan Perlindungan Data Am dengan membenarkan ChatGPT memberikan maklumat yang tidak tepat atau mengelirukan, gagal untuk memberitahu pengguna tentang amalan pengumpulan data, gagal mematuhi peraturan mengenai pemprosesan data peribadi dan gagal untuk Mencegah kanak-kanak di bawah umur 13 tahun dengan secukupnya daripada menggunakan Perkhidmatan. Pihak Berkuasa Perlindungan Data Itali mengarahkan OpenAI untuk segera berhenti menggunakan maklumat peribadi yang dikumpul daripada warga Itali dalam data latihan ChatGPT.

Pada masa ini, negara lain tidak mengambil tindakan besar yang serupa. Tetapi sejak Mac, sekurang-kurangnya tiga negara EU - Jerman, Perancis dan Sepanyol - telah melancarkan siasatan mereka sendiri ke dalam ChatGPT. Sementara itu, merentasi Atlantik, Kanada sedang menilai kebimbangan privasi ChatGPT di bawah Akta Perlindungan Maklumat Peribadi dan Dokumen Elektronik (PIPEDA). Lembaga Perlindungan Data Eropah (EDPB) malah telah menubuhkan kumpulan kerja khusus untuk menyelaraskan penyiasatan. Jika agensi ini memerlukan OpenAI untuk membuat perubahan, ia boleh menjejaskan cara syarikat memberi perkhidmatan kepada pengguna di seluruh dunia.

Pengawal selia mempunyai dua kebimbangan utama

Kebimbangan terbesar pengawal selia tentang ChatGPT terbahagi terutamanya kepada dua kategori: Dari mana datangnya data latihan? Bagaimanakah OpenAI menyampaikan maklumat kepada pengguna?

Untuk menyokong ChatGPT, OpenAI memerlukan penggunaan model bahasa besar (LLM) GPT-3.5 dan GPT-4, yang dilatih pada sejumlah besar teks yang dihasilkan manusia. OpenAI tetap berhati-hati tentang teks latihan yang digunakannya, tetapi mengatakan ia menggunakan "pelbagai sumber data yang dibenarkan dan tersedia secara umum, yang mungkin termasuk maklumat peribadi yang tersedia untuk umum."

Ini boleh menyebabkan masalah besar di bawah Peraturan Perlindungan Data Am. Digubal pada 2018, undang-undang meliputi semua perkhidmatan yang mengumpul atau memproses data tentang warga EU, tidak kira di mana organisasi yang menyediakan perkhidmatan itu berpusat. Peraturan Perlindungan Data Am menghendaki syarikat mendapatkan persetujuan yang jelas daripada pengguna sebelum mengumpul data peribadi, mempunyai alasan yang sah di sisi undang-undang untuk mengumpul data dan bersikap telus tentang cara data digunakan dan disimpan.

Pengawal selia Eropah mendakwa bahawa kerahsiaan data latihan OpenAI bermakna mereka tidak dapat mengesahkan sama ada maklumat peribadi yang digunakannya pada asalnya mendapat persetujuan pengguna. Pihak Berkuasa Perlindungan Data Itali berhujah bahawa OpenAI tidak mempunyai "asas undang-undang" untuk mengumpul maklumat itu di tempat pertama. Setakat ini, OpenAI dan syarikat lain menghadapi sedikit penelitian.

Isu lain ialah "hak untuk dilupakan" Peraturan Perlindungan Data Umum, yang membolehkan pengguna meminta syarikat membetulkan maklumat peribadi mereka atau memadamkannya sepenuhnya. OpenAI telah mengemas kini dasar privasinya terlebih dahulu untuk memudahkan respons terhadap permintaan ini. Tetapi memandangkan betapa rumitnya pemisahan itu apabila data khusus dimasukkan ke dalam model bahasa yang besar ini, sama ada ia boleh dilaksanakan secara teknikal sentiasa boleh dipertikaikan.

OpenAI juga mengumpul maklumat terus daripada pengguna. Sama seperti platform internet lain, ia mengumpul julat standard data pengguna seperti nama, kenalan dan butiran kad kredit. Tetapi yang lebih penting, OpenAI merekodkan interaksi pengguna dengan ChatGPT. Seperti yang dinyatakan di laman web rasmi, pekerja OpenAI boleh melihat data ini dan menggunakannya untuk melatih modelnya. Memandangkan soalan peribadi orang telah bertanya kepada ChatGPT, seperti memikirkan bot sebagai ahli terapi atau doktor, ini bermakna syarikat sedang mengumpul semua jenis data sensitif.

Data ini mungkin termasuk maklumat tentang kanak-kanak bawah umur. Walaupun dasar OpenAI menyatakan bahawa ia "tidak secara sedar mengumpul maklumat peribadi daripada kanak-kanak di bawah umur 13 tahun," tidak ada ambang pengesahan umur yang ketat. Ini tidak konsisten dengan peraturan EU, yang melarang pengumpulan data daripada bawah umur 13 tahun dan di sesetengah negara memerlukan kebenaran ibu bapa untuk mengumpul maklumat daripada bawah umur 16 tahun. Dari segi output, Pihak Berkuasa Perlindungan Data Itali mendakwa bahawa kekurangan penapis umur ChatGPT membolehkan kanak-kanak di bawah umur "menerima respons yang benar-benar tidak sesuai dari segi tahap pembangunan dan kesedaran diri mereka."

OpenAI mempunyai banyak kebebasan dalam menggunakan data ini, yang membimbangkan ramai pengawal selia, dan terdapat risiko keselamatan dalam menyimpan data ini. Syarikat termasuk Samsung dan JPMorgan Chase telah melarang pekerja menggunakan alat AIGC kerana bimbang mereka akan memuat naik data sensitif. Malah, sebelum Itali mengeluarkan larangan itu, ChatGPT mengalami kebocoran data yang serius, yang mengakibatkan pendedahan sejumlah besar sejarah sembang dan alamat e-mel pengguna.

Selain itu, kecenderungan ChatGPT untuk memberikan maklumat palsu juga boleh menyebabkan masalah. Peraturan Perlindungan Data Am menetapkan bahawa semua data peribadi mestilah tepat, satu perkara yang ditekankan oleh Pihak Berkuasa Perlindungan Data Itali dalam pengumumannya. Ini boleh menyebabkan masalah untuk kebanyakan penjana teks AI, kerana alat ini terdedah kepada "halusinasi", iaitu memberikan respons yang tidak betul atau tidak relevan pada pertanyaan. Ini telah menyebabkan masalah dunia sebenar di tempat lain, seperti apabila seorang datuk bandar Australia mengancam untuk menyaman OpenAI kerana memfitnah selepas ChatGPT secara palsu mendakwa dia telah dipenjarakan kerana rasuah.

Peraturan kawal selia khas bakal diperkenalkan

ChatGPT amat terdedah kepada sasaran kawal selia kerana populariti dan penguasaan pasaran kecerdasan buatan. Tetapi seperti pesaing dan rakan kongsi seperti Google's Bard dan Microsoft OpenAI-powered Azure AI, tiada sebab ia tidak perlu diteliti. Sebelum ChatGPT, Itali telah melarang platform chatbot Replika daripada mengumpul maklumat mengenai kanak-kanak di bawah umur. Sehingga kini, platform tersebut masih diharamkan.

Walaupun Peraturan Perlindungan Data Am adalah satu set undang-undang yang berkuasa, ia tidak dicipta untuk menyelesaikan masalah unik AI. Walau bagaimanapun, peraturan pengawalseliaan khusus mungkin akan dikeluarkan. Pada 2021, Kesatuan Eropah menyerahkan draf versi pertama Akta Kecerdasan Buatan (AIA), yang akan dilaksanakan bersama-sama dengan Peraturan Perlindungan Data Am. Akta AI akan mengawal selia alatan AI berdasarkan tahap risikonya, daripada "risiko minimum" (seperti penapis spam) kepada "risiko tinggi" (alat AI yang digunakan untuk penguatkuasaan undang-undang atau pendidikan) kepada "tidak boleh digunakan". (seperti sistem kredit sosial).

Selepas ledakan model bahasa besar seperti ChatGPT, penggubal undang-undang kini berebut untuk menambah peraturan untuk "model asas" dan "sistem kecerdasan buatan umum (GPAI)". Kedua-dua istilah merujuk kepada sistem AI berskala besar, termasuk LLM, dan boleh mengklasifikasikannya sebagai perkhidmatan "berisiko tinggi".

Peruntukan Akta Kepintaran Buatan melangkaui perlindungan data. Pindaan yang dicadangkan baru-baru ini akan memaksa syarikat untuk mendedahkan sebarang bahan berhak cipta yang digunakan untuk membangunkan alatan AIGC. Itu boleh mendedahkan set data yang pernah dirahsiakan dan menyebabkan lebih banyak syarikat terdedah kepada tindakan undang-undang pelanggaran, yang telah menjejaskan beberapa perkhidmatan.

Undang-undang AI khusus mungkin diluluskan pada penghujung tahun 2024

Pada masa ini, ia mungkin mengambil sedikit masa untuk melaksanakan rang undang-undang ini. Penggubal undang-undang EU mencapai persetujuan mengenai rang undang-undang kecerdasan buatan sementara pada 27 April, tetapi sebuah jawatankuasa masih perlu mengundi draf itu pada 11 Mei, dengan cadangan akhir dijangka diterbitkan pada pertengahan Jun. Majlis Eropah, Parlimen EU dan Suruhanjaya Eropah kemudiannya perlu menyelesaikan sebarang pertikaian yang tinggal sebelum melaksanakan undang-undang. Jika semuanya berjalan lancar, ia boleh diluluskan pada separuh kedua 2024.

Buat masa ini, pertengkaran antara Itali dan OpenAI memberi kita pandangan pertama tentang cara pengawal selia dan syarikat AI mungkin berunding. Pihak Berkuasa Perlindungan Data Itali berkata ia akan menarik balik larangan jika OpenAI memenuhi beberapa resolusi yang dicadangkan menjelang 30 April.

Resolusi termasuk memaklumkan pengguna tentang cara ChatGPT menyimpan dan menggunakan data mereka, memerlukan persetujuan jelas pengguna untuk menggunakan data ini, memudahkan pembetulan atau pemadaman maklumat peribadi palsu yang dijana oleh ChatGPT, dan memerlukan pengguna Itali mendaftar sebelum Semasa mendaftar akaun anda, sahkan bahawa anda berumur lebih dari 18 tahun. Walaupun OpenAI gagal mematuhi peraturan ini, ia telah memuaskan pengawal selia Itali dan telah memulihkan akses di Itali.

OpenAI masih perlu memenuhi syarat lain, termasuk menetapkan ambang umur yang lebih ketat menjelang 30 September, menapis kanak-kanak di bawah umur 13 tahun dan mewajibkan kanak-kanak yang lebih tua untuk mendapatkan kebenaran ibu bapa. Jika gagal, OpenAI mungkin diharamkan lagi. Walau bagaimanapun, OpenAI nampaknya telah menunjukkan contoh bahawa Eropah menganggap tingkah laku syarikat AI boleh diterima, sekurang-kurangnya sehingga undang-undang baharu diperkenalkan. (Sedikit)

Atas ialah kandungan terperinci Kembali dalam talian di Itali, tetapi masalah kawal selia OpenAI baru bermula. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam