Rumah >Peranti teknologi >AI >Rang undang-undang kecerdasan buatan baharu Eropah akan mengukuhkan semakan etika
Ketika EU bergerak ke arah melaksanakan Rang Undang-undang Kecerdasan Buatan, isu etika AI seperti berat sebelah, ketelusan dan kebolehjelasan menjadi semakin penting, yang mana Rang Undang-undang itu akan mengawal selia penggunaan kecerdasan buatan dan teknologi pembelajaran mesin merentas semua industri. Pakar AI berkata ini adalah masa yang baik untuk pengguna AI membiasakan diri dengan konsep etika.
Akta Kecerdasan Buatan Eropah versi terbaharu, yang diperkenalkan tahun lepas, sedang bergerak pantas melalui proses semakan dan boleh dilaksanakan seawal 2023. Semasa undang-undang masih dibangunkan, Suruhanjaya Eropah kelihatan bersedia untuk mengorak langkah dalam mengawal selia kecerdasan buatan.
Sebagai contoh, undang-undang akan menetapkan keperluan baharu untuk penggunaan sistem kecerdasan buatan dan melarang kes penggunaan tertentu sepenuhnya. Apa yang dipanggil sistem AI berisiko tinggi, seperti yang digunakan dalam kereta pandu sendiri dan sistem sokongan keputusan untuk pendidikan, imigresen dan pekerjaan, akan memerlukan pengguna menjalankan penilaian impak dan audit aplikasi AI. Sesetengah kes penggunaan AI akan dijejaki rapi dalam pangkalan data, manakala yang lain memerlukan log keluar daripada juruaudit luar sebelum ia boleh digunakan.
Nick Carrel, pengarah perundingan analitik data di EPAM Systems, firma kejuruteraan perisian yang berpangkalan di Newtown, Pa., berkata terdapat keperluan besar untuk ketidakjelasan dan kebolehjelasan sebagai sebahagian daripada penglibatan MLOps atau penglibatan perundingan sains data. . Rang Undang-undang Kecerdasan Buatan EU juga mendorong syarikat untuk mendapatkan pandangan dan jawapan tentang AI beretika, katanya.
"Terdapat banyak permintaan sekarang untuk apa yang dipanggil ML Ops, iaitu sains pengendalian model pembelajaran mesin Kami sangat melihat AI beretika sebagai salah satu asas utama proses ini," kata Carrel. "Kami mempunyai permintaan tambahan daripada pelanggan... sambil mereka mengetahui tentang undang-undang EU yang akan datang mengenai sistem kecerdasan buatan yang akan berkuat kuasa pada akhir tahun ini, dan mereka mahu bersedia
Ketidakjelasan dan kebolehjelasan adalah konsep yang berasingan tetapi berkaitan. Kebolehtafsiran model merujuk kepada sejauh mana manusia boleh memahami dan meramalkan keputusan yang akan dibuat oleh model, manakala kebolehjelasan merujuk kepada kebolehan untuk menerangkan dengan tepat cara model sebenarnya berfungsi. Anda boleh memiliki satu tanpa yang lain, kata Andrey Derevyanka, ketua sains data dan pembelajaran mesin di EPAM Systems.
“Bayangkan anda sedang melakukan beberapa eksperimen, mungkin beberapa eksperimen kimia mencampurkan dua cecair Eksperimen ini terbuka kepada tafsiran kerana, anda melihat apa yang anda lakukan di sini, ditambah dengan item lain dan kami mendapatnya hasilnya,” kata Derevyanka. "Tetapi untuk eksperimen ini boleh ditafsirkan, anda perlu mengetahui tindak balas kimia, anda perlu tahu bagaimana tindak balas dicipta, cara ia berfungsi, dan anda perlu mengetahui butiran dalaman proses itu." Derevyanka berkata, khususnya model pembelajaran mendalam boleh menerangkan tetapi tidak boleh menerangkan situasi tertentu. "Anda mempunyai kotak hitam dan ia berfungsi dengan cara tertentu, tetapi anda tahu anda tidak tahu apa yang ada di dalamnya," katanya. “Tetapi anda boleh menjelaskan: Jika anda memberikan input ini, anda akan mendapat output ini.”
Menghapuskan berat sebelah
"Perkara ini perlu dianalisis dari semasa ke semasa," kata Cakmak. "Ia adalah satu proses kerana berat sebelah dimasukkan ke dalam data sejarah. Tidak ada cara untuk membersihkan berat sebelah daripada data. Jadi sebagai perniagaan, anda perlu menyediakan beberapa proses khusus supaya keputusan anda menjadi lebih baik dari semasa ke semasa, yang akan meningkatkan kualiti data anda dari semasa ke semasa, jadi anda akan menjadi semakin kurang berat sebelah dari semasa ke semasa, Akta SMART akan mengklasifikasikan penggunaan kecerdasan buatan mengikut risiko
Kebolehjelasan adalah penting untuk melibatkan pihak berkepentingan, termasuk juruaudit dalaman atau luaran. serta pelanggan dan eksekutif yang meletakkan reputasi mereka pada risiko Adalah penting untuk mempercayai bahawa model AI tidak akan membuat keputusan yang salah berdasarkan data yang berat sebelah.
Cakmak berkata terdapat banyak contoh dalam literatur tentang bias data yang bocor ke dalam sistem membuat keputusan automatik, termasuk berat sebelah kaum yang muncul dalam model yang digunakan untuk menilai prestasi pekerja atau memilih pemohon pekerjaan daripada resume. Mampu menunjukkan cara model mencapai kesimpulannya adalah penting untuk menunjukkan bahawa langkah telah diambil untuk menghapuskan bias data dalam model.
Cakmak teringat bagaimana kekurangan kebolehjelasan menyebabkan syarikat penjagaan kesihatan meninggalkan sistem AI yang dibangunkan untuk diagnosis kanser. "AI berfungsi sedikit sebanyak, tetapi projek itu dibatalkan kerana mereka tidak dapat membina kepercayaan dan keyakinan dalam algoritma, " katanya. "Jika anda tidak dapat menjelaskan mengapa hasilnya berlaku, maka anda tidak boleh meneruskan rawatan."
Sistem EPAM membantu syarikat melaksanakan kecerdasan buatan dengan cara yang boleh dipercayai. Syarikat itu biasanya mengikut set garis panduan tertentu, bermula dengan cara mengumpul data, kepada cara menyediakan model pembelajaran mesin, kepada cara untuk mengesahkan dan mentafsir model tersebut. Memastikan pasukan AI berjaya melepasi dan mendokumentasikan pemeriksaan ini, atau "pintu kualiti," merupakan elemen penting AI beretika, kata Cakmak.
Steven Mills, ketua pegawai etika AI untuk Global GAMMA di Boston Consulting Group, berkata syarikat terbesar dan dikendalikan terbaik sudah menyedari keperluan AI yang bertanggungjawab.
Walau bagaimanapun, apabila Rang Undang-undang AI semakin hampir menjadi undang-undang, kita akan melihat lebih banyak syarikat di seluruh dunia mempercepatkan projek AI yang bertanggungjawab untuk memastikan mereka tidak melanggar persekitaran kawal selia yang berubah-ubah dan jangkaan baharu.
“Terdapat banyak syarikat yang telah mula melaksanakan AI dan menyedari bahawa kami tidak begitu berharap seperti yang kami mahukan tentang semua kemungkinan akibat yang tidak diingini dan kami perlu menanganinya secepat mungkin. mungkin," kata Mills "Ini adalah perkara yang paling penting orang tidak berasa seperti mereka serampangan tentang cara mereka menerapkannya."
Tekanan untuk melaksanakan AI dengan cara yang beretika. bahagian atas organisasi. Dalam sesetengah kes, ia datang daripada pelabur luar yang tidak mahu risiko pelaburan mereka terjejas dengan menggunakan AI dengan cara yang tidak baik, kata Mills.
"Kami melihat trend di mana pelabur, sama ada syarikat awam atau dana teroka, ingin memastikan AI dibina secara bertanggungjawab," katanya "Ia mungkin tidak jelas semua orang, tetapi di sebalik tabir, beberapa VC ini memikirkan di mana mereka meletakkan wang mereka untuk memastikan syarikat pemula ini melakukan perkara dengan cara yang betul." Walaupun butiran Akta Kepintaran Buatan pada masa ini tidak jelas, undang-undang mempunyai berpotensi untuk memberikan kejelasan tentang penggunaan kecerdasan buatan, yang akan memberi manfaat kepada kedua-dua syarikat dan pengguna.
"Reaksi pertama saya ialah ini akan menjadi sangat ketat," kata Carrel, yang melaksanakan model pembelajaran mesin dalam industri perkhidmatan kewangan sebelum menyertai EPAM Systems. "Saya telah cuba menolak sempadan pembuatan keputusan perkhidmatan kewangan selama bertahun-tahun, dan tiba-tiba ada undang-undang yang dikeluarkan yang akan menjejaskan kerja yang kami lakukan.
Tetapi semakin dia melihat perkara yang belum selesai. undang-undang, semakin dia suka apa yang dia lakukan Lihat
“Saya rasa ia juga secara beransur-ansur akan meningkatkan keyakinan orang ramai dalam penggunaan kecerdasan buatan dalam industri yang berbeza,” kata Carrel “Perundangan mengatakan bahawa anda perlu mendaftar tinggi -sistem kecerdasan buatan berisiko di EU Ketahui bahawa di suatu tempat akan ada senarai yang sangat jelas bagi setiap sistem berisiko tinggi AI yang digunakan. Ini memberi banyak kuasa kepada juruaudit, yang bermaksud budak lelaki nakal dan pemain jahat akan dihukum secara beransur-ansur, dan diharapkan dari masa ke masa kami akan mencipta lebih banyak peluang untuk mereka yang ingin menggunakan AI dan pembelajaran mesin untuk tujuan yang lebih baik Orang ramai meninggalkan amalan terbaik. cara yang bertanggungjawab. ”
Atas ialah kandungan terperinci Rang undang-undang kecerdasan buatan baharu Eropah akan mengukuhkan semakan etika. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!