Rumah > Artikel > Peranti teknologi > Pesuruhjaya Maklumat UK memberi amaran: Alat AI analisis sentimen bukanlah pilihan yang boleh dipercayai dan berkesan
Pesuruhjaya Maklumat British (ICO) baru-baru ini mengeluarkan amaran kepada pemimpin teknologi bahawa adalah lebih baik untuk tidak membeli alat analisis sentimen AI kerana teknologi ini tidak berkesan seperti yang difikirkan orang dan mungkin juga membawa kepada berat sebelah dan diskriminasi AI. Perniagaan yang menggunakan teknologi ini boleh menghadapi penelitian dan pengawasan daripada pengawal selia data melainkan mereka dapat membuktikan keberkesanan teknologi tersebut.
Teknologi analisis emosi menggunakan banyak titik data biometrik, termasuk penjejakan pandangan, analisis emosi, pergerakan muka, analisis gaya berjalan, degupan jantung, ekspresi muka dan tahap kelembapan kulit, dsb. dan percubaan untuk menggunakan data ini untuk menentukan atau meramalkan keadaan emosi seseorang.
Stephen Bonner, timbalan pesuruhjaya maklumat di Pesuruhjaya Maklumat UK, berkata masalahnya ialah tiada bukti bahawa kaedah ini benar-benar berkesan, dan terdapat banyak bukti bahawa ia tidak boleh dipercayai. Jika perniagaan bergantung pada hasil tinjauan menggunakan alat analisis sentimen AI, ini lebih berkemungkinan membawa kepada hasil yang salah yang boleh menyebabkan kemudaratan.
Beliau memberi amaran bahawa jika syarikat menggunakan alat analisis sentimen AI dalam kerjanya, ambang untuk penyiasatan akan menjadi "sangat rendah".
“Kadang-kadang apabila teknologi baharu dipromosikan, orang berfikir, ‘Mari kita tunggu dan lihat serta dapatkan pemahaman daripada kedua-dua pihak,’ dan kami benar-benar melakukannya dengan teknologi biometrik lain yang sah Tetapi sejauh emosi Setakat analisis AI bimbang, tidak ada bukti yang sah bahawa teknologi ini boleh berfungsi dengan teliti dan bersedia untuk mengambil tindakan yang lebih pantas kepada mereka yang memilih untuk memanfaatkan ini untuk membuktikan kepada semua orang ia berbaloi, kerana anggapan tidak bersalah seolah-olah tidak mempunyai asas saintifik sama sekali," tambahnya.
Analisis sentimen AI boleh berguna dalam sesetengah situasi
Tetapi Bonner berkata terdapat beberapa contoh di mana teknologi telah digunakan atau dicadangkan sebagai kes penggunaan, termasuk Dengan menyediakan alat boleh pakai untuk memantau mood dan kesihatan pekerja, serta menggunakan pelbagai titik data untuk merekod dan meramalkan potensi masalah kesihatan.
Walau bagaimanapun, algoritma yang tidak matang untuk mengesan isyarat emosi akan membawa kepada risiko berat sebelah sistemik, ketidaktepatan dan diskriminasi. Teknologi ini bergantung pada mengumpul, menyimpan dan memproses sejumlah besar data peribadi, termasuk tindak balas tingkah laku atau emosi bawah sedar. Penggunaan data ini membawa risiko yang jauh lebih tinggi daripada teknologi biometrik tradisional yang digunakan untuk mengesahkan atau mengenal pasti individu.
Perlu diingat bahawa Pesuruhjaya Maklumat British tidak melarang penggunaan teknologi tersebut, tetapi hanya mengeluarkan amaran bahawa disebabkan risiko yang terlibat, syarikat yang melaksanakan teknologi tersebut akan diteliti. Selagi ada kenyataan yang jelas, pengguna boleh menggunakannya sebagai gimik atau alat hiburan.
Bonner berkata: "Terdapat beberapa perbezaan antara ukuran biometrik dan membuat kesimpulan tentang maksud keputusan. Saya fikir ia masuk akal bahawa tahap tekanan seseorang dapat dikesan melalui suara mereka. Tetapi sejak itu Ia adalah satu langkah juga jauh untuk mengatakan dia adalah penipuan, tetapi kami tidak akan melarang penggunaan AI untuk menentukan siapa yang kelihatan terganggu, tetapi jika hanya sesetengah orang terganggu dan tidak membuat kesimpulan bahawa mereka cuba melakukan penipuan melalui biometrik mereka , Maka pendekatan ini adalah salah ”
Impak merentas industri teknologi biometrik
Teknologi biometrik dijangka memberi impak yang ketara kepada pelbagai sektor industri, daripada perkhidmatan kewangan. Syarikat menggunakan pengecaman muka untuk mengesahkan identiti manusia, menggunakan pengecaman suara dan bukannya kata laluan untuk mengakses perkhidmatan.
Pesuruhjaya Maklumat UK bekerjasama dengan Institut Ada Lovelace dan Majlis Belia British untuk membangunkan panduan biometrik baharu. Panduan itu akan "berpusatkan rakyat" dan dijangka akan dikeluarkan pada musim bunga akan datang.
Dr Mhairi Aitken, penyelidik etika di Institut Alan Turing, mengalu-alukan amaran Pesuruhjaya Maklumat UK tetapi menyatakan bahawa ia juga penting untuk melihat pembangunan sistem ini dan memastikan pembangun bertindak mengikut kaedah, serta mencipta dan menggunakan alat di mana diperlukan.
Beliau berkata: "Pendekatan etika untuk membangunkan teknologi atau aplikasi baharu mesti bermula dengan siapa dalam komuniti yang mungkin terjejas dan melibatkan mereka dalam proses untuk melihat sama ada ia sebenarnya sesuai dalam konteks ia digunakan. . Proses ini memberi kita peluang untuk menyedari sebarang bahaya yang mungkin tidak dijangkakan "AI yang mengesan emosi adalah risiko sebenar bahaya," kata Dr kepada mereka yang mungkin tidak sesuai dengan model yang dibangunkan semasa membina model ramalan. "Ia adalah satu bidang yang sangat kompleks untuk mula memikirkan bagaimana kita boleh mengautomasikan sesuatu seperti ini dan dapat mengambil kira perbezaan budaya dan perbezaan emosi," tambahnya Dr. Aitken menyatakan bahawa sistem AI adalah sukar Menentukan tindak balas emosi yang sesuai konteks yang berbeza, "Cara kita meluahkan emosi adalah sangat berbeza, bergantung pada siapa kita bersama dan konteks yang kita hadapi. Selain itu, terdapat juga keperluan untuk mempertimbangkan sama ada sistem AI ini dapat mengambil ekspresi Emosi orang dengan secukupnya ".
Bonner berkata kemudaratan menggunakan alat AI emosi dalam hiburan adalah minimum, tetapi Dr Aitken memberi amaran bahawa kes penggunaan ini mempunyai risikonya sendiri, termasuk orang ramai menjadi terbiasa dengan teknologi dan berfikir ia benar-benar berkesan. "Jika digunakan, melainkan dilabelkan secara eksplisit untuk hiburan." Bonner menambah bahawa masalah yang berkaitan dengan AI emosi ialah terdapat begitu banyak titik data dan perbezaan antara setiap orang sehingga sukar untuk membangunkan satu model yang ideal. Ini telah ditunjukkan dalam beberapa kertas penyelidikan mengenai teknologi ini. "Jika seseorang berkata, 'Kami telah menyelesaikan masalah dan boleh membuat ramalan yang tepat,' maka mereka mungkin melakukan keajaiban, tetapi saya tidak fikir itu akan berlaku."
Atas ialah kandungan terperinci Pesuruhjaya Maklumat UK memberi amaran: Alat AI analisis sentimen bukanlah pilihan yang boleh dipercayai dan berkesan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!