Rumah  >  Artikel  >  Peranti teknologi  >  Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui

Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui

PHPz
PHPzke hadapan
2023-05-27 14:05:471545semak imbas

Sepanjang 10 tahun yang lalu, syarikat teknologi besar telah menjadi sangat baik dalam banyak teknologi: bahasa, ramalan, pemperibadian, pengarkiban, penghuraian teks dan pemprosesan data. Tetapi mereka masih hebat dalam menangkap, membenderakan dan mengalih keluar kandungan berbahaya. Bagi teori konspirasi pilihan raya dan vaksin yang tersebar di Amerika Syarikat, kita hanya perlu melihat kembali peristiwa dua tahun lalu untuk memahami bahaya dunia sebenar yang ditimbulkannya.

Perbezaan ini menimbulkan beberapa persoalan. Mengapa syarikat teknologi tidak menambah baik pada penyederhanaan kandungan? Bolehkah mereka dipaksa melakukan ini? Adakah kemajuan baharu dalam kecerdasan buatan meningkatkan keupayaan kita untuk menangkap maklumat yang tidak baik?

Lazimnya, apabila syarikat teknologi diminta oleh Kongres A.S. untuk menerangkan peranan mereka dalam menyebarkan kebencian dan maklumat salah, mereka cenderung untuk menyalahkan kegagalan mereka atas kerumitan bahasa itu sendiri. Eksekutif mengatakan memahami dan mencegah ucapan benci kontekstual dalam bahasa dan konteks yang berbeza adalah tugas yang sukar.

Salah satu kata-kata kegemaran Mark Zuckerberg ialah syarikat teknologi tidak seharusnya bertanggungjawab untuk menyelesaikan semua masalah politik dunia.

Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui (Sumber: STEPHANIE ARNETT/MITTR | IMEJ Getty)

Kebanyakan syarikat pada masa ini menggunakan kedua-dua teknologi dan penyederhana kandungan manusia, dengan kerja yang terakhir dinilai rendah dan ini ditunjukkan dalam gaji mereka yang tidak seberapa.

Sebagai contoh, AI pada masa ini bertanggungjawab untuk 97% daripada semua kandungan yang dialih keluar di Facebook.

Walau bagaimanapun, Renee DiResta, pengurus penyelidikan di Stanford Internet Observatory, berkata bahawa kecerdasan buatan tidak pandai mentafsir nuansa dan konteks, jadi ia tidak mungkin menggantikan sepenuhnya penyederhana kandungan manusia, walaupun manusia tidak selalu pandai menerangkan perkara ini. perkara.

Oleh kerana sistem penyederhanaan kandungan automatik biasanya dilatih mengenai data bahasa Inggeris, latar belakang budaya dan bahasa juga boleh menimbulkan cabaran dalam memproses kandungan dalam bahasa lain dengan berkesan.

Profesor Hani Farid dari Pusat Pengajian Maklumat di Universiti California, Berkeley, memberikan penjelasan yang lebih jelas. Menurut Farid, kerana penyederhanaan kandungan bukan untuk kepentingan kewangan syarikat teknologi, ia tidak bersaing dengan risiko. Ini semua tentang ketamakan. Berhenti berpura-pura ia bukan tentang wang. ”

Disebabkan kekurangan peraturan persekutuan, adalah sukar bagi mangsa keganasan dalam talian untuk menuntut tanggungjawab kewangan daripada platform.

Kesederhanaan kandungan nampaknya merupakan perang yang tidak berkesudahan antara syarikat teknologi dan pelakon jahat. Apabila syarikat teknologi melancarkan peraturan penyederhanaan kandungan, pelakon jahat sering menggunakan emoji atau salah ejaan yang disengajakan untuk mengelakkan pengesanan. Kemudian syarikat-syarikat ini cuba menutup kelemahan, dan orang ramai menemui kelemahan baru, dan kitaran berterusan.

Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui

Sekarang, inilah model bahasa yang besar...

Keadaan sekarang sudah sangat sukar. Dengan kemunculan kecerdasan buatan generatif dan model bahasa berskala besar seperti ChatGPT, keadaan mungkin menjadi lebih teruk. Teknologi generatif mempunyai masalahnya—contohnya, kecenderungannya untuk membuat sesuatu dengan yakin dan membentangkannya sebagai fakta—tetapi satu perkara yang jelas: AI semakin hebat dalam bahasa.

Walaupun DiResta dan Farid berhati-hati, mereka percaya masih terlalu awal untuk membuat pertimbangan tentang bagaimana keadaan akan berkembang. Walaupun banyak model besar seperti GPT-4 dan Bard mempunyai penapis penyederhanaan kandungan terbina dalam, mereka masih boleh menghasilkan output toksik, seperti ucapan benci atau arahan tentang cara membina bom.

AI Generatif membolehkan pelaku jahat menjalankan kempen disinformasi pada skala dan kelajuan yang lebih besar. Ini adalah situasi yang teruk memandangkan kaedah untuk mengenal pasti dan melabelkan kandungan yang dijana AI adalah amat tidak mencukupi.

Sebaliknya, model bahasa berskala besar terkini berprestasi lebih baik pada tafsiran teks berbanding sistem AI sebelumnya. Secara teorinya, ia boleh digunakan untuk memudahkan pembangunan penyederhanaan kandungan automatik.

Syarikat teknologi perlu melabur dalam mereka bentuk semula model bahasa yang besar untuk mencapai matlamat khusus ini. Walaupun syarikat seperti Microsoft telah mula meneliti perkara itu, masih belum ada aktiviti penting.

"Walaupun kita telah melihat banyak kemajuan teknologi, saya ragu-ragu dengan sebarang peningkatan dalam penyederhanaan kandungan," kata Farid

Walaupun model bahasa besar berkembang pesat, mereka masih menghadapi cabaran dalam pemahaman kontekstual, yang boleh menghalang mereka daripada memahami perbezaan halus antara siaran dan imej setepat penyederhana manusia. Kebolehskalaan dan kekhususan silang budaya juga menimbulkan masalah. "Adakah anda menggunakan model untuk jenis niche tertentu? Adakah anda melakukannya mengikut negara? Adakah anda melakukannya mengikut komuniti? Ia bukan satu soalan yang sesuai untuk semua," kata DiResta.

Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui

Alat baharu berdasarkan teknologi baharu

Sama ada AI generatif akhirnya memudaratkan atau membantu landskap maklumat dalam talian mungkin bergantung pada sama ada syarikat teknologi boleh menghasilkan alat yang baik dan diterima pakai secara meluas yang memberitahu kami sama ada kandungan dihasilkan oleh AI .

DiResta memberitahu saya bahawa mengesan media sintetik mungkin merupakan cabaran teknikal yang perlu diutamakan kerana ia mencabar. Ini termasuk kaedah seperti penanda air digital, yang merujuk kepada membenamkan sekeping kod sebagai tanda kekal bahawa kandungan yang dilampirkan dihasilkan oleh kecerdasan buatan. Alat automatik untuk mengesan siaran yang dijana atau dimanipulasi AI adalah menarik kerana, tidak seperti tera air, ia tidak memerlukan penandaan aktif oleh pencipta kandungan yang dijana AI. Dalam erti kata lain, alatan semasa yang cuba mengenal pasti kandungan yang dijana mesin tidak berfungsi dengan baik.

Malah sesetengah syarikat telah mencadangkan menggunakan matematik untuk merekodkan tandatangan kriptografi maklumat dengan selamat, seperti cara sesuatu kandungan dijana, tetapi ini akan bergantung pada teknologi pendedahan sukarela seperti tera air.

Versi terbaharu Akta Kecerdasan Buatan (Akta AI) yang dicadangkan oleh Kesatuan Eropah hanya minggu lepas memerlukan syarikat yang menggunakan kecerdasan buatan generatif untuk memberitahu pengguna apabila kandungan tersebut sememangnya dijana oleh mesin. Kami berkemungkinan akan mendengar lebih lanjut tentang alat baru muncul dalam beberapa bulan akan datang, kerana permintaan untuk ketelusan dalam kandungan yang dijana AI meningkat.

Disokong oleh: Ren

Teks asal:

https://www.technologyreview.com/2023/05/15/1073019/catching-bad-content-in-the-age-of-ai/

Atas ialah kandungan terperinci Bagaimana untuk menangkap kandungan yang tidak sesuai dalam era model besar? Rang undang-undang EU memerlukan syarikat AI memastikan hak pengguna untuk mengetahui. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:sohu.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam