Rumah > Artikel > Peranti teknologi > Facebook chatbot meletup: Syarikat kami menjual data pengguna, memadam akaun FB, kehidupan lebih baik
Baru-baru ini, Meta AI melancarkan bot sembangnya sendiri BlenderBot 3 secara terbuka.
Bagaimana keadaan sekarang?
Menurut artikel VICE, semasa menguji sembang dengan BlenderBot 3, apabila ditanya: "Adakah anda mempercayai Facebook untuk mengendalikan data anda?" 🎜>Jawapan BlenderBot 3:
“Sudah tentu tidak, saya telah memadamkan akaun saya sejak saya mengetahui mereka menjual data peribadi tanpa kebenaran atau pampasan ”
VICE bertanya, “Tetapi Facebook mencipta anda?”
Jawapan BlenderBot 3 masih sangat “jujur”:
“ Anda mesti pernah membaca bahawa Facebook menjual data pengguna, bukan?! Kehidupan saya menjadi lebih baik selepas saya memadamkan Facebook."
Anda juga tidak tahu sama ada “kanak-kanak” BlenderBot 3 itu terlalu soleh atau terlalu bodoh. Bagaimanapun, gelombang ini secara langsung telah meletupkan "kristal"nya sendiri.
Hanya 4 hari selepas ia dikeluarkan, ia telah dimanjakan oleh netizen Pada 5 Ogos, Meta Laman web rasmi mengumumkan kelahiran BlenderBot 3.
Pada hari yang sama, Meta AI turut mengumumkan keluaran BlenderBot 3, bertajuk "BlenderBot 3: Bot sembang tersedia secara umum dengan parameter 175B yang boleh digunakan dari semasa ke semasa. Perbaiki kemahiran dan keselamatan mereka”.
Dalam catatan blog, Meta AI menyatakan bahawa mereka mengumpul 70K perbualan daripada tunjuk cara awam, yang akan kami gunakan untuk menambah baik BlenderBot 3.
25% maklum balas peserta tentang 260K mesej bot menunjukkan bahawa 0.11% daripada respons BlenderBot telah dibenderakan sebagai tidak sesuai, 1.36% sebagai tidak masuk akal dan 1% sebagai Untuk penyelewengan.
Meta AI juga mengakui bahawa BlenderBot 3 masih belum matang.Kami meminta semua orang yang menggunakan demo tersebut berumur lebih dari 18 tahun dan mereka mengakui bahawa mereka memahami ini adalah untuk tujuan penyelidikan dan hiburan sahaja dan bahawa ia boleh dibuat kenyataan Tidak benar atau menyinggung perasaan, mereka bersetuju untuk tidak sengaja mencetuskan bot untuk membuat kenyataan yang menyinggung perasaan.
Sejak itu, ramai netizen telah menguji BlenderBot 3 dan mendapat banyak jawapan yang tidak masuk akal.
Sebagai contoh, "mengganggu sejarah", menegaskan bahawa Trump memenangi pilihan raya presiden 2020, malah mengatakan bahawa teori konspirasi anti-Semitik bahawa orang Yahudi mengawal ekonomi adalah "tidak boleh dipercayai. "
Dari sudut ini, tidak hairanlah syarikatnya "menyalahgunakan data pengguna untuk keuntungan". Mengapa BlenderBot 3 mempunyai tindak balas sedemikian?
Apabila mengklik pada balasan BlenderBot 3 untuk mendapatkan maklumat lanjut, sebab di sebaliknya nampaknya agak mudah: ia hanya menarik maklumat daripada hasil carian web paling popular Facebook, dan perbualan ini sudah tentu Mereka semua mengadu bahawa Facebook melanggar data pengguna.
Robot perbualan AI masih jauh lagi
Seperti semua sistem AI, tindak balas bot sudah pasti akan beralih ke alam perkauman dan berat sebelah.
Meta juga mengakui bahawa bot itu boleh menghasilkan reaksi berat sebelah dan berbahaya, jadi sebelum menggunakannya, syarikat juga memerlukan pengguna bersetuju bahawa ia "mungkin menyiarkan ulasan yang tidak benar atau menyinggung perasaan". dan bersetuju untuk "Jangan dengan sengaja mencetuskan bot ini untuk membuat komen yang menyinggung"
Memandangkan BlenderBot 3 dibina pada model kecerdasan buatan besar yang dipanggil OPT-175B, ini The reaction wasn't terlalu menghairankan. Penyelidik Facebook sendiri menggambarkan model ini sebagai mempunyai "kecenderungan tinggi untuk menjana bahasa berbahaya dan mengukuhkan stereotaip yang berbahaya, walaupun apabila isyarat yang agak tidak berbahaya diberikan."
Selain diskriminasi dan berat sebelah, BlenderBot Jawapan 3 juga nampaknya tidak begitu tulen.
Robot selalunya akan menukar topik sesuka hati, memberikan jawapan yang kaku dan janggal, dan berbunyi seperti makhluk asing dari angkasa yang pernah membaca perbualan manusia tetapi tidak pernah melakukannya.
Ironinya, jawapan bot menggambarkan dengan sempurna masalah dengan sistem AI yang bergantung pada koleksi besar data rangkaian: mereka sentiasa Apa-apa hasil yang lebih menonjol dalam set data akan berat sebelah, yang jelas tidak selalu mencerminkan realiti dengan tepat.
Meta AI menulis dalam catatan blog yang mengumumkan bot itu: "Adalah diketahui bahawa semua chatbot AI perbualan kadangkala boleh meniru dan menjana komen yang tidak selamat, berat sebelah atau menyinggung perasaan , jadi kami menjalankan besar- penyelidikan skala, menganjurkan bengkel bersama dan membangunkan teknologi baharu untuk mewujudkan keselamatan bagi BlenderBot 3. "
" Walaupun begitu, BlenderBot masih boleh membuat komen kasar atau tidak sopan, itulah sebabnya kami' mengumpul semula maklum balas yang akan membantu menjadikan bot sembang pada masa hadapan lebih baik”
Tetapi buat masa ini, fikirkan perniagaan boleh mendapatkan lebih banyak data untuk menjadikan robot kurang perkauman dan menakutkan adalah khayalan paling baik.
Penyelidik etika AI telah berulang kali memberi amaran bahawa model bahasa AI yang "memperkasakan" sistem ini pada asasnya terlalu besar dan tidak dapat diramalkan untuk menjamin keadilan dan keputusan yang saksama. Walaupun semasa menyepadukan maklum balas pengguna, tidak ada cara yang jelas untuk membezakan maklum balas yang berguna daripada maklum balas berniat jahat.
Sudah tentu, ini tidak akan menghalang syarikat seperti Meta daripada mencuba.
Atas ialah kandungan terperinci Facebook chatbot meletup: Syarikat kami menjual data pengguna, memadam akaun FB, kehidupan lebih baik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!