Rumah  >  Artikel  >  Peranti teknologi  >  Mengapa tidak bertanya kepada chatbot AI untuk soalan kesihatan?

Mengapa tidak bertanya kepada chatbot AI untuk soalan kesihatan?

王林
王林ke hadapan
2023-04-30 23:01:131088semak imbas

Mengapa tidak bertanya kepada chatbot AI untuk soalan kesihatan?

Berita pada 28 April, sejak OpenAI, Microsoft dan Google melancarkan AI chatbots, ramai orang telah mula mencuba cara baharu mencari di Internet: bercakap dengan model, dan pengetahuan itu dipelajari dari seluruh web.

Pakar mengatakan bahawa memandangkan kecenderungan kami sebelum ini untuk menanyakan isu kesihatan melalui enjin carian, tidak dapat dielakkan kami juga akan bertanya soalan kepada alatan seperti ChatGPT, Bing dan Bard. Walau bagaimanapun, alatan ini membuat beberapa kesilapan privasi yang biasa dan mencipta beberapa yang baharu. "Pengguna sekurang-kurangnya harus melihat alat ini dengan keraguan kerana, seperti kebanyakan teknologi popular lain, mereka dipengaruhi oleh kuasa pengiklanan dan pemasaran sebelum sebarang rahsia lain, beberapa perkara yang perlu diketahui:

1. Adakah bot ini akan menyimpan sejarah sembang saya?

Ya, ChatGPT, Bing dan Bard semua input pengguna kedai. Walau bagaimanapun, Google Bard, yang sedang diuji dengan sebilangan kecil pengguna, menawarkan tetapan yang membolehkan pengguna meminta syarikat berhenti menyimpan rekod pertanyaan dan mengalih keluarnya daripada dikaitkan dengan akaun Google pengguna. Cuma klik pada bar menu di sudut kiri atas dan tutup "Aktiviti Bar".

Pengguna juga boleh mematikan pilihan "Sejarah dan Latihan Sembang" dalam tetapan OpenAI untuk mengehadkan masa penyimpanan rekod sembang. Syarikat itu berkata ia hanya akan menyimpan rekod sembang selama 30 hari selepas penutupan dan mengelak menggunakannya untuk latihan kecerdasan buatan.

2. Apakah yang syarikat ini lakukan dengan rekod sembang kami?

Syarikat ini menggunakan pertanyaan dan respons pengguna untuk melatih model AI untuk memberikan jawapan yang lebih baik. Walau bagaimanapun, sembang ini boleh digunakan untuk lebih daripada itu. Apabila Google dan Microsoft melancarkan chatbot kecerdasan buatan, mereka juga meninggalkan ruang dalam dasar privasi mereka untuk menggunakan log sembang pengguna untuk pengiklanan. Ini bermakna jika anda bertanya soalan tentang kasut ortopedik, anda mungkin melihat iklan untuk kategori ini pada masa hadapan.

Iklan sebegini mungkin mempunyai sedikit kesan kepada pengguna. Tetapi apabila kebimbangan kesihatan dan pengiklanan digital bersilang, bahaya boleh berlaku. Laporan sebelumnya mendedahkan bahawa beberapa tapak pemeriksaan gejala, termasuk WebMD dan Drugs.com, berkongsi kebimbangan kesihatan pengguna yang berpotensi sensitif, seperti kemurungan atau HIV, serta pengecam pengguna dengan syarikat pengiklanan luar.

Selain itu, broker data menjual senarai besar orang dan kebimbangan kesihatan mereka kepada pembeli, yang mungkin termasuk kerajaan atau syarikat insurans. Sesetengah orang yang menghidap penyakit kronik melaporkan melihat iklan sasaran yang mengganggu di Internet.

Memandangkan ini, pengguna harus mempertimbangkan sejauh mana mereka mempercayai syarikat ini untuk melindungi data mereka daripada iklan yang mengganggu dan memutuskan berapa banyak maklumat kesihatan untuk dikongsi dengan Google atau Microsoft.

OpenAI menyatakan bahawa syarikat hanya akan menyimpan hasil carian pengguna untuk melatih dan menambah baik modelnya. Jurucakap OpenAI berkata syarikat itu tidak menggunakan interaksi pengguna dengan chatbots untuk membina profil pengguna atau mengiklankan, dan tidak mempunyai rancangan untuk berbuat demikian pada masa hadapan.

Rory Mir, timbalan pengarah penganjuran komuniti di Yayasan Electronic Frontier bukan untung privasi, berkata sesetengah orang mungkin tidak mahu data mereka digunakan untuk latihan AI, tanpa mengira apa yang syarikat mengiklankan kedudukan yang perlu diambil. Dia menambah: "Pada satu ketika, data yang mereka pegang mungkin jatuh ke tangan syarikat lain yang anda tidak percayai begitu banyak."

3. Adakah sesiapa akan melihat sejarah sembang saya?

Kadangkala, penyemak manusia terlibat untuk menyemak jawapan chatbot. Ini bermakna mereka juga akan melihat soalan yang ditanya oleh pengguna. Contohnya, Google menyimpan banyak log sembang untuk semakan dan anotasi sehingga empat tahun. Walaupun penyederhana ini tidak dapat melihat akaun Google pengguna, Google mengesyorkan agar pengguna tidak berkongsi sebarang maklumat yang boleh dikenal pasti secara peribadi dalam sembang, termasuk nama, alamat atau butiran lain yang boleh mengenal pasti pengguna atau orang lain.

4. Berapa lama sejarah sembang saya akan disimpan?

Mill berkata: “Mengumpul data kami dan menyimpannya untuk jangka masa yang lama boleh menimbulkan risiko privasi dan keselamatan, dan syarikat ini boleh digodam atau berkongsinya dengan rakan kongsi perniagaan yang tidak boleh dipercayai ”

Dasar privasi OpenAI menyatakan bahawa syarikat itu mengekalkan data pengguna "terhad kepada masa yang diperlukan untuk kami menyediakan perkhidmatan kepada pengguna kami atau untuk tujuan perniagaan yang sah yang lain." Itu boleh jadi selama-lamanya, jurucakap syarikat enggan menyatakan.

Selain itu, Google dan Microsoft juga akan mengekalkan data pengguna sehingga pengguna meminta pemadaman.

5. Bolehkah saya mempercayai maklumat kesihatan yang diberikan oleh robot?

Dai Tinglong, seorang profesor pengurusan operasi dan analisis perniagaan tentang kesan kecerdasan buatan terhadap penjagaan kesihatan di Sekolah Perniagaan Universiti Johns Hopkins di Amerika Syarikat, berkata bahawa Internet adalah seperti beg pengumpulan maklumat kesihatan ada yang berguna dan ada yang tidak begitu berguna. Model bahasa besar seperti ChatGPT mungkin melakukan kerja yang lebih baik daripada enjin carian biasa dalam menapis spam.

Sebagai contoh, ChatGPT mungkin lebih baik daripada Google Scholar dalam membantu seseorang mencari penyelidikan yang berkaitan dengan gejala atau keadaan khusus mereka. Dalam penyelidikan Profesor Dai, beliau sedang meneliti sama ada chatbots boleh mendiagnosis penyakit jarang yang gagal dikesan oleh doktor dengan betul.

Tetapi Profesor Dai Tinglong menegaskan bahawa ini tidak bermakna kita harus bergantung pada chatbots untuk memberikan panduan kesihatan yang tepat. Beliau berkata model-model itu telah ditunjukkan untuk mereka-reka maklumat dan membentangkannya sebagai fakta, dan jawapan mereka yang salah mungkin kelihatan agak boleh dipercayai.

Selain itu, model AI memperoleh maklumat daripada sumber yang tidak boleh dipercayai. Sebagai contoh, apabila pengguna bertanya mengapa mereka berasa letih sepanjang masa, Bard mungkin memberikan beberapa kemungkinan jawapan, malah memetik tapak web tentang perangai Shih Tzus kecil. Digabungkan dengan kecenderungan manusia untuk meletakkan terlalu banyak kepercayaan pada cadangan chatbot, ini boleh menyebabkan masalah besar.

Profesor Dai Tinglong memberi amaran: "Walaupun prestasi teknologi ini mengagumkan, kini ia seperti bayi, atau mungkin seperti remaja. Orang ramai hanya mengujinya, dan apabila orang mula Apabila anda bergantung padanya, ia menjadi sangat berbahaya ”

6. Bagaimana untuk memastikan keselamatan semasa bertanya maklumat kesihatan?

Disebabkan akses yang tidak sekata atau kos penjagaan kesihatan yang tinggi, tidak semua orang mempunyai keupayaan untuk berjumpa doktor apabila mereka tidak sihat. Jika anda tidak mahu maklumat kesihatan anda disimpan pada pelayan syarikat atau digunakan sebagai bahan pengiklanan, anda boleh menggunakan penyemak imbas yang melindungi privasi.

Sebelum mendaftar untuk sebarang perkhidmatan kesihatan berasaskan sembang AI (seperti bot terapi), fahami terlebih dahulu batasan teknologi dan semak dasar privasi syarikat untuk melihat sama ada ia menggunakan data untuk "memperbaiki" Perkhidmatan" atau berkongsi data dengan "vendor" atau "rakan kongsi perniagaan" yang tidak dikenali. Kedua-dua istilah selalunya adalah eufemisme yang digunakan oleh pengiklan. (Sedikit)

Atas ialah kandungan terperinci Mengapa tidak bertanya kepada chatbot AI untuk soalan kesihatan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam