首頁  >  文章  >  科技週邊  >  為什麼不要向AI聊天機器人諮詢健康問題?

為什麼不要向AI聊天機器人諮詢健康問題?

王林
王林轉載
2023-04-30 23:01:131088瀏覽

為什麼不要向AI聊天機器人諮詢健康問題?

4月28日訊息,自從OpenAI、微軟和Google推出了AI聊天機器人,許多人開始嘗試一種新的網路搜尋方式:與一個模型進行對話,而它從整個網路上學到的知識。

專家表示,鑑於之前我們傾向於透過搜尋引擎查詢健康問題,我們也不可避免地會向ChatGPT、Bing和Bard等工具提問。然而,這些工具會犯一些我們熟悉的隱私錯誤,也會創造一些新的錯誤。 「消費者至少應該以懷疑的態度看待這些工具,因為和其他許多流行技術一樣,它們都受到了廣告和行銷力量的影響。」

在向人工智慧聊天機器人分享敏感健康資訊或在任何其他秘密之前,有幾個需要知道的事情:

1、這些機器人會保存我的聊天記錄嗎?

沒錯,ChatGPT、Bing和Bard都會儲存使用者的輸入。不過,GoogleBard正在對少量用戶進行測試,它提供了一個設置,讓用戶可以要求該公司停止保存查詢記錄,並取消與用戶的Google帳戶相關聯。只需點擊左上角的選單列並關閉“Bard Activity”即可。

而使用者也可以在OpenAI的設定中關閉「聊天歷史記錄和訓練」選項,從而限制聊天記錄的保存時間。該公司表示,關閉後將僅保存聊天記錄30天,並避免將其用於人工智慧的訓練。

2、這些公司拿我們的聊天記錄幹嘛?

這些公司利用用戶的查詢和回覆來訓練人工智慧模型,以提供更好的答案。但是,這些聊天記錄的用途不只如此。谷歌和微軟在推出人工智慧聊天機器人時,在隱私權政策中也留出了使用用戶聊天日誌進行廣告的空間。這就意味著,如果你提問與矯正鞋相關的問題,將來你可能會看到這方面的廣告。

這樣的廣告可能對使用者的影響不大。但是,當健康問題和數位廣告交叉時,就可能會帶來傷害。先前的報告顯示,包括WebMD和Drugs.com在內的許多症狀檢查站點與外部廣告公司分享了用戶潛在的敏感健康問題,如憂鬱症或愛滋病毒,以及用戶識別碼。

此外,數據經紀人也會向買家出售大量的人員名單和他們的健康擔憂清單,這些買家可能包括政府或保險公司。有些患有慢性疾病的人報告說,他們在網路上看到了令人不安的定向廣告。

有鑑於此,用戶應該考慮他們有多大程度上相信這些公司會保護他們的數據,以避免侵入性廣告,並決定與Google或微軟分享多少健康資訊。

OpenAI則表示,公司只會保存使用者的搜尋結果來訓練和改進其模型。 OpenAI發言人表示,該公司不會利用用戶與聊天機器人的互動來建立用戶檔案或打廣告,未來也沒有這樣的計畫。

隱私非營利組織電子前沿基金會的社區組織副主任羅裡·米爾(Rory Mir)表示,有些人可能不希望自己的數據被用於人工智慧培訓,而不管這些公司在廣告方面採取什麼樣的立場。他補充說:「在某個時候,他們掌握的數據可能會落入另一家你不那麼信任的公司手中。」

3、會有人查看我的聊天記錄嗎?

有時候,會有人工審查員參與審核聊天機器人的回答。這意味著,他們也會看到用戶查詢的問題。例如,Google保存了許多聊天記錄以供審查和註釋,最長可保存四年。儘管這些審查員無法查看用戶的谷歌帳戶,但是谷歌還是建議用戶在聊天中不要分享任何個人身份信息,包括姓名、地址或其他可以識別用戶或其他人的細節。

4、我的聊天記錄會被保存多久?

米爾表示:「公司收集我們的資料並長期保存可能會帶來隱私和安全風險,這些公司可能會被駭客入侵,或與不值得信任的商業夥伴分享這些資料。 」

OpenAI的隱私權政策顯示,該公司保存使用者資料的時間為「僅限於我們為使用者提供服務或其他合法商業目的所需的時間」。這可能是無限期的,該公司發言人拒絕具體說明。

另外,Google和微軟也會保留用戶的數據,直到用戶要求刪除。

5、我能相信機器人提供的健康資訊嗎?

美國約翰霍普金斯大學商學院人工智慧對醫療保健影響的營運管理和商業分析教授戴廷龍表示,網路就像是健康資訊的聚集袋,有些資訊有用,有些則不是很有用。在篩選垃圾資訊方面,像ChatGPT這樣的大型語言模型可能比常規搜尋引擎做得更好。

例如,ChatGPT可能比Google Scholar更好地幫助某人找到與他們特定症狀或情況相關的研究。在戴廷龍教授的研究中,他正在檢查聊天機器人是否能夠正確診斷醫生未能發現的罕見疾病。

但戴廷龍教授指出,這並不意味著我們應該依賴聊天機器人來提供準確的健康指導。他說,這些模型已經被證明可以編造訊息,並將其作為事實呈現出來,而它們的錯誤答案可能讓人覺得相當可信。

此外,人工智慧模型也透過不可靠的來源獲得資訊。例如,當使用者詢問為什麼總是感到疲憊不堪時,Bard可能會提供許多可能的答案,甚至引用一個關於小西施犬性情的網站。再加上人類傾向於過度信任聊天機器人的推薦,這很可能造成大問題。

戴廷龍教授警告:「雖然這項技術的表現令人印象深刻,但現在它就像是嬰兒,或者可能像十幾歲的孩子。人們只是在測試它,而當人們開始依賴它時,它就會變得非常危險。」

6、如何查詢健康資訊才能確保安全?

由於獲得醫療保健的機會參差不齊或費用高昂,並不是每個人在感覺不舒服時都能去看醫生。如果你不想讓自己的健康問題被保存在某個公司的伺服器上,或是成為廣告的素材,那麼可以使用隱私保護瀏覽器。

在註冊任何基於人工智慧聊天的健康服務(例如治療機器人)之前,首先要了解這項技術的局限性,並檢查該公司的隱私政策,看看它是否使用數據來「改善服務”,或與未透露身分的“供應商”或“商業合作夥伴”共享資料。這兩個詞通常都是廣告商的委婉說法。 (小小)

以上是為什麼不要向AI聊天機器人諮詢健康問題?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除