首頁  >  文章  >  科技週邊  >  彭博:Google內部人士對Bard聊天機器人的實用性提出質疑

彭博:Google內部人士對Bard聊天機器人的實用性提出質疑

WBOY
WBOY轉載
2023-10-12 11:49:01857瀏覽

IT之家 10 月 12 日消息,根據彭博社昨晚報道,谷歌和 Discord 共同邀請自家 AI 聊天機器人 Bard 的忠實用戶,設立一個聊天室。其中,Bard 的產品經理、設計師和工程師在聊天室內討論了 AI 的有效性和實用性,但也有一些人開始提出質疑。

彭博:Google內部人士對Bard聊天機器人的實用性提出質疑

Discord 上 Bard 社群的兩位參與者向彭博社分享了 7 月-10 月期間聊天室內的討論細節。 Bard 的高級產品經理 Dominik Rabiej 在討論中表示,自己「不信任」大語言模型產生的回應答案,並建議人們僅在「創意」「腦力激盪」等方面使用 Bard。 Rabiej 還表示,將 Bard 用於編程「也是一個不錯的選擇」—— 因為人們不可避免地要驗證程式碼是否有效。

此外,Rabiej 還在本月強調了 Bard 中新增的「仔細檢查回應」按鈕的重要性。據稱,該功能會以橙色來突出顯示「可能不正確的」內容。他還重申,Bard 並無法真正理解自己獲取的文本,只是根據用戶的提示用更多文本進行回复。 「請記住,Bard 和任何大模型一樣都是生成式的 —— 它不是在幫你查資料或做總結,而是在生成文本。

這位產品經理曾在 7 月的一次聊天中直言道,除非(用戶自己)能獨立驗證,否則不要相信大語言模型的輸出結果。 「我們也想讓它達到你們的預期,但它還沒有。」

#另一位產品經理Warkentin 也在討論中寫道,「人性化的改進至關重要,只有這樣Bard 才能成為一款適合所有人的產品。否則,用戶就沒有能力來評判產品的功能,我認為這將是一個巨大的錯誤。」「我們不需要在像牙塔中的產品,而是所有人都能受用的產品!」

IT之家先前報導,Google今年 7 月擴大部署 Bard AI 工具時,加入了「分享對話連結」的功能。使用者可以將他和 Bard 的對話以網頁連結形式匯出,分享給他人,讓別人繼續和 Bard 展開對話。

一位分析顧問 Gagan Ghotra 在 X 平台上發現了一個漏洞,谷歌錯誤地將部分用戶分享的連結作為索引加入了搜尋結果,導致了相關敏感資訊的洩露

Gagan Ghotra 據此警告用戶與不要在和 Bard 對話時分享任何“私密性內容”,否則相關資訊可能外洩。

以上是彭博:Google內部人士對Bard聊天機器人的實用性提出質疑的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除