首頁  >  文章  >  科技週邊  >  使用ChatGPT創建內容時應該避免的四個錯誤

使用ChatGPT創建內容時應該避免的四個錯誤

王林
王林轉載
2023-06-04 10:30:24836瀏覽

使用ChatGPT創建內容時應該避免的四個錯誤

ChatGPT越來越受內容創作者的歡迎,是因為它能夠在短時間內產生大量內容。然而,像任何強大的技術一樣,人工智慧語言模型也可能被濫用。

在輕視這個問題之前,需要認識到濫用人工智慧可能會帶來法律問題、聲譽損害和錯誤輸出的風險。以下探討如何避免內容創作者使用ChatGPT的錯誤方式。

1、不要過度依賴ChatGPT

如果使用者初次使用ChatGPT,他們會立刻注意到它的快速反應速度。以前花費幾個小時創造的東西現在只需要幾秒鐘。隨著時間的流逝,使用者可能會開始強烈地依賴軟體,通常只做一些修改而不費力去深入研究。

這種現象指人們過度依賴人工智慧,創作者被迫快速生產內容,而這成了他們的誘人之處。然而,微軟公司發表的人工智慧過度依賴的文獻綜述警告說,過度依賴人工智慧會導致用戶接受錯誤的結果。

以網路媒體CNET的爭議為例。 CNET發表了人工智慧撰寫的財務分析文章,署名為「CNET Money Staff」。遺憾的是,一些專家發現了人工智慧產生的文章中明顯的錯誤。這句話可以重寫為: 它譴責這家媒體機構發布令人不安的財務建議,以及透過大量製作低質內容來操縱谷歌搜尋結果以獲得利益。

CNET是在過度依賴人工智慧、過度自信,或者沒有人會注意到。無論如何,這事件應該成為一個警告,不要過度依賴人工智慧的輸出。

要記住的是,ChatGPT可能會大量輸出過時的資訊。正如ChatGPT公司自己所說,訓練ChatGPT所採用的知識的截止日期為2021年9月,所以用戶反覆檢查資訊的真實是很好的措施。

OpenAI公司的CEO Sam Altman也在美國廣播公司新聞的視訊訪談中提到,用戶應該對ChatGPT的「幻覺問題」更加謹慎。它可以自信地陳述虛構的想法,就好像它們是事實一樣。像CNET網路這一事件可能會損害用戶將其作為權威消息來源的可信度。

當使用者缺乏足夠的知識來評估結果時,他們會更容易盲目地接受ChatGPT所產生的內容。如果ChatGPT的回答與使用者的觀念相符,他們可能不會特別努力去探索不同的觀點。要避免這些尷尬的局面,需要確證事實,探求各種不同的觀點,並請教專家的意見。

使用者正在學習使用ChatGPT進行內容創作,包括什麼是人工智慧幻覺,以及如何在要掌握的主題清單中發現它。更重要的是,不要忽略人類的判斷力和創造力。需要記住的是,人工智慧應該增強其思維,而不是取代它。

2、不要向ChatGPT索取研究鏈接

如果用戶要求ChatGPT提供研究資源的互聯網鏈接,那麼可能會感到失望。雖然ChatGPT可能會提供鏈接,但那些鏈接可能是錯誤的或不一定是網絡上最佳的內容。

為了進行測試,研究人員讓ChatGPT提供JSTOR的研究論文鏈接,這些論文是關於英國年輕奇幻作家撰寫的成長故事。 ChatGPT提供了5種資源,包括標題、卷號、頁碼和作者。

乍一看,這份名單似乎可信。 JSTOR上的文章有一些聽起來令人印象深刻的標題,例如《建構混合身份:薩莉格林三部曲中的種族與民族》。但是谷歌搜尋很快就會顯示大多數連結指向錯誤的JSTOR文章,其中一個連結指向404頁面。

提供ChatGPT一個更具體的主題,看看是否能取得更好的結果。這是使用的提示:「我正在寫一篇關於『英國青年和成年當代小說中的女主角』的文學研究論文,你能給我一篇關於這個主題的文獻綜述嗎?」

ChatGPT列出了五部作品的清單,同時註明了作者姓名和摘要。然而,人們在網路上找不到它列出的任何作品。

為了更好地理解這些訊息,研究人員要求提供連結。 ChatGPT這次拒絕了,解釋說它只是一個沒有網頁瀏覽功能的人工智慧語言模型。然而,它提供了書目信息,儘管這些作品據稱是在2004~2018年期間創作的,但無法在網上核實。

ChatGPT堅決拒絕提供連結以驗證其提供的資訊。 OpenAI公司表示,它沒有網頁瀏覽功能,而是提供了一份書目資訊清單。然而,其數據仍然是錯誤的。

OpenAI公司上最新的ChatGPT發布說明顯示它現在具有網頁瀏覽功能。但是這些功能還沒有普及到每一個用戶。此外,正如研究人員所指出的那樣,ChatGPT的搜尋結果不一定是網路上最好的,因為專業人士可以操縱搜尋引擎的結果。

為了避免這個問題:

  • 使用者可以為其研究使用更合適的線上資源。
  • 如果需要學術研究的資源,可以查看Google Scholar或人工智慧研究助理Elicit。
  • 在選擇引用哪一篇文章時,記得要批判性地評估結果並做出判斷。

3、不要用ChatGP代替職場關係

ChatGPT的功能可能會誘使用戶將它擬人化或賦予它人類屬性。例如,可以向ChatGPT尋求建議,如果需要找人聊天,可以和它聊天。

ChatGP似乎是個情感聆聽者,它可以作為你最好的朋友,在職場倦怠時為你提供建議。

但無論它聽起來多麼富有同情心,ChatGPT都不是人類。聽起來像人類生成的句子只是ChatGPT根據其訓練資料預測序列中的下一個單字或「標記」的結果。它不像人類有知覺,有自己的意志和思想。

也就是說,ChatGPT並不能取代工作場所中的人際關係和協作。正如哈佛大學「工作與幸福倡議」所言,這些人際關係讓人受益,有助於提高幸福感,免受工作壓力的影響。

學習使用最新的技術工具很重要,但與團隊其他成員的互動也是必不可少的,而不是依靠ChatGPT複製社會關係,建立人際關係技能,與同事互動,並找到能夠一起更好地完成工作的人。

4、不要向ChatGPT發送無效提示

你是否遇到了在使用ChatGPT時難以獲得最佳回應的問題? 如果你能提供具體情境和明確的指引,這個問題就可能會得到解決。

在下面的例子中,可以讓ChatGPT總結一下美國鄉村音樂歌手Eric Allen在Hackernoon上寫的一篇有趣的部落格。這篇冗長的文章描述了Allen在ChatGPT中改進人工智慧提示的過程,以創建一個名為BeatBrain的音樂推薦系統。

然而,ChatGPT並不熟悉Allen的文章。當要求ChatGPT分享連結並做出總結時,ChatGPT錯誤地聲稱Eric Allen創立了BeatBrain公司,該公司利用GPT-3技術創作人工智慧生成的音樂。

為了協助 ChatGPT 進行文章整理,需要將文章拆成若干部分後進行複製貼上,每一次上傳都必須提供相應的摘要。 ChatGPT這次能夠準確地完成任務。研究人員使用了另一個指示來重新定向評論而不是摘要的ChatGPT。

這個實驗旨在示範如何利用ChatGPT有效地概括長篇技術文章。然而,人們現在可以存取許多網路資源,並學習提示技術來改善其ChatGPT回應。

使用建議的提示並不是防止ChatGPT產生幻覺的萬無一失的方法,但它可以幫助服務商提供準確的結果,還可以查看GitHub上最好的ChatGPT提示,以獲取有關提示技術的更多資訊。

最大化ChatGPT的功能,但要注意它的限制

使用ChatGPT需要謹慎和責任,雖然它帶來了前所未有的速度和方便。避免過度依賴ChatGPT,需要使用更合適的工具進行研究,更好地與團隊合作,並學會有效地使用提示以最大限度地獲得其好處。

接受ChatGPT的力量,但要隨時注意其限制。透過最大化ChatGPT的潛力,同時最小化它的缺陷,可以產生有影響力的、有創意的內容,從而提高工作品質。

以上是使用ChatGPT創建內容時應該避免的四個錯誤的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除