首頁 >科技週邊 >人工智慧 >了解GPT-4應用的相關資訊有哪些?

了解GPT-4應用的相關資訊有哪些?

王林
王林轉載
2023-05-09 19:43:171147瀏覽

自從OpenAI公司發布大型語言模型GPT-4以來,人們都在嘗試使用這個令人興奮的應用程式。 GPT-4可以將手繪的網站模型產生HTML程式碼。許多用戶證明,它可以從信用卡交易中找到實體地址,產生訴訟草稿,通過SAT數學考試,幫助教育和培訓,甚至創建第一人稱射擊遊戲。

了解GPT-4應用的相關資訊有哪些?

GPT-4的強大功能確實令人驚嘆,隨著越來越多的用戶訪問其多模式版本,人們可以期待推出更多的大型語言模型。然而,在人們慶祝科學家在大型語言模型領域的進步的同時,也必須注意到它們的限制。

像GPT-4這樣的大型語言模型可以執行許多任務,但它們不一定是完成這些任務的最佳工具。如果他們成功地完成了一項任務,但這並不意味著他們在該領域是更可靠的。

大型語言模型的科學突破

GPT-4在發布之後引發了許多用戶對OpenAI公司的批評,其中許多批評都是有道理的。隨著GPT的每一次發布,它們的技術細節變得越來越不透明。 OpenAI公司在發布GPT-4時發布的技術報告中很少包含該模型的架構、訓練資料和其他重要方面的細節。種種跡象表明,OpenAI公司正逐步從一家人工智慧研究實驗室轉型為一家銷售人工智慧產品的公司。

然而,這並沒有削弱大型語言模型所帶來的引人入勝的技術突破。 OpenAI公司在這些技術發展中發揮了重要作用。在短短幾年的時間中,已經從處理語言任務的最平庸的深度學習模型,發展到可以產生非常像人類的文本的大型語言模型,至少在表面上是如此。

此外,有了足夠的參數、計算能力和訓練數據,Transformer (大型語言模型中使用的架構)可以學習使用單一模型執行多個任務。這一點非常重要,因為直到最近,深度學習模式才被認為只適用於來執一項任務。現在,大型語言模型可以透過零樣本和少量快照學習來執行幾個任務,甚至在擴展時顯示出緊急能力。

ChatGPT充分展示了大型語言模型的最新功能。它可以在一次對話中執行編碼、問答、文字生成和許多其他任務。由於採用訓練技術,從人類回饋中強化學習(RLHF),它在遵循指示方面做得更好。

GPT-4和其他多模式語言模型正在顯示新一波功能,例如在對話中包含圖像和語音訊息。

GPT-4有哪些好的應用?

一旦超越了科學成就,就可以開始考慮像GPT-4這樣的大型語言模型可以提供什麼樣的應用程式。對人們來說,確定大型語言模型是否適合應用的指導原則是它們的機制。

與其他機器學習模型一樣,大型語言模型是預測機器。基於訓練資料中的模式,它們預測接收到的輸入序列中的下一個令牌,它們做得非常有效。

下一個令牌預測對於某些任務(如文字產生)是一個很好的解決方案。當大型語言模型接受RLHF等指令跟隨技術的訓練時,它可以執行語言任務,例如撰寫文章、總結文本、解釋概念和回答問題,並取得驚人的成績。這是大型語言模型目前最準確和最有用的解決方案之一。

然而,大型語言模型在文本生成方面的能力仍然有限。大型語言模型通常會產生幻覺,或編造一些不正確的東西。因此,人們不應該相信他們是知識的來源。這包括GPT-4。例如,在行業專家對ChatGPT的探索中,發現它有時可以對複雜的主題產生非常雄辯的描述,例如深度學習是如何運作的。當他試圖向一個可能不了解某個概念的人解釋這個概念時,這很有幫助,但也發現ChatGPT也可能犯一些事實錯誤。

對於文字生成,產業專家的經驗法則是只在熟悉的領域信任GPT-4,並且可以驗證其輸出。有一些方法可以提高輸出內容的準確性,包括對特定領域知識的模型進行微調,或者透過在提示符前添加相關資訊來為其提供場景。但同樣,這些方法要求人們對該領域有足夠的了解,以便能夠提供額外的知識。因此,不要相信GPT-4產生有關健康、法律建議或科學的文本,除非已經知道這些主題。

程式碼產生是GPT-4的另一個有趣的應用。行業專家已經審查過GitHub Copilot,它是基於GPT-3的微調版本,其名稱為Codex。當程式碼產生整合到其IDE中(例如Copilot),它會變得越來越有效,並且可以使用現有程式碼作為場景來改進大型語言模型輸出。然而,同樣的規則仍然適用。只使用大型語言模型來產生可以完全審查的程式碼。盲目地相信大型語言模型可能會導致無功能和不安全的程式碼。

GPT-4有哪些不好的應用?

對於某些任務,像GPT-4這樣的語言模型並不是理想的解決方案,即使它們可以解決範例。例如,經常討論的主題之一是大型語言模型執行數學的能力。他們已經接受了不同數學基準的測試。據報道,GPT-4在複雜的數學測驗中表現非常好。

然而,值得注意的是,大型語言模型並不像人類一樣一步一步地計算數學方程式。當向GPT-4提供提示「1 1=」時,將為人們提供正確答案。但在幕後,它並沒有執行「新增」和「移動」操作。它執行與所有其他輸入相同的矩陣運算,預測序列中的下一個標記。它給確定性問題一個機率性的答案。這就是GPT-4和其他數學大型語言模型的準確性在很大程度上取決於訓練資料集的原因,並且是在偶然的基礎上工作。人們可能會看到它們在非常複雜的數學題目上取得驚人的成績,但在簡單的初級數學問題上卻失敗了。

這並不意味著GPT-4對數學沒有用。一種方法是使用模型增強技術,例如將大型語言模型與數學求解器結合。大型語言模型從提示符號中提取方程式數據,並將其傳遞給解算器,解算器計算並傳回結果。

GPT-4的另一個有趣用例是可汗學院(Khan Academy)正在做的事情。他們將大型語言模式課程整合到他們的線上學習平台中,作為學習者的導師和教師的助手。由於這是OpenAI公司在GPT-4發佈時宣傳的合作夥伴之一,他們可能已經根據其課程內容對GPT-4進行了微調。該模型還與平台的內容很好地整合在一起,以提供場景並減少錯誤。但值得注意的是,GPT-4並不是為了解決數學問題,而是引導學生和教師學習和教授數學概念。

GPT-4作為產品

一旦使用者決定了GPT-4是否適合其應用,就必須從產品的角度來看待它。 GPT-4產生的每個令牌都是數千億次運算的結果。使用者必須問自己的第一個問題是,「我的應用程式需要這樣的計算嗎?」事實上,在許多情況下,即使GPT-4提供了一個完美的答案,也可能有更簡單、更快、成本更低的解決方案。例如,在許多情況下,正規表示式等簡單的解決方案在提取資訊方面更有效。

事實上,產業專家與ChatGPT進行了一次有趣的對話,在對話中問ChatGPT 「GPT-ify」是什麼意思。 ChatGPT將其描述為「基於GPT(產生預訓練轉換器)架構的語言模型的技術和功能,例如GPT-3或GPT- Neo,應用於特定的任務或問題。」

然後產業專家問GPT-ify是否可以用來嘲笑那些使用GPT做一些不需要它的事情的人。 ChatGPT這樣回答:「是的,GPT-ify當然可以被諷刺或諷刺地用來暗示某人過度使用或濫用GPT來完成不需要如此複雜的語言模型的任務或問題。例如,如果有人使用預訓練的GPT模型來產生一個簡單的購物清單,有人可能會開玩笑說他們已經'GPT化了他們的購物清單'。」

因此,不要在沒有探索其他選擇的情況下對產品進行GPT化。像所有其他技術一樣,應該將GPT-4視為產品工具箱中的眾多工具之一。正如ChatGPT所建議的那樣,「關鍵是要根據當前任務的具體要求和限制,為工作選擇合適的工具。」

以上是了解GPT-4應用的相關資訊有哪些?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除