首頁 >科技週邊 >人工智慧 >科學家對大型語言模型的認真反映了人類思維

科學家對大型語言模型的認真反映了人類思維

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB原創
2025-02-25 20:45:11512瀏覽

探索LLM與人腦之間的驚人相似之處>

>本文研究了開創性的研究合併神經科學,心理學和計算機科學,以揭示大型語言模型(LLMS)和人腦之間的驚人相似之處和關鍵差異,尤其是在文本處理和程序推理中。

Scientists Go Serious About Large Language Models Mirroring Human Thinking

介紹:

LLM的興起引發了關於它們模仿人類認知過程的潛力的激烈爭論。 他們在語言,推理和解決問題方面的高級能力提出了有關基本操作原則的引人注目的問題。 以前的文章探討了這一點,尤其是關於“中國房間的論點”以及LLM文本處理與人類語言獲取之間的相似之處:

在圖靈測試,中國房間的論點和現代大語言模型

  • > 如果口頭和書面交流使人類發展智能……語言模型是怎麼回事? 人類是超級加入的“隨機鸚鵡”?
  • 微軟研究人員說,他們在gpt-4>中發現了“人工智能的火花”,
  • > >>如果智力甚至意識在AI中毫不費力,那麼……
  • >先前的工作還分析了LLM的“推理”以及及時工程對解決問題準確性的影響:
  • 新的DeepMind Works揭開了最高的語言模型種子>
  • >
>如何在字符串上訓練的語言模型?

>最近的研究闡明了驚人的相似之處:
    >
  • >本文回顧了最近的研究,探討了LLM和人類大腦之間的相似之處和區別,重點是認知任務績效,評估方法和智力的本質。 五個關鍵的研究論文構成了此分析的基礎:
  • 大語言模型和認知科學:對相似性的全面綜述,差異……本綜述(目前未經訪問)研究了LLMS和認知科學的相互作用,詳細介紹了LLM和人類的詳細方法信息處理,包括認知心理學實驗和神經影像數據的適應。 它突出了語言處理和感官判斷的相似之處,同時強調推理的差異,尤其是在新的問題上。
  • 上下文特徵提取層次結構以大語言模型和大腦融合- 自然…本文分析了十二個LLM,評估了他們在語音理解過程中預測神經反應(顱內EEG)的能力。 表現較高的LLM顯示出更大的大腦相似性,使用較少的層將其分層特徵提取與大腦的途徑對齊。 上下文信息顯著改善了模型性能和類似大腦的處理。

    >
  • >刻度很重要:具有數十億(而不是數百萬)參數的大型語言模型更好……>此審查的預印本在 elife中研究了LLM大小與人腦活動的預測之間的相關性在自然語言處理期間(使用電皮質學)。較大的LLMS更準確地預測神經活動,最佳預測層在較大模型中轉移到早期層。

    在人類和深層語言模型中共享語言處理的共享計算原理- PubMed
  • >這2022年的文章(使用GPT-2)找到了人類和LLMS共享三個計算原則的經驗證據:連續下一字預測,,連續的下一字預測,使用前發作預測來計算發出後的驚喜,並使用上下文嵌入表示單詞。
  • >在預處理中的程序知識驅動大語模型中的推理>此預印本研究LLM如何學會推理推理,並將推理策略與事實知識檢索進行比較。 推理是由程序知識驅動的,從文件中綜合解決方案的解決方案。
  • 鍵的相似之處和分歧:

    >
相似之處:

>

層次語言處理:

    >
  1. >上下文依賴性:

    兩個系統都在很大程度上依賴上下文信息。 LLMS中的較大上下文窗口增強了他們預測人類神經反應的能力,反映了大腦對理解的依賴。

  2. 差異:
  3. >

  4. 功能與形式的語言能力:在正式語言能力(語法)上表現出色時,他們經常在功能能力(語用學,幽默或諷刺等方面)。

內存機制: llm內存與人類記憶有顯著不同。人類記憶是動態的,基於經驗和關聯而適應; LLM內存依賴於固定表示。

>

將LLM評估為認知模型:> 評估LLM認知能力

提出了獨特的挑戰。 研究人員適應認知心理學實驗(例如Cogbench),並使用神經影像學數據將LLM表示與人腦活動進行比較。 但是,解釋這些發現需要謹慎,這是由於兩個系統之間的根本差異。

融合問題:

LLM是否正在發展真正的情報的問題仍然開放。 儘管他們在認知任務上的表現令人印象深刻,但與人腦的根本差異持續存在。 LLMS與大腦般的處理的融合增加了有趣的可能性,但是它們是否會達到人類水平的智力仍然不確定。

結論:

>此處審查的研究強調了LLMS和人腦之間的引人入勝的相似之處和差異。 這項正在進行的調查不僅可以提高我們對人工智能的理解,而且還加深了我們對人類認知本身的了解。 進一步讀取:

>一種新方法,用於檢測大語模型幻覺的“ confabulation” >在現代科學和技術中直接使用大語言模型

    通過讓LLMS訪問…
  • > 在經過幾個月的測試後,在課堂 - 討論中釋放了chatgpt的力量
  • (www.lucianoabriata.com-訂閱更多文章。網站上可用的服務和聯繫信息。)

以上是科學家對大型語言模型的認真反映了人類思維的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn