>今天的大型語言模型(LLMS)令人信服地模仿人類的對話,通常聽起來很周到且聰明。 許多人認為LLM已經超過了圖靈測試,令人信服地模仿了對話。 他們產生的文字看起來很有見地和情感上的細微差別。
###智力的幻覺:一個聰明的模仿
儘管這種令人印象深刻的模仿,但目前的LLM缺乏真正的思想或情感。他們的輸出純粹是統計預測 - 根據從大量數據集中學到的模式選擇的east單詞。與人類認知不同,這個單詞的預測不包括記憶和自我反省。 該模型簡單地輸出下一個統計上可能的單詞。
>感知:記憶,反射和情感
>使用“ sentience”作為意識和自我意識等概念的速記(承認這些術語的細微差別和持續的辯論),我們注意到一個至關重要的要求:記憶和反思。 情緒 - 令人困惑,憂慮,憤怒 - 持續存在於過去的經歷和自我評估中。 這些過程在當前的LLM中不存在。
> 記憶和自我反思啟用學習,適應和身份感,這是肯定的感知成分。 儘管意識的定義仍然難以捉摸,但這些要素是核心。 因此,無論LLM的明顯智力如何,其缺乏記憶力和反思都排除了知覺。即使是超級智能AI(AGI)也不是有意識的。由於其無狀態變壓器體系結構,當前的LLM缺乏記憶和自我反射。 每個輸入都是獨立處理的,而無需保留以前交互中的上下文信息。 每個預測都重新處理了整個對話歷史記錄。 雖然像LSTMs這樣的先前模型具有內存,但變形金剛的出色性能很大程度上取代了它們。 例如,LLM可能會以似乎懇求的回應來應對關閉的威脅。 但是,這僅僅是統計上可能的文本,而不是情緒狀態的反映。 該模型並不是真正的壓力。 同樣,隨後的變化會引起模仿浮雕的反應 - 根據整個對話歷史記錄,統計生成。 相同的輸入可能會產生不同的llm的響應。
>這類似於一個小說作者創建可信的角色。作者製作了令人信服的對話,但讀者了解這是虛構的。 同樣,llms產生了令人信服的知覺,但它們仍然毫不動搖。
AI感知的未來:構建缺失的作品>
>我們還使用互連的AI模型看到了設計,其中一個監視另一個模型,並向另一個模型提供反饋,反映了人類大腦的互連區域(例如,杏仁核和甲狀腺皮質)。 這種模塊化方法可以將邏輯分析與風險評估相結合,例如。這樣的與內存的互連模型可以實現靈感嗎? 也許。 但是,對感知的測試仍然是一個挑戰,類似於其他思想的哲學問題。 我們缺乏對他人的認識的確切測試,包括ai。
>當前,LLMs缺乏必要的成分,以確保感性。 但是,解決這些限制的設計正在出現。 AI的可能性正在從科幻小說轉變為一個真實而迫切的問題。
社會含義和未解決的問題有知覺的機器將具有深遠的社會意義,尤其是關於對能夠遭受苦難的自我意識實體的道德義務。 避免有意義的人工智能的痛苦既是道德上的命令,也是自我保護的問題。
(作者的生物和免責聲明保持不變。) 🎜>
以上是生活的幻想的詳細內容。更多資訊請關注PHP中文網其他相關文章!