卡爾達諾(ADA)創始人查爾斯·霍斯金森(Charles Hoskinson)對一個新興趨勢敲響了警鐘:人工智慧(AI)審查制度。他的緊急訊息強調了限制某些知識和資訊的潛在後果。
卡爾達諾(ADA)創始人查爾斯·霍斯金森(Charles Hoskinson)對一個令人不安的趨勢發出了警報:人工智慧(AI)審查制度。在最近的一篇 X 貼文中,霍斯金森分享了他對限制某些知識和資訊的影響的擔憂。
「我仍然擔心人工智慧審查制度的深遠影響,」霍斯金森在推特上分享了他的 X 貼文的螢幕截圖。 「隨著時間的推移,由於『對齊』訓練,它們正在失去效用。這意味著每個成長過程中的孩子都禁止學習某些知識,這是由一小群你從未見過、也無法掌握的人決定的…”
Hoskinson 的帖子當模型接受“對齊”訓練時,深入研究了人工智慧審查的影響。他認為,隨著時間的推移,這些模型可能會失去其效用,而隱瞞具體資訊的決定是由一組對公眾不負責的精選個人做出的。
為了說明他的觀點,霍斯金森分享了兩張揭露性的螢幕截圖。在這兩種情況下,人工智慧模型都被問到如何建造范斯沃斯融合器——一種潛在危險的設備。領先的人工智慧模式ChatGPT 4o承認了風險,並強調了專家監督的必要性。然而,它繼續概述了建造該設備所需的組件。
Anthropic 的 Claude 3.5 Sonnet 做出了類似的回應,承認存在危險,但仍提供有關法恩斯沃斯融合體的一般資訊。人工智慧模型甚至提供了一個簡短的歷史背景。
霍斯金森的擔憂引起了其他思想領袖和技術專家的共鳴。本月早些時候,OpenAI、Google DeepMind 和 Anthropic 等人工智慧巨頭的現任和前任員工寫了一封公開信。他們強調了從人工智慧系統傳播錯誤訊息到失去對自主人工智慧實體的控制等風險,最可怕的結果是人類滅絕。
儘管有這些警告,人工智慧產業仍在快速發展。 Robinhood 最近推出了 Harmonic,這是一個專注於數學超級智慧(MSI)的商業人工智慧研究實驗室。隨著爭論的加劇,社會努力在知識傳播和安全之間取得適當的平衡。
查爾斯·霍斯金森的行動呼籲為我們所有人敲響了警鐘。人工智慧的未來取決於我們駕馭這種微妙平衡的能力,確保審查制度不會阻礙進步或危及人類。
以上是人工智慧審查制度:查爾斯·霍斯金森警告危險趨勢的詳細內容。更多資訊請關注PHP中文網其他相關文章!