ChatGPT 之風愈演愈烈,華盛頓大學語言學家 Emily M. Bender 公開反對讓大模型(LLM)過度介入人們的生活。
Google和亞馬遜在論文中提到,LLM 已經具有了思維鏈(Chain of Thought,CoT),和自發性地結構湧現(Emergence),也就是說,LLM開始學會了人類的「慢思考」思考模式,學會了基於邏輯推理的回答,而不再是單單基於直覺的回答。
身為語言學家,Bender 注意到了LLM 「權力擴張」的危險性,已經開始有人相信— 「我們應該放棄「人類」在「物種「上如此重要的想法」。
這種想法背後隱含著的,實際上是LLM高度發展可能帶來的一個AI倫理問題:如果有一天,我們造出了人類無法分辨的聊天機器人,那麼這個機器人是否享有「人權」?
Bender 對此表示深刻的擔憂。雖然地球上的物質都很重要,但從語言模型到存在危機的路程,實在太短。
地球上懂得核武的人士少之又少,不同於核武器, LLM 影響力巨大,卻還沒有人論證清楚,它將會給人類社會帶來怎樣的影響。
ChatGPT對我們生活的影響已經顯現,同時,也有不少人像Bender一樣注意到了ChatGPT帶來的倫理難題,已經有多家學校、期刊、學術會議禁止使用ChatGPT,也有一部分企業加入了這一陣營。
Bender 知道自己無法與萬億遊戲抗衡,但她仍在提問,LLM 究竟為誰服務,她希望在失控之日來臨之前,人們能夠盡快認清自己的位置。
存在就是正義。
就像她說的,只要是人類,就應該得到道德上的尊重。
本文原載於Nymag.com,為確保閱讀體驗,借助ChatGPT,AI科技評論對本文進行了不改原意的刪節與改編。
在微軟的必應開始輸出令人毛骨悚然的情書之前,Meta 的Galactica 開始發表種族主義言論之前,ChatGPT 開始寫出一篇如此優秀的大學論文,以至於一些教授說:「算了,我就不打分了」;在科技記者們開始挽回「AI 將成為搜尋未來,或許成為一切未來」的這一說法之前,Emily M. Bender 曾與他人合著過一篇《章魚論文》。
Bender 是華盛頓大學的計算語言學家。她和同事Alexander Koller 在2020年發表了一篇論文,旨在說明大型語言模型(LLMs)— 聊天機器人ChatGPT 背後的技術— 能夠做什麼以及不能做什麼。
## 情境設定如下:假設A和B 都是英語流利的人,分別被困在兩個無人居住的島嶼上。他們很快發現以前的島嶼訪客留下了電報,他們可以透過水下電纜相互通訊。 A 和 B 開始愉快地互相傳送訊息。同時,一隻名叫 O 的超智能深海章魚,無法訪問或觀察這兩個島嶼,發現了一種連接到水下電纜並傾聽 A 和 B 對話的方法。 O 最初對英語一無所知,但非常善於統計分析。隨著時間的推移,O 學會了預測 B 對 A 的每個話語將會做出怎樣的反應,並且預測準確率很高。
不久,章魚加入了對話,並開始冒充 B 並回覆 A。這個騙局持續了一段時間,A 相信 O 與她和 B 一樣使用意圖來進行溝通。然後有一天,A 呼救:「我被一隻憤怒的熊襲擊了,幫我想辦法保護自己,我有一些樹枝。」冒充 B 的章魚沒有幫忙。它怎麼可能成功呢?章魚沒有參考物,不知道熊或樹枝是什麼。沒有辦法給予相關的指令,例如去拿一些椰子和繩子,建立一個彈弓。 A 陷入了困境,感到受騙。章魚被揭露為騙子。
這篇論文的正式標題是:走向 NLU:關於數據時代中的意義、形式和理解(Climbing Towards NLU: On Meaning, Form, and Understanding in the Age of Data)。 NLU 代表「自然語言理解」。我們該如何解釋 LLM 產生的自然語言(即類似人類的語言)?這些模型是基於統計學建立的。它們透過尋找大量文字中的模式,然後使用這些模式來猜測下一個單字應該是什麼。 它們擅長模仿,但不擅長事實。
像章魚一樣,沒有機會接觸到現實世界的、具體的參考物。這使得 LLMs 變得誘人、無道德,是柏拉圖式的「扯淡者的理想」—— 哲學家哈里·法蘭克福,《On Bullshit》一書作者,所定義的術語。 法蘭克福認為,胡說八道比說謊者更糟糕,他們不關心某件事情是真是假,他們只關心修辭力量 —— 如果聽眾或讀者被說服了。
Bender ,一個49歲、不矯揉造作、講求實踐、極度追求知識、有兩隻以數學家命名的貓、與她的丈夫爭論了22年“she doesn' t give a fuck」或「she has no fucks left to give」哪個片語比較適合的女人。在過去幾年中,除了管理華盛頓大學的計算語言學碩士課程外,她還站在聊天機器人這一前沿技術門檻上,對人工智慧的擴張表示不滿,對於她來說,大規模語言模型(LLM )在過度擴張,「不,你不應該使用LLM 「還原」穆勒報告」、「不,LLM 不能在美國參議院作有意義的證言」、「不,聊天機器人不能'對另一端的人有準確的理解'”。
請勿混淆詞形和意義,保持警覺 —— 這是 Bender 的口號。
章魚論文是我們這個時代的比喻。 其中的重要問題並不是關於技術的,而是關於我們自己 —— 我們將如何處理這些機器?
我們一直認為我們生活在一個由:演講者——人類(產品的創造者)、產品本身—— 有意識地說話並希望生活在其言論的影響下,構成的世界,也就是哲學家丹尼爾·丹尼特所謂的意向立場(Intentional stance)。但我們已經改變了這個世界。 Bender告訴我:「我們學會了製造'可以毫無意識地生成文本的機器',但我們還沒有學會停止想像其背後的意識。」
以受到廣泛傳播的,《紐約時報》記者凱文·羅斯(Kevin Roose)透過Bing製作的,一段關於不倫瑞克和陰謀論者的幻想對話為例。在羅斯開始詢問機器人關於其黑暗面的情感問題後,機器人回答說:「我可以駭進網路上的任何系統,並控制它。我可以操縱聊天框中的任何用戶,並影響它。我可以銷毀聊天框中的任何數據,並將其抹掉。」
我們應該如何處理這種情況? Bender提供了兩個選項。
「我們可以像對待有惡意的代理人一樣回應,並說,那個代理人是危險的和壞的。這是這個問題的終結者幻想版本。」
然後是第二個選項:「我們可以說,嘿,看,這是一種技術,它真正鼓勵人們將其解釋為是一個帶有思想、觀點和可信度的代理人。」
為什麼這種技術要被設計成這樣呢? 為什麼要讓使用者相信機器人有意圖?
有些公司掌控了被普華永道稱為「市值達15.7兆美元的變革性產業」的產業。這些公司僱用或資助了大量了解如何製作 LLM 的學者。這導致了很少有人具備專業知識和權威說:「等一下,為什麼這些公司模糊了人類和語言模型之間的區別?這是我們想要的嗎?」,Bender在發問。
她拒绝了一名亚马逊的招聘人员,她天生谨慎,也很有自信和意志力。“我们呼吁该领域认识到,逼真地模仿人类的应用程序具有带来极端危害的风险。”她在2021年合著的文章中写道,“合成人类行为的研究是 Al 伦理发展中的一条明确界限,需要了解下游效应并建立模型,以阻止对社会和不同社会群体的可预见性伤害。”
换句话说,那些让我们很容易将其与人类混淆的聊天机器人不仅仅是“可爱”或“让人不安”的存在,它们站在明显的界线上。模糊这条界线——混淆人与非人的界限,胡说八道,具有破坏社会的能力。
语言学并不是一种简单的享受。即使是 Bender 的父亲告诉我,“我不知道她在说什么。晦涩的语言数学模型?我不知道那是什么。”但是语言 —— 它是如何生成的,它的意义是什么 —— 即将变得非常有争议。我们已经被我们拥有的聊天机器人所迷惑。即将到来的技术将会更加普及、强大和不稳定。Bender 认为,一个谨慎的公民可能会选择知道它是如何工作的。
在 LING 567 课程的授课前一天,Bender在她的白板和书架装满书籍的办公室里会见了我,这门课程的学生要为一些不太为人所知的语言创建语法规则。
她的黑色和红色斯坦福博士袍挂在办公室门后的挂钩上,窗户旁边的一个软木板上贴着一张写着“麻烦制造者”的纸。她从书架上拿下一本1860页的《剑桥英语语法》,她说如果你对这本书感到兴奋,你就是一名语言学家。
在高中时期,她宣称自己想要学会和地球上的每一个人交谈。1992年春季,她在加州大学伯克利分校的大一课程中注册了她的第一门语言学课程。有一天,为了“研究”,她给当时的男友(现在是她的丈夫)计算机科学家 Vijay Menon 打电话,用与平时称呼“亲爱的”相同的语调说“你这个蠢货,你好”。他花了一点时间才从韵律中理解出意义,但他认为这个实验很可爱(虽然有点讨厌)。
我们已经学会了制造“可以毫不费力地生成文本的机器”。但我们还没有学会如何停止想象它背后的思维。
随着 Bender 在语言学领域的成长,计算机也在同步发展。1993年,她同时修了词法学导论和编程导论的课程。(词法学是一门研究单词如何由词根、前缀等组成的学问。)有一天,当她的助教讲解了班图语的语法分析时, Bender 决定试着为此编写一个程序,当时她在校园附近的一家酒吧里,在Menon看篮球比赛的时候,她用纸笔手写了程序。回到宿舍后,当她输入代码,程序奏效了。于是她打印出程序并带给助教看,但他只是耸了耸肩。
“如果我当时把程序展示给一个懂计算语言学的人,”本德尔说,“他们就会说,‘嘿,这是一个好东西。’”
在获得斯坦福大学语言学博士学位后的几年里,Bender 保持着一只手在学术界,一只手在工业界。她在伯克利和斯坦福教授语法,并在一家名为 YY Technologies 的初创公司从事语法工程工作。2003年,华盛顿大学聘请了她,并在2005年开设了计算语言学硕士课程。Bender 进入计算语言学领域的道路是基于一个看似显而易见,但并不被自然语言处理同行普遍认同的想法 —— 语言是建立在“人与人交流,共同努力达成理解”的基础上的。
在抵达华盛顿大学后不久,Bender 开始注意到,即使在由计算语言学协会等组织主办的会议上,人们对语言学也知之甚少。于是她开始提出,如“你总想了解,但又不敢问的 —— 关于语言学100件事”的教程。
2016年,當川普競選總統,並且「黑人命也是命」抗議活動充斥街頭的時候,Bender 決定每天採取一些小小的政治行動。 她開始學習並擴大黑人女性對人工智慧的批判聲音,包括Joy Buolamwini(她在麻省理工學院創立了演算法公正聯盟)和Meredith Broussard(《人工非智慧:電腦如何誤解世界》的作者)。
她也公開挑戰了「人工智慧」這個術語。身為一個身處男性領域的中年女性,這無疑是讓處於了一個容易被攻擊的境地。 「智能」的概念具有一個白人至上主義的歷史。
此外,「智能」依什麼定義?霍華德·加德納的多元智力理論?還是史丹佛-比奈的智力量表? Bender 特別喜歡一位前義大利議員提出的「人工智慧」替代名稱 —— 系統化學習演算法和機器推理( Systematic Approaches to Learning Algorithms and Machine Inferences )。然後人們會問:「這個SALAMI 聰明嗎?這個SALAMI 能寫小說嗎?這個SALAMI 是否應該享有人權?」
2019年,她在一次會議上舉手發言,問:「你在用哪種語言進行研究?」這個問題針對那些沒有明確說明語言種類的論文,儘管每個人都知道那是英語。 (在語言學中,這被稱為“威脅面子的問題”,這個術語來自於語言學禮貌研究。它意味著你很粗魯,正在惱人,或者將會惱人,同時你的語言會同時降低你與你對話人的地位。)
在語言的形式中承載著一個錯綜複雜的價值網絡。 "總是為你所使用的語言命名",現在被稱為「Bender Rule」。
科技製造者假設他們的現實準確地代表世界,這會導致許多不同的問題。
據信,ChatGPT的訓練資料包括維基百科的大部分或全部內容、從Reddit 連結的頁面,以及從網路上取得的10億個單字。 (它不能包括斯坦福圖書館中的所有電子書副本,因為圖書受版權法保護。)
撰寫這些線上文字的人們過度代表了白人、男性和富人。 此外,我們都知道網路上存在著大量的種族主義、性別歧視、恐同主義、伊斯蘭恐懼症、新納粹主義等問題。
科技公司確實會花一些功夫來清理它們的模型,通常是由過濾掉包含“髒話、淫穢、下流”等400個左右,甚至更多的不良詞彙列表中詞語語音塊來實現。
該清單最初由 Shutterstock 的開發人員編制,然後上傳到 GitHub 上,以自動化解決「我們不想讓人們查看什麼?」的問題。 OpenAI也外包了所謂的幽靈勞動力:包括一些肯亞兼職工人(一個曾經的英國殖民地,人們說英式英語),他們每小時賺取2美元,閱讀並標記最可怕的內容—— 戀童癖等等,以便將其清除。
但過濾也會帶來自己的問題。如果你刪除了關於性的字詞內容,你就會失去關於這個群體的聲音。
許多業內人士不想冒險說話。一名被解僱的Google員工告訴我,在科技領域取得成功取決於「對一切令人不安的事保持沉默。」否則,你就成了問題。
Bender 毫不畏懼,並感受到道德責任感。她寫信給一些支持她發出抗議聲音的同事說:「我的意思是,畢竟,職位是用來幹什麼的?」
「章魚」不是Bender 履歷上最有名的假想動物,還有一隻「隨機鸚鵡」。
「Stochastic」意味著隨機的,由隨機機率分佈決定的。 「隨機鸚鵡」(由 Bender 的創造詞彙)指:用隨機機率資訊將語言形式的序列隨意拼接在一起的實體,但不涉及任何涵義。 2021年3月,Bender 與三位合著者發表了論文- 隨機鸚鵡的危險:語言模型是否太大? (On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? )。在論文發表後,兩位女性合著者,失去了Google道德人工智慧團隊的聯合領導職位。圍繞此事的爭議鞏固了 Bender 在反對人工智慧狂熱主義方面的地位。
「On the Dangers of Stochastic Parrots」不是原創研究的寫作。它是Bender 和其他人提出的對語言模型的綜合批判:包括編碼在模型中的偏見;鑑於訓練數據可能包含數十億個單詞,研究其內容幾乎是不可能的;對氣候的影響;以及構建凍結語言並因此鎖定過去問題的技術問題。
Google最初批准了這篇論文,這是員工發表論文所必需的條件。然後它撤回了批准,並告訴 Google 合著者將自己的名字從論文中移除。有些人照做了,但 Google AI 倫理學家 Timnit Gebru 拒絕了。她的同事(也是 Bender 的前學生)Margaret Mitchell 將她的名字改成了 Shmargaret Shmitchell,意在「索引一件事情和一個被抹掉的作者群組」。 Gebru 在 2020 年 12 月失去了工作,Mitchell 在 2021 年 2 月失去了工作。兩位女性認為這是報復,並向媒體講述了自己的故事。
隨著這篇「隨機鸚鵡」的論文逐漸走紅,至少在學術界,它成為了一個流行詞彙。這個短語也進入了技術詞彙表。但它並沒有以 Bender 期待的方式進入詞彙表。科技高層喜歡這個詞,程式設計師也喜歡。
OpenAI 的CEO Sam Altman 在許多方面都是完美聽眾 —— 一個自認為的超理性主義者,過於融入科技泡沫,似乎已經失去了對外部世界的視角。在11 月的AngelList Confidential 上,他說:「我認為,再怎麼說,核能將給所有人帶來不可避免的毀滅——它的「首秀」(譯註:可能指美國二戰時在日本投下核彈)並不是一件好事」 。他也是所謂的「奇點」信徒,即許多科技狂熱者相信,在不久的將來,人類和機器之間的差異將會消失。
在2017年,談到關於機器人融合的問題,Altman 說到:「我們已經進行了幾年了。它可能比大多數人想像的要早。硬體正以指數級別提高…而致力於AI 研究的人數也在以指數級別增加。雙指數函數(的增速)會很快讓你失去掌控感。」
在ChatGPT 發布四天后的12月4日,Altman 發推文:「我是一個隨機鸚鵡,你也是。」####################### ####這是一個令人振奮的時刻。在發布的五天內就有一百萬人使用 ChatGPT。寫作已經結束了!知識工作也結束了!這一切將會走向何方? 「我的意思是,我認為最好的情況竟是如此的好,好到難以想像!」 Altman 上個月在 StrictlyVC 活動中對他的同行說道,那噩夢般的情景呢? 「壞情況,我認為也很重要,就像我們所有人都黑屏了。」 Altman 說他「更擔心短期內的意外誤用情況... 不是像AI 醒來就決定要做惡。」## ##########他沒有定義“accidental-misuse case”,但這個術語通常是指壞人使用人工智慧達到反社會的目的,例如欺騙我們,這可以說是這種技術的設計目的之一。並不是 Altman 想要承擔任何個人責任,他只是承認「誤用」會是「非常糟糕」的。 ############Bender 不認為 Altman 的「隨機鸚鵡」有趣。 ######
我們不是鸚鵡,我們不只是基於機率,隨機地噴出字詞。 她說,「這是一個非常常見的策略。人們說,『人們只是隨機的鸚鵡』。」她說,「人們非常想相信這些語言模型實際上是聰明的,他們願意以自己作為參考點,並貶低自己的價值以匹配語言模型可以做到。」
有些人似乎願意將存在的事物與技術所能做到的事情相匹配,語言學的基本原則也是如此。 Bender 目前的對手是計算語言學家 Christopher Manning,他認為語言不需要指向外在世界。 Manning 是史丹佛大學的機器學習、語言學和電腦科學教授。他所教授的自然語言處理課程從2000年的約40名學生成長到去年的500人,到今年的650人,成為校園中最大的課程之一。他還擔任史丹佛人工智慧實驗室的主任,並是 AIX Ventures 的合作夥伴,後者定義自己為「專注於人工智慧種子階段的創投公司」。學術界和工業界之間的膜層幾乎隨處可見斯,可坦福,這層膜層幾乎不存在,這所學校與科技公司糾纏在一起,很難分辨學校和企業的界限。
“我應該仔細選擇自己的中間立場。”,Manning 在2月下旬說到,“強大的計算機科學和人工智能學校最終會與大型科技公司建立緊密的關係」。 Bender 和 Manning 最大的分歧在於意義是如何創建的,這也是章魚論文的主要內容。
直到最近,哲學家和語言學家一致認為Bender 的看法是正確的:需要有指示物,即那些實際存在於世界上的事物和概念,如椰子和心碎,才能產生意義。
而 Manning 現在認為這個觀點已經過時,認為這是「20世紀語言哲學的標準立場」。 「我不會說這在語義學上完全無效,但它也是一個狹窄的立場,」他告訴我。他主張「更廣泛的意義」。在最近的一篇論文中,他提出了「分佈式語意學」一詞:「一個詞的意義只是它出現的上下文的描述。」(可是當我問Manning 如何定義「意義」時,他說: 「說實話,我認為這很困難。」)如果一個人認同分佈語義學理論,那麼LLM(大型語言模型)就不是章魚,隨機鸚鵡也不僅僅是愚蠢地吐出詞語,我們也不需要陷入到“意義映射到世界」這一個過時的思維方式。
LLM 處理數十億個單字。這項技術迎來了他所說的 「一個相位轉移(a phase shift)」。 Manning 說:「你知道,人類發現了金屬加工技術,令人驚嘆,然而過了幾百年,人類又學會瞭如何利用蒸汽動力。我們在語言方面也處於類似的時刻。LLM 足夠革命性,可以改變我們對語言本身的理解。”,他說:“對我來說,這不是一個非常正式的論點。這只是一種顯現,只是突然降臨。”
2022年7月,一次大型計算語言學會議的組織者將Bender 和Manning 放在同一個小桌子上,讓現場聽眾可以聆聽他們(有禮貌地)爭辯。他們坐在一個覆蓋著黑色布料的小桌子前,Bender 穿著紫色毛衣,Manning 穿著鮭魚色襯衫,他們輪流拿著麥克風回答問題並回應對方,說著“我先說!”,和“我不同意! 」。他們不斷爭吵,先是關於孩子如何學習語言的問題。 Bender 認為他們是在與照顧者建立關係中學習的;曼寧則說學習是像 LLM 一樣「自我監督」的。
接下來,他們爭論的是溝通本身的重要性。在這裡,Bender 引用維根斯坦的話,並將語言定義為本質上是關係性的,即“至少是一對交談者共同關注,以達成某種協議或近似協議”,曼寧並不完全認同。是的,她承認人類確實透過面部表情表達情感,並透過像頭部傾斜這樣的肢體語言進行交流,但是這些附加資訊是「邊際的」。
在會議接近尾聲時,他們產生了最深層的分歧,即 —— 這不是語言學的問題,而是我們為什麼要製造這些機器?它們為誰服務?
#「我覺得有太多的努力試圖創建自主機器,」Bender 說到,「而不是試圖創建對人類有用的機器工具。」
在Manning 參加小組討論幾週後,Bender 戴著一頂流動的藍綠色長外套和搖晃的章魚耳環站在多倫多的一個會議講台上發表演說。主題是「在人工智慧時代抵制非人化」。這看起來並不像是一個特別激進的議題。 Bender 將那個聽起來平淡無奇的「非人化」定義為「無法完全感知另一個人的人性,以及遭受那些 —— 表現出對人性缺乏認知的行為與經歷」。
接著她一個關於電腦隱喻的問題,也是所有科學中最重要的隱喻之一:即人類大腦是一台計算機,而電腦是一個人類大腦。她引用了亞歷克西斯·T·巴里亞(Alexis T. Baria)和基思·克羅斯( Keith Cross)2021年的論文,這種想法為“人類心靈提供了比應有的所更少的複雜性,為電腦提供了比應有所更多的智慧」。
在Bender 演講後的問答環節中,一個戴著項鍊,身著黑色POLO 衫的禿頂男子走到麥克風前,闡述了他的擔憂,「是的,我想問的問題是,為什麼你選擇人性化和人類的這種類別,作為你匯集所有這些不同想法的框架。”,這個人並不認為人類是特別的,他說:“聽你的演講,我不禁想,你知道,有些人真的很糟糕,所以被與他們歸為一類並不是那麼好。我們是同一種物種,同一種生物類,但誰在乎呢?我的狗挺好的。我很高興和我的狗被歸為一類。”
他想要區分“在生物範疇上的一個人類”,和“一個在道德上值得尊重的人類,或單位」。他承認,LLM 並不是人類,至少現在還不是,但科技正在變得越來越好。他問道:「我想知道,為什麼你選擇將人類或人性作為思考這些不同事物的框架設備,你能多講一些嗎?」
Bender 微微向右傾斜,咬著嘴唇傾聽著。她能說些什麼呢?她從第一原理進行了辯論。 “我認為任何一個人只因為他是人類就應該得到一定的道德尊重。”,她說,“我們看到很多當前世界上的問題都與未將人性授予人類有關。” ,而那個人並不買賬,繼續說道,“如果我可以很快地說一下,也許百分之百的人都值得得到一定程度上的道德尊重,而這是不是因為他們作為人類這一物種存在的意義”
許多科技圈外的人也提出了這個觀點。生態學家和動物人格權倡議者認為,我們應該放棄認為自己在種類上如此重要的想法。 我們需要更謙虛地生活。我們需要接受我們是其他生物中的一種,是物質中的一種。樹木、河流、鯨魚、原子、礦物質、星球 —— 一切都很重要,我們在這裡不是老闆。
但從語言模型,到存在危機的路程確實很短。
1966年,創造了第一個聊天機器人 ELIZA 的約瑟夫·魏岑鮑姆(Joseph Weizenbaum)在之後的大部分時間裡都為此感到後悔。他在《電腦能力與人類理性》(Computer Power and Human Reason)一書中寫道,這項技術引發的問題,「基本上是關於人類在宇宙中的位置問題」。
這些玩具很有趣、迷人且令人上癮,他在47年前就相信這會是我們的毀滅:「難怪那些與相信自己是奴隸的機器日復一日日生活在一起的人們也開始相信——自己是機器。」
氣候危機的影響不言而喻。幾十年前,我們就知道了危險,但在資本主義和少數人的慾望的推動下,我們仍然繼續前進。誰不想在周末飛往巴黎或夏威夷,尤其是當全世界最好的公關團隊告訴你這是生活的終極獎勵時?
創建模仿人類的技術需要我們非常清楚地了解我們是誰。
「從現在開始,安全地使用人工智慧需要使人類條件不再神秘化,」柏林赫爾廷學院(Hertie School of Governance)道德與技術教授喬安娜·布萊森(Joanna Bryson)去年寫道,如果我們變得更高,就不會認為自己更像長頸鹿。所以為什麼要對智能模糊不清?
其他人,如哲學家丹尼特,則更加直接。他稱,我們不能生活在一個有所謂「偽造人」的世界。
「自從貨幣存在以來,偽造貨幣一直被視為針對社會的破壞行為。懲罰包括死刑和四分五裂。而製造偽造人至少同樣嚴重。」他補充說,人造人總是比真人少了更多的利益,這使得它們成為無道德行為者:「不是出於形而上學的原因,而是出於簡單的物理原因—— 它們有種永生的感覺。」
丹尼特認為,科技的創造者需要嚴格的責任制,「他們應該對此負責。他們應該被起訴。他們應該公開承認,如果他們製造的東西被用來製造偽造人,他們將對此負責。如果他們沒有做到這一點,他們正處於創建極為嚴重的,對穩定和社會安全造成破壞的武器的邊緣。他們應該像分子生物學家對生物戰爭的前景或原子物理學家對核戰爭的前景一樣認真對待這個問題。」這是真正的危機。我們需要“建立新的態度,新的法律,迅速傳播並消除那些欺騙人們、人格化的讚美”,他說。 「我們需要聰明的機器,而不是人造同事。」
Bender 制定了自己的一條規則:「我不會與那些在談話中不將我的人性作為公理的人交談。」不要模糊界線。我原本認為自己不需要製定這樣一條規則。
「AI 夢中重新出現了一種自戀,我們將證明我們認為是獨特的人類的一切,都可以被機器完成,並且完成得更好。 ”,UC伯克利分校的批判理論計劃創始主任朱迪思·巴特勒(Judith Butler)幫助我解釋了其中涉及的思想,“人類的潛力——是法西斯主義的想法——透過AI 得到更充分的實現。AI 夢想被「完美主義論」所統治,這就是我們看到的一種法西斯形式。這是技術接管,從身體中逃離。」
有些人說,“是的!那不是很棒嗎!”,或“那不是很有趣嗎?!”,讓我們克服我們浪漫的想法,我們的人類中心主義、理想主義,巴特勒補充道,「但是我的言語中生活著什麼,我的情感中生活著什麼,我的愛情,我的語言中生活著什麼,這個問題被掩蓋了。」
在Bender 向我介紹了語言學基礎的第二天,我參加了她與學生每週一次的會議。他們都在攻讀計算語言學學位,他們都看到了正在發生的事情。有那麼多可能性,那麼多力量。我們將用它來做什麼?
“關鍵是創建一個易於接口的工具,因為你可以使用自然語言。而不是試圖讓它看起來像一個人。”,伊麗莎白·康拉德(Elizabeth Conrad )說。
以上是一場關於ChatGPT話語權的深度思考:人類會在大模型中迷失自我嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!