首頁 >科技週邊 >人工智慧 >生成性人工智慧令人憂心忡忡的十個理由

生成性人工智慧令人憂心忡忡的十個理由

PHPz
PHPz轉載
2023-04-12 11:22:08740瀏覽

像 ChatGPT 這樣的生成型人工智慧模型是如此令人震驚,以至於現在有人聲稱,人工智慧不僅可以與人類平起平坐,而且往往更加聰明。它們以令人眼花繚亂的風格拋出美妙的藝術品。它們能寫出飽含細節、想法和知識的文本。生成的人工製品是如此多樣,而且看來如此獨特,以至於很難相信它們來自於機器。我們才剛開始發現生成性人工智慧所能做的一切。

有些觀察家認為,這些新的人工智慧終於跨越了圖靈測試的門檻。其他人則認為,這個門檻並沒有被輕易超越,只是被過度吹捧。可是,這項傑作確實另個驚嘆,以至於確實有一批人已經在走向失業的邊緣。

但是,一旦人們見慣不怪,生成性人工智慧天生的光環也與消退。一群觀察者以正確的方式提出問題,讓這些智慧機器表達出或愚蠢或錯誤的內容。這已經成為當下的一種時髦。其中一些人使用了在小學藝術課上流行的老式邏輯炸彈,例如要求提供一張晚上的太陽或暴風雪中的北極熊的照片。其他人則提出了奇怪的請求,展示了人工智慧上下文意識(也被稱為常識)的局限性。對此有興趣的人可以計算生成性人工智慧失敗的規律。

本文提出了生成式人工智慧的十項缺點或缺陷。這份清能讀來也許有點酸葡萄味,因為如果允許機器接管,他就會失去工作。你可以說我是一個支持人類團隊的小人物,只不過希望人類在與在與機器的拼搏中能表現出英雄氣概。儘管如此,我們是不是都該有點擔心呢?

1、剽竊

當像 DALL-E 和 ChatGPT 這樣的生成型人工智慧模型打造之初,它們其實只是從其訓練集中的數百萬個例子中製造新的模式,其結果是對各種來源的剪切和粘貼的綜合。如果人類這樣做,就會被稱為剽竊。

當然,人類也是透過模仿來學習。但是,在某些情況下,這種借鑒是如此明顯,以至於會讓一位小學老師感到不安。這種人工智慧生成的內容由大塊的文字組成,或多或少都是逐字逐句地呈現。然而,有時涉及足夠的混合或綜合,即使是交給一組大學教授也很難發現其來源。無論如何,從中都不可能看到獨特性。儘管這些機器閃亮奪目,但它們並沒有能力生產出真正的新作品。

2、版權

雖然抄襲在很大程度上是學校才關心的,但著作權法也適用於市場。當一個人抄襲另一個人的作品時,他們有可能被帶到法院,可能會被處以數百萬美元的罰款。但是人工智慧呢?同樣的規則是否適用於它們?

著作權法是一個複雜的議題,生成性人工智慧的法律地位將需要花費數年才能解決。但請記住這一點:當人工智慧開始生產看起來足夠好的作品,使人類處於失業的邊緣,其中一些肯定會用他們新的業餘時間提起訴訟。

3、無償勞動

抄襲和版權並不是生成性人工智慧引起的唯一法律問題。律師們已經在幻想新的訴訟道德問題。舉例來說,製作繪畫程式的公司是否應該收集人類使用者的繪畫行為數據,然後將這些數據用於人工智慧訓練?人類是否應該為這種創造性勞動的使用而得到補償?當前一代人工智慧的成功,很大程度源自於對數據的獲取。那麼,當產生數據的人想要分一杯羹時會發生什麼事?哪些是公平的?什麼可以被認定為合法?

4、資訊不是知識

AI 特別善於模仿人類需要多年才能發展的那種智慧。當人類學者介紹一位晦澀難懂的 17 世紀藝術家,或用幾乎被遺忘的文藝復興時期的音調結構寫出新的音樂時,我們有充分的理由留下深刻的印象。我們知道,這需要多年的研究來發展這種深度的知識。當人工智慧只經過幾個月的訓練就做這些同樣的事情時,其結果可能是令人眼花撩亂的精確和正確,但卻缺少一些關鍵因素。

如果一台訓練有素的機器能夠在一個裝滿數十億筆記錄的數字鞋盒中找到正確的舊收據,它也可以學習關於像 Aphra Behn 這樣的詩人的一切知識。你甚至可能相信,機器是為了解碼瑪雅象形文字的意思而製造的。 AI 可能看起來是在模仿人類創造力中俏皮和不可預測的一面,但它們無法真正做到。同時,不可預知性是推動創意創新的原因。像時尚圈這樣的產業不僅沉迷於變化,也被變化所定義。事實上,人工智慧有它的位置,但是,老的來之不易的人類智慧也是如此。

5、智力停滯不前

說到智力,人工智慧本質上是機械的和基於規則的。一旦人工智慧處理了一組訓練數據,它就會創建一個模型,而這個模型並不會真正改變。一些工程師和資料科學家設想隨著時間的推移逐漸重新訓練人工智慧模型,這樣機器就能學會適應。但是,在大多數情況下,這個想法是要創建一個複雜的神經元集,以固定的形式編碼某些知識。恆定性有它的位置,可能對某些行業有效。人工智慧的危險在於,它將永遠停留在其訓練資料的時代潮流中。當我們人類變得如此依賴生成性人工智慧,以至於我們無法再為訓練模型產生新的材料時,又會發生什麼事?

6、隱私與安全性

AI 的訓練資料需要來自某處,而我們並不總是那麼確定神經網路中會出現什麼。如果 AI 從其訓練資料中洩露個人資訊怎麼辦?更糟的是,鎖定人工智慧要困難得多,因為它們被設計得如此靈活。一個關係型資料庫可以限制對含有個人資訊的特定表格的存取。但是,人工智慧可以用幾十種不同的方式來查詢。攻擊者很快就會學會如何以正確的方式提出正確的問題,以獲得他們想要的敏感資料。舉個例子,比如說某項資產的經緯度被鎖定了。一個聰明的攻擊者可能會問該地點幾週內太陽升起的確切時刻。一個盡職的人工智慧會嘗試回答。教導人工智慧保護私人資料我們還不掌握。

7、未被察覺的偏見

如果你知道最早的大型主機程式設計師創造了縮寫 GIGO 或 「垃圾進,垃圾出”,你就能明白從那時起他們就認識到計算機問題的核心。 AI 的許多問題來自於糟糕的訓練資料。如果資料集不準確或有偏見,結果就一定會反映出來。

生成式人工智慧的核心硬體可能像 Spock(電視劇《星際旅行》的外星人主角)一樣以邏輯為導向,但建造和訓練機器的人類卻不是這樣。偏見和偏袒已經被證明確有途徑進入人工智慧模式。也許有人使用有偏見的數據來創建模型。也許他們添加了重寫功能,以防止模型回答特定的熱點問題。也許他們把硬性規定的答案放進去,然後變得難以偵測。人類已經找到了許多方法來確保人工智慧成為我們有害信念的絕佳載體。

8、機器的愚蠢

我們很容易原諒人工智慧模型犯錯,因為它們在其他許多方面做得很好。只是,許多錯誤是很難預測的,因為人工智慧的思考方式與人類不同。例如,許多文字轉圖像功能的使用者發現,人工智慧把相當簡單的事情搞錯了,例如算術。人類在小學時就學會了基本的算術,然後我們在各種各樣的方面使用這種技能。讓一個 10 歲的孩子畫章魚的草圖,這個孩子幾乎肯定會確定它有八條腿。目前版本的人工智慧在涉及數學的抽象和背景用途時往往會陷入困境。如果模型建造者對這種失誤投入一些關注,這很容易改變,但還會有其他的失誤。機器智能與人類智能不同,這意味著機器的愚蠢也會不同。

9、人類的易受騙性

有時在不知不覺中,我們人類往往會填補人工智慧的空白。我們填補缺失的資訊或插播答案。如果人工智慧告訴我們亨利八世是殺害妻子的國王,我們不會質疑它,因為我們自己並不了解這段歷史。我們只是提前假設人工智慧是正確的,就像我們在有魅力的明星前歡呼雀躍的時候一樣。如果一個說法聽起來信心滿滿,那麼人類的頭腦往往願意接受它就是真實和正確的。

對於生成性人工智慧的使用者來說,最棘手的問題是知道人工智慧何時是錯誤的。機器不能像人類那樣撒謊,但這使它們更加危險。它們可以產生幾段完全準確的數據,然後轉向猜測,甚至是徹底的誹謗,而沒有人能意識到。二手車交易商或撲克牌手往往知道他們什麼時候在作假,而且大多數人都有暴露他們誹謗行為的證據。但人工智慧沒有。

10、無限的豐富性

數位內容是可以無限複製的,這已經使許多圍繞稀缺性建立的經濟模式變得緊張。生成性人工智慧將更打破這些模式。生成性人工智慧將使一些作家和藝術家失去工作;它也顛覆了我們賴以生存的許多經濟規則。當廣告和內容都可以無止盡地重新組合和再生時,廣告支援的內容還能發揮作用嗎?網路的免費部分是否會淪為一個機器人點擊網頁上的廣告的世界,所有這些都是由生成性的AI精心製作和無限複製的?

這種輕鬆的豐富性可能會破壞經濟的各個角落。如果這些代幣可以永遠被複製,人們還會繼續為不可複製的代幣買單嗎?如果製作藝術如此容易,它還會被尊重嗎?它還會是特別的嗎?如果它不特別,會有人在乎嗎?當一切都被視為理所當然時,是否會失去價值?這就是莎士比亞說到「The slings and arrows of outrageous fortune」時想表達的意思嗎?讓我們不要試著自己回答這件事。讓我們向生成型人工智慧尋求答案。這個答案將是有趣的、奇特的,並最終神秘地被困在正確與錯誤之間的某個冥界。

#來源:www.cio.com

#

以上是生成性人工智慧令人憂心忡忡的十個理由的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除