首頁  >  文章  >  科技週邊  >  “是否需要重新審視人工智慧的倫理框架?”

“是否需要重新審視人工智慧的倫理框架?”

WBOY
WBOY轉載
2023-04-24 20:07:061269瀏覽

“是否需要重新審視人工智慧的倫理框架?”

人工智慧有兩個明顯的目標,就目前而言,這兩個目標並不互相排斥,但其中只有一個可以長期造福人類。這些目標要不是加強人們的工作,就是取代人。最近有兩個故事引起了我的注意,這表明我們可能需要調整我們認為的道德行為以正確利用人工智慧。

第一個故事是關於藝術家使用 AI 創作藝術作品不公平地贏得了藝術比賽,而另一個故事是使用 AI 讓學生更快地寫出更好的論文。後者目前與作弊有關。

二者都像我過去聽到的關於如何在學校禁止使用計算器和個人電腦的爭論,因為它們避免了學習乘法表或在圖書館而不是在維基百科上進行初級研究的需要,即使技能隨著時間的推移,使用這兩種方法對作為員工的學生來說比舊的做事方式更有價值。

簡而言之,我們最終必須弄清楚的是,使用人工智慧更快地創造出更好的產品是否被認為是作弊,還是只是謹慎行事?

大的人工智慧倫理問題

關於人工智慧,我們沒有討論的問題是,創造取代人類的人工智慧可能比創造增強人類的人工智慧容易得多。第一種方法只需要專注於複製這個人所做的事情,創建一個他們的數位孿生兄弟,現在已經有公司在做這個了。更簡單的是,你不需要與人類接觸,而人類缺乏共同的語言、共同的技能、共同的興趣,甚至是共同的體型。我們甚至還沒有培訓人們如何與會話人工智慧打交道。如前所述,我們更傾向於懲罰那些有效使用工具的人,而不是獎勵他們的技能。

這意味著AI最有效的使用路徑不是增強路徑,而是替代路徑,因為AI在其參數範圍內單獨運行並不令人反感,但AI被用於顯著增強用戶,特別是在競爭中,會被視為作弊。這種對替換的關注在自動駕駛汽車上尤其明顯。

對於自動駕駛汽車,目前預設的技術是增強駕駛員的能力,豐田稱之為「守護天使」(Guardian Angel)。但在測試中, 英特爾發現,在自動駕駛汽車中為人類駕駛員提供控制會增加駕駛員的壓力,因為他們不知道自己是否會突然被要求駕駛汽車。如果汽車不提供人類駕駛選項,未經訓練的駕駛員會感到更舒服,這表明,從長遠來看,不允許或增強人類駕駛員的自動駕駛汽車將比那些提供人類駕駛員的自動駕駛汽車更受歡迎和成功。

實際上,儘管該行業和IBM等公司正在積極推廣AI作為人類增強工具,但市場對待這項技術的方式(因為它不專注於培訓更好的人類AI介面和舒適度)正在成為AI作為人類替代品的強制功能,隨著勞動力池隨後崩潰,這將成為一個問題。

如果人類得到人工智慧的幫助,這很重要嗎?

對於藝術家或作家來說,與比他們更有能力的人合作創作一件藝術品、一篇論文甚至一本書是很正常的。而且,有人在得到影子寫手許可的情況下,利用影子寫手的名義來創作一本書,這種情況也並不少見。

如果使用AI而不是老師/導師/合作者/合作夥伴/代筆,情況會更糟嗎?或者,由於人工智慧可能比另一個人更好地獨立反映用戶的意願,在連接工作和用戶方面,使用技術是否會更好,並且由於用戶沒有將另一個人的工作作為自己的工作而減少道德妥協?

總結:重新思考人工智慧倫理

企業只是想要高品質的工作,如果他們能從機器(AI) 中獲得比人更高的質量,他們就會做出並已經做出不那麼困難的選擇。想想過去幾十年製造業和倉庫自動化的過程就知道了。

我們需要培訓人們如何使用人工智慧,如何接受最有效利用人工智慧資源的工作產品,同時確保我們能夠防止智慧財產權盜竊和剽竊。如果我們不這樣做,很可能隨著時間的推移,人工智慧的發展趨勢將繼續從關注人類的輔助轉向人類的替代,這將不利於行業或越來越多的職業,可以更好地利用人工智能。

以上是“是否需要重新審視人工智慧的倫理框架?”的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除