首頁  >  文章  >  科技週邊  >  CIO如何應對感知到的AI所帶來的風險

CIO如何應對感知到的AI所帶來的風險

王林
王林轉載
2024-03-21 13:01:09397瀏覽

CIO如何應對感知到的AI所帶來的風險

問一般人AI最大的風險是什麼,他們的答案可能包括:AI會讓我們人類過時,Skynet將成為現實,讓我們人類滅絕,深度偽造創作工具將被壞人用來做壞事。

一般CEO認為AI最大的風險是錯失機會,特別是競爭對手可能比他們更早實施基於AI的業務能力。

身為CIO,你需要考慮到實際的AI風險,同時也要預見潛在的風險。以下是如何有效地實現這一目標。

一般人感覺到的風險

1.AI會衝擊人類嗎?回答:這不是一種風險,而是一種選擇。個人電腦,然後是互聯網,然後是智慧型手機,都為電腦增強的人類帶來了機會。 AI也可以做到這一點,企業領導者可以透過使用AI功能來增強和增強員工的能力,從而專注於建立更強大、更具競爭力的業務。

他們可以,有些人會這樣做,其他人將使用AI來自動化目前由他們僱用的人類執行的任務。

或者,更有可能的是,他們兩個都會做,從絕對意義上講,兩者都不會更好,但它們將是不同的。身為CIO,你必須協助傳達公司的意圖,無論AI是用來增加員工還是用來取代員工。

Skynet是可能的AI未來之一,引發人們不寒而栗,但同時也被認為最不可能的情景。這並非因為製造殺傷性機器人不可能,而是因為沒有充分理由創造和投入這種破壞性的人工智慧。

在自然界中,捕食其他生物是大多數生物的生存需求之一。捕食者追逐獵物,確保其生存和繁衍後代的能力。然而,除了人類以外,極少有生物會僅僅為了娛樂而傷害其他物種。這種行為很罕見,通常是由於人類的干預或環境破壞所導致的異常行為。自然界中的相互依存和平衡使得捕食和被捕食的關係得以維持,每個生物都在這個生態系統中扮演著重要的

除了電力和半導體領域,我們是否會發現和一個堅定意志的AI之間對資源的競爭變得如此激烈,以至於機器人殺手的情景會成為我們必須面對的問題,這一點仍有待商榷。

這是因為,如果AI與我們在電力和半導體領域競爭,它不太可能浪費資源製造殺手級機器人。

3.深度偽造,是的,深度偽造是一個問題,作為現實之戰的尖端,它們是一個只會變得更糟的問題,深度偽造AI和深度虛假檢測AI將不得不越來越快地改進,僅僅是為了保持彼此的地位。

因此,正如惡意軟體對策從獨立的防毒措施演變為整個產業的網路安全一樣,隨著對現實的戰爭升溫,我們可以預期深度虛假對策也會出現類似的軌跡。

CEO認為的AI風險

那些不想很快成為前CEO的CEO會把相當多的時間和注意力花在某種形式的「TOWS」分析上(威脅、機會、弱點和優點)。

作為CIO,很長一段時間以來,你最重要的職責之一就是透過將各個點連結起來,幫助推動業務策略,從基於IT的能力到商業機會(如果你的企業首先利用它們)或威脅(如果競爭對手先利用它們)。

在當前的AI熱潮席捲IT產業之前,情況就是如此,這就是「數位」的全部意義所在,現在更是如此。

再加上AI,CIO們還有另一層責任,那就是如何將其新能力整合到整個業務中。

無聲的基於AI的威脅:人為製造的弱點

還有一類風險需要擔心,這種風險很少受到關注,稱之為「人為的人類弱點」。

從Daniel Kahneman的思維說起,快與慢。在書中,Kahneman指出了我們思考的兩種方式。當我們快速思考時,我們使用大腦迴路,讓我們一目了然,沒有延遲,幾乎不費力氣。當我們「相信自己的膽量」時,快速思考也是我們所做的。

當我們緩慢地思考時,我們使用的是讓我們將17乘以53的電路——這個過程需要相當大的注意力、時間和腦力。

在AI方面,思考遲緩是專家系統,就這一點而言,老式電腦程式所做的事情,快速思考是AI最令人興奮的地方,這就是神經網路的作用。

在目前的發展狀態下,AI的快速思考形式也容易出現與相信我們的直覺相同的認知錯誤。例如:

從相關性推斷因果關係:我們都知道我們不應該這樣做,然而,當我們所有的證據都是並列的時候,我們很難阻止自己推斷因果關係。

碰巧的是,如今所謂的AI在很大程度上是由神經網路的機器學習組成的,神經網路的學習包括從相關性推斷因果關係。

回歸中庸:你看了《偉大的英國烘焙秀》。你會注意到,無論誰在一集中獲得了明星麵包師獎,在下一集中,他的烘焙往往都會更差,這是星際麵包師的詛咒。

只是這不是詛咒,這只是行動中的隨機性,每個麵包師的表現都呈現鐘形曲線,當一個人在一周內贏得了Star Baker,他們的表現已經達到了鐘形曲線的一條尾巴,下一次他們烘焙時,他們最有可能表現在平均水平,而不是再次在Star Baker Tail,因為每次他們烘焙時,他們最有可能表現在平均水平,而不是獲勝的尾巴。

沒有理由期望機器學習AI能免受這一謬誤的影響,恰恰相反,面對隨機的過程性能數據點,我們應該期待AI在每個糟糕的結果之後預測改進。

然後得出結論,因果關係是起作用的。

沒有「展示你的工作」:嗯,不是你的工作,是AI的工作。在發展所謂的「可解釋AI」方面,有一些活躍的研究,這是必要的。

假設你指派了一名員工來評估一個可能的商業機會,並向你推荐一項行動方案,他們會這樣做,你會問,“你為什麼這麼認為?”任何有能力的員工都期待著這個問題,並準備好回答。

在「可解釋AI」成為一項功能而不是願望清單之前,AI在這方面的能力不如許多企業希望它們取代的員工——它們無法解釋自己的想法。

要忽略的短語

毫無疑問,你已經聽過有人在AI的背景下聲稱,“計算機永遠不會x”,其中x是最熟練的人類擅長的東西。

他們錯了,自從我第一次開始從事這項業務以來,這一直是一個流行的斷言,從那以後,很明顯,無論你選擇哪個x,計算機都能做任何事情,而且做得比我們更好。

唯一的問題是,我們都要等多久才能實現。

以上是CIO如何應對感知到的AI所帶來的風險的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除