首頁 >科技週邊 >人工智慧 >人工智慧的未來是人機環境系統智能

人工智慧的未來是人機環境系統智能

王林
王林轉載
2023-05-16 19:52:04970瀏覽

人工智慧的未來是人機環境系統智能

軍事智慧就像戰爭一樣,是一團迷霧,存在著大量的不確定性,是不可預測、不可預測的。從當前人工智慧的發展趨勢來看,可預見的未來戰爭中,存在著許多人機融合隱患仍未能解決,具體有:

##(1)在複雜的在資訊環境中,人類和機器在特定的時間內吸收、消化和運用有限的信息,對人而言,人的壓力越大,誤解的信息越多,也就越容易導致困惑、迷茫和意外。對機器而言,對於跨領域非結構化資料的學習理解預測,依然是非常困難的事。

(2)戰爭中決策所需的資訊在時間和空間上的廣泛分佈,決定了一些關鍵資訊仍然很難取得。而且機器收集到的重要的客觀物理性數據與人類所獲得的主觀加工後的資訊和知識很難協調融合。

(3)未來的戰爭中,存在著大量的非線性特徵和出乎意料的多變性,常常會導致作戰過程和結果諸多不可預見性,基於公理的形式化邏輯推理已遠遠無法滿足複雜多變戰況決策的需求。鑑於核武的不斷蔓延與擴散,國家無論大小,國與國之間的未來戰爭成本將會越來越高。無論人工智慧怎麼發展,未來是屬於人類的,應該由人類共同定義未來戰爭的遊戲規則並決定人工智慧的命運,而不是由人工智慧決定人類的命運,究其因,人工智慧是邏輯的,而未來戰爭不只是邏輯性的,還存在著大量的非邏輯因素。

(4)鑑於各國對自主裝備分類不同,對於強人工智慧或稱為通用人工智慧類武器概念的定義和理解差距都很大,所以當前最重要的工作不時具體的技術問題如何解決(技術​​迭代更新的非常快),而是有關人工智慧應用基本概念和定義如何達成共識,如::①什麼是AI? ②什麼是自主? ③自動化與智慧化差異是? ④機器計算與人算計的差別是? ⑤人機功能/能力分配的邊界是? ⑥數據、AI與風險責任的關係如何? ⑦可計算性與可判定性區別等等。

有的定義還很粗略,需要進一步細化,如從人類安全角度看,禁止「人在迴路外」的自主武器是符合普世價值且減少失控風險必要之舉,但是什麼樣的人在系統迴路中往往被忽略,一些不負責任的人在防疫系統中可能會更糟;

(5)對於世界上自主技術的發展情況,建議設立聯合評估小組,定期對自主技術發展情況進行細緻的評估與預警,對技術發展關口進行把關,對技術發展進行預測分析,對進行敏感技術開發的重點機構和研發人員進行定向監督,設立一定程度的學術開放要求。

(6)AI軍用化發展所面臨的安全風險和挑戰主要有:

①人工智慧和自主系統可能會導致事態意外升級和危機不穩定;

②人工智慧和自主系統將會降低對手之間的戰略穩定性(如中美、美俄之間戰略關係將更加緊張);

③人和自主系統的不同組合(包括人判斷人決策、人判斷機決策、機判斷人決策、機判斷機決策)會影響雙方的態勢升級;

④機器理解人發出的威懾訊號(尤其是降級訊號)較差;

⑤ 自主系統無意攻擊友軍或平民的事故將引起更多質疑;

⑥ 人工智慧和自主系統可能會導致軍備競賽的不穩定性;

⑦ 自主系統的擴散可能引發人們認真尋找對策,這些對策將加劇不確定性,各國將擔憂安全問題。

計算應對“複”,算計處理“雜”,寫作文就是一種計算計過程,只不過不是用數字圖形,而是用文字符號。

人類不可能完全掌握世界,但可以試著理解世界,這種智慧會催生出更新的哲學範疇和思考。

在馮諾伊曼生前出版的最後一本關於大腦與電腦之間關係的著作,《電腦與人腦》(The Computer and the Brain)中,馮·諾伊曼總結了自己以上觀點,並承認大腦不僅遠比機器複雜,而且大腦似乎沿著他最初設想的不同路線來實現其功能。幾乎蓋棺論定般地,他認為使用二進制的計算機完全不適合用來模擬大腦。這是因為他已經幾乎可以論定,大腦的邏輯結構,和邏輯學、數學的邏輯結構完全不同,那麼,「從評估中樞神經系統真正使用的數學或邏輯語音的角度來看,我們使用的數學的外在形式完全不適合做這樣的工作。」

#

最近的科學研究也證實了這一點。法國神經科學家羅曼布雷特(RomainBrette)的發現從根本上質疑了大腦和電腦底層架構上的一致性,即神經編碼。科學家們受到大腦和電腦之間隱喻的影響,將技術意義層面上的刺激和神經元之間的聯繫,轉移到了表徵意義上神經元編碼徹底代表了刺激。事實上,神經網路是如何以最佳的解碼方式將訊號傳遞給腦中的理想化觀察者的「下游結構」(downstreamstructure),至今是未知的,甚至在簡單的模型中也沒有明確的假說。那麼,這種隱喻會導致科學家只關注感覺和神經元之間的聯繫,而忽略動物的行為真正對神經元的影響。

匈牙利神經科學家蓋伊爾吉·布薩基的研究結果更為激進。在他的《由內而外的腦》一書中,布薩基指出,大腦事實上並不是透過編碼來表徵訊息,而是建構了訊息。在他看來,腦並不是簡單被動地接受刺激,然後透過神經編碼來表徵他們,而是透過積極地搜尋各種可能性來測試各種可能的選擇。這無疑是對於用電腦來比喻大腦的隱喻的全盤推翻。

無論是從腦科學,或是電腦科學的角度,這種將大腦比喻為電腦的隱喻壽命或許都將不再延續。科布敏銳地指出,這種隱喻被作用到人們對於電腦的研究之中,讓人們盲覺,縮小了真正該研究的範圍。

以上是人工智慧的未來是人機環境系統智能的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除