在靠近芝加哥市中心的一棟不起眼的建築裡,Marc Gyongyosi和IFM/Onetrack的成員們正在成長及不斷壯大。
人工智慧有一個基本原則:簡單思考。這些字用簡單的字體寫在一張紙上,貼在他們兩層工業廠房樓上的後牆上。然而,他們在這裡用人工智慧做的事情一點也不簡單。
人工智慧的未來人工智慧正在塑造幾乎所有產業的人類未來。其已經是大數據、機器人和物聯網等新興技術的主要驅動力,並將在可預見的未來繼續扮演技術創新者的角色。
使用機器學習和電腦視覺來檢測和分類各種“安全事件”,這個鞋盒大小的設備並沒有看到全部,但也看到了許多。例如司機在操作車輛時的樣子、駕駛速度、何處駕駛、周圍的人的位置以及其他堆高機操作員如何操縱其車輛。 IFM的軟體會自動偵測違反安全規定的行為——例如使用手機——並通知倉庫經理,使其立即採取行動。這主要目的是預防事故和提高效率。 Gyongyosi聲稱,僅僅是知道IFM的一個設備正在觀看,就已經產生了「巨大的影響」。
Gyongyosi表示:「想想相機,它確實是我們目前可用的最豐富的感測器,而且價格非常有趣。如今智慧型手機、相機和影像感測器變得非常便宜,但我們捕捉了很多信息。從一張影像中,可能可以推斷出25個訊號;但六個月後,我們可以從同一張影像推斷出100或150個訊號。唯一的差異是檢視影像的軟體…每個客戶都能從我們引入的每個其他客戶中受益,因為我們的系統開始看到和學習更多的流程,並檢測出更多重要和相關的東西。」
IFM只是這個不斷發展的領域中無數人工智慧創新者之一。例如,IBM發明者在2021年獲得的9,130項專利中,有2,300項與人工智慧有關。 Tesla創始人兼科技巨頭ElonMusk向非營利研究公司OpenAI捐贈了1000萬美元,以資助正在進行的研究。
在始於「知識工程」的演化時期,又以零星休眠為標誌的幾十年後,技術發展到基於模型和演算法的機器學習,並越來越關注感知、推理和歸納。現在,人工智慧以前所未有的方式重新佔據了舞台的中心,而且短時間內它不會讓出「聚光燈」。
為什麼人工智慧很重要?人工智慧很重要,因為其是電腦學習的基礎。透過人工智慧,電腦能夠利用大量數據,並利用其學習到的「智慧」在人類所需時間的一小部分內做出最佳決策和發現。
現代人工智慧——更具體地說,是「狹義人工智慧」。其使用資料訓練過的模型執行目標函數,通常屬於深度學習或機器學習的類別——幾乎沒有一個主要行業還沒有受到影響。在過去的幾年裡尤其如此,由於物聯網的強大連接、連網設備的激增以及更快的電腦處理速度,使得資料收集和分析大大增加。
有些產業正處於人工智慧之旅的起點,其他產業則是經驗豐富的旅行者。兩者都有很長的路要走。無論如何,人工智慧於當今生活的影響是不容忽視的。
但這些進步——以及許多其他進步——只是開始。未來還會有更多。
客戶關係管理公司4Degrees的技術長兼聯合創始人DavidVandegrift表示:「我認為,任何對智慧軟體的能力在某些時刻達到極限的假設都是錯誤的。」
隨著公司每年在人工智慧產品和服務上花費數十億美元,像Google,Apple,Microsoft和Amazon等科技巨頭花費數十億美元來創造這些產品和服務,大學將人工智慧作為其課程中更重要的一部分,以及U.S.Department升級其人工智慧遊戲,必然會有大事發生。其中一些發展正朝著完全實現的方向發展;有些僅僅是理論上的,而且可能會一直如此。所有這些都是破壞性的,或好或壞,目前還看不到衰退的跡象。
Google前負責人、百度首席科學家AndrewNg在接受ZDNet採訪時表示:「許多產業都會經歷這樣一種模式:冬天、冬天,然後是永恆的春天。我們可能正處於人工智慧的永恆春天。」
#在西北大學的演講中,人工智慧專家Kai-Fu Lee 倡導了人工智慧技術及其即將到來的影響,同時也指出了人工智慧的副作用和限制。對於前者,其警告道:
“90%的底層人口,尤其是收入或教育水平處於世界底層的50%人口,將因失業而受到嚴重傷害……一個簡單的問題,'程序是如何運作的呢?'這就是人工智慧取代工作的可能性,因為人工智慧可以在日常任務中學會自我優化。而且數量越多,工作就越客觀,如把東西分到垃圾桶、洗碗、摘水果和接聽客服電話——這些都是重複性和例行性的腳本任務。在5年、10年或15年內,它們將被人工智慧取代。」
在擁有超過100,000台機器人的線上巨頭和人工智慧巨頭Amazon的倉庫中,揀貨和包裝的功能仍然由人類來完成,但這種情況將會改變。
Lee的觀點最近得到了Infosys總裁MohitJoshi的回應,其告訴《紐約時報》:「人們都希望取得巨大的成就。早些時候,他們在減少勞動力方面有5%到10%的增量目標。現在他們覺得,'為什麼我們不能用我們僅有的1%的人來做這件事呢?'”
更為樂觀的是,Lee強調,當今的人工智能在兩方面都是無用的:它沒有創造力,也沒有同理心或愛的能力。相反,它是“放大人類創造力的工具”。那解決方案呢?從事重複性或例行工作的人必須學習新的技能,以免被淘汰。 Amazon甚至向其員工提供資金來培訓其他公司的工作。
UniversityofIllinoisatUrbana-Champaign電腦科學教授兼主任KlaraNahrstedt表示:「人工智慧要在許多領域取得成功的絕對先決條件之一是,我們要在教育方面投入大量資金,對人們進行新工作的再培訓。」
Klara擔心這種情況不會廣泛或經常發生。 IFM的Gyongyosi甚至更具體。
「人們需要像學習新語言一樣學習編程,」Gyongyosi表示:「他們需要儘早這樣做,因為這真的是未來的趨勢。在未來,如果不懂編碼,就不懂編程,這只會變得更加困難。」
」雖然許多因科技而被迫失業的人會找到新的工作,但這不會在一夜之間發生。就像美國在工業革命期間從農業經濟過渡到工業經濟一樣,這在很大程度上導致了大蕭條,人們最終重新站起來。然而,短期影響是巨大的。」Vandegrift表示:「在工作消失和新工作出現之間的過渡,不一定像人們想像的那樣輕鬆。」
MikeMendelson,是NVIDIA的學習者體驗設計師,是與Nahrstedt不同的教育者。他與那些希望更多地了解人工智慧,並將其應用於業務的開發人員一起工作。
其表示:“如果他們了解這項技術的能力,並且非常了解該領域,他們就會開始建立聯繫,並認為,'也許這是一個AI問題。'這種情況比'我有一個想解決的具體問題'更常見。
在Mendelson看來,一些最有趣的人工智慧研究和實驗將在不久的將來產生影響,這將發生在兩個領域:「強化」學習,其處理獎勵和懲罰,而不是標記數據;以及生成對抗網路(簡稱GAN),其允許電腦演算法創建而不是僅僅通過使兩個網路相互對抗來進行評估。前者的典型代表是GoogleDeepMind的AlphaGoZero的圍棋能力為例,後者則以原始圖像或音頻生成為例,該生成基於對名人或特定類型音樂等特定主題的學習。
##############################################在更大的範圍內,人工智慧有望對永續性、氣候變遷和環境問題產生重大影響。理想情況下,透過使用精密感測器,城市將變得不那麼擁擠、污染更少,整體上更宜居。######Nahrstedt表示:「一旦預測了某件事,就可製定某些政策和規則。 」例如,安裝在汽車上的感測器可以發送有關交通狀況的數據,可以預測潛在的問題,並優化汽車的流量。其認為,這還沒有以任何方式完善。還處於起步階段。但多年後,它將發揮非常重要的作用。#########人工智慧會統治世界嗎?人工智慧預計將對幾乎所有可以想像到的行業產生持久的影響——因為預計60%的企業將受到人工人工智慧預計智慧的影響。我們已經在智慧型裝置、汽車、醫療保健系統和最受歡迎的應用程式中看到了人工智慧。在可預見的未來,我們將繼續看到其影響更深入地滲透到許多其他行業。 #########人工智慧和隱私風險######當然,人工智慧對大數據的依賴已經在很大程度上影響了隱私。看看CambridgeAnalytica對Facebook的惡作劇或Amazon對Alexa的竊聽,這是眾多科技失控的例子中的兩個。批評人士認為,如果沒有適當的法規和自我施加的限制,情況會變得更糟。2015年,Apple首席執行官TimCook嘲笑競爭對手Google和Facebook貪婪的資料探勘。######Cook在2015年的演講中表示:「他們在盡可能地了解關於你的一切,並試圖將其變現。我們認為這是錯誤的。 」######隨後,在比利時布魯塞爾的一次談話中,Cook闡述了其的擔憂。######「透過收集大量個人資料來推進人工智慧是懶惰,而不是效率,」Cook表示「人工智慧要真正聰明,就必須尊重人類的價值觀,包括隱私。如果我們在這方面做錯了,危險將是深遠的。 」######很多人都同意了這一觀點。2018年,總部位於英國的人權和隱私組織Article19和PrivacyInternational發表了一篇論文,對人工智慧的焦慮僅限於其日常功能,而不是像機器人霸主出現那樣的災難性變化。######「如果負責任地實施,人工智慧可以造福社會,」作者寫道:「然而,與大多數新興技術一樣,商業和國家使用確實有可能對人權造成不利影響。 」######作者承認,收集的大量資料可用於嘗試以良性方式預測未來行為,例如垃圾郵件過濾器和推薦引擎。但也存在真正的威脅,即其會對個人隱私和免受歧視的權利產生負面影響。###
2018年底,國際知名人工智慧專家StuartRussell在WestminsterAbbey發表講話時,開玩笑(或不開玩笑)地表示,其與記者達成了正式協議,除非他們同意不把'Terminator'機器人放在文章中,否則不會與之交談。其的俏皮話揭示了對好萊塢描繪遙遠未來人工智慧的明顯蔑視,後者傾向於過度緊張和世界末日。 Russell所說的“人類等級的AI”,也被稱為通用人工智慧,長期以來一直是幻想的素材。但其在短時間內實現或根本實現的可能性非常小。
Russell解釋:「在我們達到類似人類水準的人工智慧之前,還有許多重大突破需要實現。」
Russell也指出,人工智慧目前還不能完全理解語言。這顯示了目前人類和人工智慧之間的明顯區別:人類可以翻譯機器語言並理解它,而人工智慧無法翻譯人類語言。然而,如果人工智慧能夠理解我們的語言,那麼人工智慧系統就能夠閱讀和理解所有的文字。
「一旦我們擁有了這種能力,便可查詢人類所有的知識,其將能夠綜合、整合和回答人類從未回答過的問題,」Russell補充道:「因為其沒有閱讀,也沒有能力把歷史上一直分離的事物之間的點放在一起,並連接起來。」
這給我們提供了很多值得思考的東西。在這個問題上,模擬人腦是極為困難的,這也是AGI的未來仍處於假設狀態的另一個原因。長期任職於密西根大學工程與電腦科學教授的JohnLaird在該領域進行了數十年的研究。
「我們的目標一直是試圖建立我們所謂的認知架構,我們認為這是智慧系統與生俱來的,」Laird談到主要受人類心理學啟發的工作時,「例如,我們知道的一件事是,人類大腦並不僅僅是一組同質的神經元。這是一個由不同組件組成的真實結構,其中一些與如何在這個世界上做事的知識有關。」
這就是所謂的程序記憶。還有一種是基於一般事實的知識,即語義記憶;以及,另一種是關於先前經歷(或個人事實)的知識,稱為情景記憶。 Laird實驗室的一個專案涉及使用自然語言指令教導機器人一些簡單的遊戲,例如下棋和智力遊戲。這些指令通常包括對目標的描述、法律措施的綱要和失敗的情況。機器人將這些指令內化,並使用它們來規劃自己的行動。然而,和以往一樣,突破總是需要時間——比Laird和同事預想的慢。
「每次我們取得進步,」Laird表示:「我們也會對其的難度有新的認識。」
許多人工智慧領域的領導者都認同,甚至有些人更誇張,一種噩夢般的場景,其中包括所謂的“奇點”,即超級智能機器接管人類,通過奴役或消滅人類接管並永久改變人類的存在。
已故的理論物理學家StephenHawking有一個著名的假設:如果人工智慧本身開始設計比人類程式設計師更好的人工智慧,結果可能是“機器的智慧超過我們,超過蝸牛。” ElonMusk相信並警告稱,AGI是人類生存的最大威脅。其表示,實現這一目標的努力就像「召喚惡魔」。甚至擔心,他的朋友、Google的聯合創始人LarryPage可能會無意中引導一些「邪惡」的東西出現,儘管他的初衷是好的。例如,「一支能夠毀滅人類的人工智慧增強型機器人艦隊」。即使是IFM的Gyongyosi,在人工智慧預測方面也不是危言聳聽,但也沒有排除任何可能性。其表示,在某一時刻,人類將不再需要訓練系統;他們會自己學習和發展。
「我不認為我們目前在這些領域使用的方法會導致機器決定殺死我們,」Gyongyosi表示:「我認為,也許5年或10年後,我將不得不重新評估這一說法,因為我們將有不同的方法和方式來處理這些事情。
雖然殺人機器很可能仍然是小說的素材,但許多人相信它們將以各種方式取代人類。
牛津大學人類未來研究所公佈了一項人工智慧調查的結果。標題為“人工智慧何時能超越人類表現?來自人工智慧專家的證據”,其中包含了352名機器學習研究人員對未來幾年人工智慧發展的估計。
這個群體中有很多樂觀主義者。受訪者的中位數表示,到2026年,機器將能夠撰寫學校論文;到2027年,自動駕駛卡車將不再需要司機;到2031年,人工智慧在零售領域的表現將超過人類;到2049年,人工智慧可能會成為下一個StephenKing;到2053年,可能會成為下一個CharlieTeo。最令人震驚的是:到2137年,所有人類工作都將自動化。但是人類自身呢?毫無疑問,喝著機器人端來的雨傘飲料。
NorthwesternUniversity教授、MasterofScienceinAnalytics計畫的創始主任DiegoKlabjan認為自己是AGI的懷疑論者。
其解釋道:「目前,電腦只能處理1萬多個單字。所以,有幾百萬個神經元。但是人類的大腦有數十億個神經元,它們以一種非常有趣和複雜的方式連接在一起,而目前最先進的技術只是按照非常簡單的模式進行簡單的連接。因此,在現有的硬體和軟體技術下,從數百萬個神經元到數十億個神經元,我不認為會發生這種情況。」
Klabjan也不太相信極端的場景──例如,兇殘機器人把地球變成了一個陰燃的地獄。其更關心的是機器——比如戰爭機器人——被邪惡的人類灌輸錯誤的「動機」。麻省理工學院物理學教授、人工智慧首席研究員MaxTegmark在2018年的TED演講中表示過:「人工智慧真正的威脅不是惡意,就像愚蠢的好萊塢電影裡那樣,而是能力——人工智慧實現的目標與我們的目標並不一致。」這也是Laird的看法。
Laird表示:「我絕對看不到某些東西醒來並決定要接管世界的情況。我認為這是科幻小說裡的情節,而不是未來的結局。」
#Laird最擔心的並不是邪惡的人工智慧本身,而是“邪惡的人類將人工智慧作為一種虛假的力量倍增器”,用於銀行搶劫和信用卡詐騙等許多犯罪行為。因此,雖然其經常對進步的速度感到沮喪,但人工智慧的緩慢燃燒實際上可能是一種祝福。
Laird表示:「了解我們正在創造什麼,以及我們將如何將其融入社會,可能正是我們所需要的。」
但沒有人知道確切的答案。
Russell在威斯敏斯特的演講中表示過:「有幾項重大突破必須實現,而且可能很快就會實現。」其引用了1917年英國物理學家ErnestRutherford提出的核裂變(原子分裂)的快速轉變效應,並補充道,「很難預測這些概念上的突破何時會發生。」
但無論何時,如果他們做了,他都會強調準備的重要性。這意味著開始或繼續討論AGI的道德使用,以及是否應該對其進行監管。這意味著要努力消除資料偏差,這對演算法有破壞作用,目前是人工智慧的一大缺陷。這意味著要努力發明和增強能夠控制技術的安全措施。也意味著我們要謙卑地意識到,我們能做到並不代表我們應該做到。
「大多數AGI的研究人員預計將在幾十年內實現AGI,如果我們毫無準備地撞上它,這可能是人類歷史上最大的錯誤。它可能導致殘酷的全球獨裁,帶來前所未有的不平等、監視、痛苦,甚至可能導致人類滅絕,」Tegmark在TED演講中這樣表示:「但如果我們謹慎行事,最終可能會進入一個美好的未來,每個人都過得更好— —窮人變得富有,富人更富有,每個人都健康,都可以自由地實現自己的夢想。」
以上是人工智慧的未來:人工智慧將如何改變世界?的詳細內容。更多資訊請關注PHP中文網其他相關文章!