首頁  >  文章  >  科技週邊  >  大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招

大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招

WBOY
WBOY轉載
2023-05-31 15:25:43758瀏覽

ChatGPT等大語言模型爆火背後原因是什麼?為哪些行業產業帶來福音?潛在泡棉風險在哪裡? 5月25日至26日,在2023小蠻腰科技大會分論壇-「邁向智慧時代,實現文明躍遷」AIGC專場高峰會上,20餘位AI領域的研究者、實務者,共同探討AIGC應用與商業新典範、各產業領域發展新路徑,以及潛在資料安全風險、倫理議題。

在26日高峰會現場的新書發布儀式上,《大模型時代》作者、曾任阿里巴巴資深產品專家兼事業部副總經理、矽谷AI新創公司聯合創辦人兼營運長龍志勇接受南都訪談時坦言,生成式AI要走先規範、後發展模式,應對大模型潛在泡沫風險既有技術手段,如大模型自我評估、合規演算法審核等,又有人工流程,更重要的是產業要對問題的解決難度、週期有合理的預期,才能避免過度樂觀所帶來的風險。

大模型掀起新一輪智力革命與產業重構

#ChatGPT等生成式人工智慧幕後真正的智慧“大腦”,正是大語言模型!基於生成式預訓練大模型的技術突破,帶來面向個人、深入產業的多重應用,引發新一輪智力革命與產業重構,建構全新的腦機協作關係。

大模型時代已經來臨!龍志勇透露,《大模型時代》對技術、應用和產業變化進行深入分析、闡述,生動形象解釋ChatGPT大模型背後的原理,描繪大模型將如何驅動社會進入智能革命和腦機協作時代,並總結企業在自身業務中應用大模型的注意事項與方法論,為個人、企業因應變革提出建議。據其稱,大模型在知識工作、商業企業、創意娛樂等領域已具體應用,主要帶來兩種創新:漸進式創新、顛覆性創新。

在高峰會現場主題演講中,人工智慧科學家劉志毅也提到,人工智慧賦能經濟社會發展各領域,下游各領域的產業升級對大模型需求持續走高。根據計算2022年中國人工智慧產業市場規模為3.7億元,預計2027年將達15.37億元,預計在下游製造、交通、金融、醫療等多領域不斷滲透,實現大規模落地應用。

大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招

《大模型時代》在5月26日「邁向智慧時代,實現文明躍遷」2023AIGC專場高峰會上發布。

生成式人工智慧帶來信任侵蝕等風險

不過,隨著大模型的廣泛應用,潛在泡沫也隨之湧現。三星引進ChatGPT不到20天,就被揭露機密資料外洩。人們對於AI變臉、AI繪畫等技術所帶來的法律風險、倫理問題和資料安全問題越來越關注。

談到「大模型時代的AI科技創新與倫理治理」時,劉志毅表示,生成式人工智慧確實存在一定風險,如果在擴展規模時沒有考慮、緩解這些風險,可能會減緩轉型速度。訓練模型持續更新以提升效能,可能會引起對敏感資料、隱私以及安全性的擔憂。參與生成式人工智慧的開發、消費、討論和監管的所有人都應努力管理信任侵蝕、長期的員工失業風險、偏見和歧視、資料隱私和智慧財產權的保護等風險。

劉志毅接受南都訪問時分享自己三點看法。他說,一是AI技術會自然進入國民經濟、社會系統各領域,所在風險就會擴大,因為技術本身是黑盒的,如深度神經網絡,透過技術、演算法的計算,沒人知道它每一步怎麼達到,是不透明、不可解釋的,就存在風險。二是AI技術很多時候與數位世界創造有關。例如深度偽造,包括偽造聲音、影像,就是把實體身份變成數位身份,數位經濟越發達的國家,越需要這些技術支撐,依賴性越強,但帶來的風險也越大。三是我國非常強調應用場景與生態,這些應用場景落地必然是創新的,必然會帶來風險,而這些風險隨著場景創新而擴大,因此會前置性做監管,例如國家網信辦發布《生成式人工智慧服務管理辦法(徵求意見稿)》、科技部發布的《關於加強科技倫理治理的意見》等,都是前置性去考慮一些風險。

大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招

《大模型時代》作者、曾任阿里巴巴資深產品專家兼事業部副總經理、矽谷AI新創公司聯合創辦人兼營運長龍志勇在新書發布儀式上發言。

對大模型演算法可靠性、透明度提出要求

“資料隱私確實是GPT大模型的重要問題”,龍志勇接受南都採訪時表示,最近OpenAI在美國應對質詢時提前做了這方面準備工作,例如在ChatGPT中提供了關閉聊天記錄的個人選項,使用者可以拒絕大模型使用自己的隱私資料進行訓練;針對企業客戶,OpenAI將提供企業私有部署的模型,避免企業擔憂自家的微調訓練資料被大模型共享給了競爭對手,這些措施大概率會被國內大模型所採納。

對於如何應對大模型潛在泡沫風險,如何平衡生成式人工智慧的強規範、促發展的關係,龍志勇坦言,生成式AI要走先規範、後發展的模式。大模型的服務提供者作為AI生成物的法律責任的主要承擔者,要對AIGC內容的正確性、價值取向負責,其合規壓力還是相當大的,這屬於強規範,「在《北京市促進通用人工智慧創新發展的若干措施》文件中,提到鼓勵生成式AI在科研等非面向公眾服務領域實現向上向善應用,在中關村核心區先行先試,進行包容審慎的監管試點,我認為就屬於一種積極的、在規範和發展之間求得平衡的訊號」。

他提到,監管機構的想法要求大型演算法在可靠性和透明度方面要做出改進。在《大模型時代》中發出了警告,指出潛在的產業泡沫風險,其中一個關鍵因素是大模型的可靠性和透明度問題。 Ilya,OpenAI的首席科學家認為,大型模式幻覺和資訊偽造是阻礙GPT在各產業應用的主要障礙。而幻覺問題之所以難以根除,首先是因為大模型的訓練目標、方法導致,其次是AI自深度學習年代就開始具備的黑箱屬性,不透明,無法在模型中定位具體問題所在。考慮到大模型新能力的湧現機制也不透明、不可預測,大模型產業需要在失控中追求可控,在規範中求得發展,這是最大的挑戰。

出品:南都大數據研究院

研究員:袁炯賢

以上是大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除