ChatGPT等大語言模型爆火背後原因是什麼?為哪些行業產業帶來福音?潛在泡棉風險在哪裡? 5月25日至26日,在2023小蠻腰科技大會分論壇-「邁向智慧時代,實現文明躍遷」AIGC專場高峰會上,20餘位AI領域的研究者、實務者,共同探討AIGC應用與商業新典範、各產業領域發展新路徑,以及潛在資料安全風險、倫理議題。
在26日高峰會現場的新書發布儀式上,《大模型時代》作者、曾任阿里巴巴資深產品專家兼事業部副總經理、矽谷AI新創公司聯合創辦人兼營運長龍志勇接受南都訪談時坦言,生成式AI要走先規範、後發展模式,應對大模型潛在泡沫風險既有技術手段,如大模型自我評估、合規演算法審核等,又有人工流程,更重要的是產業要對問題的解決難度、週期有合理的預期,才能避免過度樂觀所帶來的風險。
大模型掀起新一輪智力革命與產業重構
#ChatGPT等生成式人工智慧幕後真正的智慧“大腦”,正是大語言模型!基於生成式預訓練大模型的技術突破,帶來面向個人、深入產業的多重應用,引發新一輪智力革命與產業重構,建構全新的腦機協作關係。
大模型時代已經來臨!龍志勇透露,《大模型時代》對技術、應用和產業變化進行深入分析、闡述,生動形象解釋ChatGPT大模型背後的原理,描繪大模型將如何驅動社會進入智能革命和腦機協作時代,並總結企業在自身業務中應用大模型的注意事項與方法論,為個人、企業因應變革提出建議。據其稱,大模型在知識工作、商業企業、創意娛樂等領域已具體應用,主要帶來兩種創新:漸進式創新、顛覆性創新。
在高峰會現場主題演講中,人工智慧科學家劉志毅也提到,人工智慧賦能經濟社會發展各領域,下游各領域的產業升級對大模型需求持續走高。根據計算2022年中國人工智慧產業市場規模為3.7億元,預計2027年將達15.37億元,預計在下游製造、交通、金融、醫療等多領域不斷滲透,實現大規模落地應用。
《大模型時代》在5月26日「邁向智慧時代,實現文明躍遷」2023AIGC專場高峰會上發布。
生成式人工智慧帶來信任侵蝕等風險
不過,隨著大模型的廣泛應用,潛在泡沫也隨之湧現。三星引進ChatGPT不到20天,就被揭露機密資料外洩。人們對於AI變臉、AI繪畫等技術所帶來的法律風險、倫理問題和資料安全問題越來越關注。
談到「大模型時代的AI科技創新與倫理治理」時,劉志毅表示,生成式人工智慧確實存在一定風險,如果在擴展規模時沒有考慮、緩解這些風險,可能會減緩轉型速度。訓練模型持續更新以提升效能,可能會引起對敏感資料、隱私以及安全性的擔憂。參與生成式人工智慧的開發、消費、討論和監管的所有人都應努力管理信任侵蝕、長期的員工失業風險、偏見和歧視、資料隱私和智慧財產權的保護等風險。
劉志毅接受南都訪問時分享自己三點看法。他說,一是AI技術會自然進入國民經濟、社會系統各領域,所在風險就會擴大,因為技術本身是黑盒的,如深度神經網絡,透過技術、演算法的計算,沒人知道它每一步怎麼達到,是不透明、不可解釋的,就存在風險。二是AI技術很多時候與數位世界創造有關。例如深度偽造,包括偽造聲音、影像,就是把實體身份變成數位身份,數位經濟越發達的國家,越需要這些技術支撐,依賴性越強,但帶來的風險也越大。三是我國非常強調應用場景與生態,這些應用場景落地必然是創新的,必然會帶來風險,而這些風險隨著場景創新而擴大,因此會前置性做監管,例如國家網信辦發布《生成式人工智慧服務管理辦法(徵求意見稿)》、科技部發布的《關於加強科技倫理治理的意見》等,都是前置性去考慮一些風險。
《大模型時代》作者、曾任阿里巴巴資深產品專家兼事業部副總經理、矽谷AI新創公司聯合創辦人兼營運長龍志勇在新書發布儀式上發言。
對大模型演算法可靠性、透明度提出要求
“資料隱私確實是GPT大模型的重要問題”,龍志勇接受南都採訪時表示,最近OpenAI在美國應對質詢時提前做了這方面準備工作,例如在ChatGPT中提供了關閉聊天記錄的個人選項,使用者可以拒絕大模型使用自己的隱私資料進行訓練;針對企業客戶,OpenAI將提供企業私有部署的模型,避免企業擔憂自家的微調訓練資料被大模型共享給了競爭對手,這些措施大概率會被國內大模型所採納。
對於如何應對大模型潛在泡沫風險,如何平衡生成式人工智慧的強規範、促發展的關係,龍志勇坦言,生成式AI要走先規範、後發展的模式。大模型的服務提供者作為AI生成物的法律責任的主要承擔者,要對AIGC內容的正確性、價值取向負責,其合規壓力還是相當大的,這屬於強規範,「在《北京市促進通用人工智慧創新發展的若干措施》文件中,提到鼓勵生成式AI在科研等非面向公眾服務領域實現向上向善應用,在中關村核心區先行先試,進行包容審慎的監管試點,我認為就屬於一種積極的、在規範和發展之間求得平衡的訊號」。
他提到,監管機構的想法要求大型演算法在可靠性和透明度方面要做出改進。在《大模型時代》中發出了警告,指出潛在的產業泡沫風險,其中一個關鍵因素是大模型的可靠性和透明度問題。 Ilya,OpenAI的首席科學家認為,大型模式幻覺和資訊偽造是阻礙GPT在各產業應用的主要障礙。而幻覺問題之所以難以根除,首先是因為大模型的訓練目標、方法導致,其次是AI自深度學習年代就開始具備的黑箱屬性,不透明,無法在模型中定位具體問題所在。考慮到大模型新能力的湧現機制也不透明、不可預測,大模型產業需要在失控中追求可控,在規範中求得發展,這是最大的挑戰。
出品:南都大數據研究院
研究員:袁炯賢
以上是大模型時代來了!數安風險如何因應?小蠻腰AI高峰會專家支招的詳細內容。更多資訊請關注PHP中文網其他相關文章!

介紹 恭喜!您經營一家成功的業務。通過您的網頁,社交媒體活動,網絡研討會,會議,免費資源和其他來源,您每天收集5000個電子郵件ID。下一個明顯的步驟是

介紹 在當今快節奏的軟件開發環境中,確保最佳應用程序性能至關重要。監視實時指標,例如響應時間,錯誤率和資源利用率可以幫助MAIN

“您有幾個用戶?”他扮演。 阿爾特曼回答說:“我認為我們上次說的是每週5億個活躍者,而且它正在迅速增長。” “你告訴我,就像在短短幾週內翻了一番,”安德森繼續說道。 “我說那個私人

介紹 Mistral發布了其第一個多模式模型,即Pixtral-12b-2409。該模型建立在Mistral的120億參數Nemo 12B之上。是什麼設置了該模型?現在可以拍攝圖像和Tex

想像一下,擁有一個由AI驅動的助手,不僅可以響應您的查詢,還可以自主收集信息,執行任務甚至處理多種類型的數據(TEXT,圖像和代碼)。聽起來有未來派?在這個a


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。

禪工作室 13.0.1
強大的PHP整合開發環境

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Dreamweaver CS6
視覺化網頁開發工具

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。