【環球網科技報道記者林夢雪】當前,生成式AI、大模型在世界各地都呈現出高熱現象,在剛剛過去的2023世界人工智慧大會(WAIC 2023)期間, 各家廠商更是掀起了「百模大戰”,據組委會不完全統計,共有超30個大模型平台對外發布和亮相,六成線下展台展示了生成式AI技術的相關介紹和應用,八成與會者討論的內容圍繞大模型展開。
WAIC 2023期間,英特爾公司高級首席AI工程師、網路與邊緣事業部中國區首席技術官張宇認為,推動本輪人工智慧發展最核心的要素,實際上是運算、通訊和儲存技術的不斷提升。在整個AI生態系統中,無論是大規模模式或AI融合,邊緣都扮演著至關重要的角色。
張宇表示,「隨著產業數位轉型,人們對於敏捷連接,即時業務以及應用智慧等方面的訴求,推動了邊緣人工智慧的發展。但是邊緣人工智慧目前絕大部分的應用仍處於邊緣推理階段。也就是說我們要利用大量資料以及極大算力在資料中心訓練一個模型,我們把訓練的結果推送到前端去執行一個推理操作。這是目前絕大部分在邊緣實現人工智慧的使用模式。」
「這種模式不可避免會限制模型更新頻率,但是我們也看到很多智慧產業對模型的更新實際上是有訴求的。自動駕駛需要能夠適應各種路況並適用於不同駕駛員的駕駛習慣。但是我們在車廠訓練一個角色模型的時候,所使用的訓練資料和在動態駕駛過程中所產生的資料之間,往往會產生一定差異。這種差異影響了模型的泛化能力,也就是對新路況和新駕駛行為的適應能力。我們需要在邊緣不斷對模型進行訓練和優化以推進這個進程。」他說。
因此,張宇提出,人工智慧發展的第二個階段應該是邊緣訓練階段。 「如果我們要實現邊緣訓練,就需要有更自動化的手段和工具去完成從資料標註到模型的訓練,以及模型部署一整套完整的開發流程。」他表示,邊緣人工智慧下一步的發展方向應該是自主學習。
而在實際的發展過程中,邊緣人工智慧也面臨許多挑戰。在張宇看來,除了邊緣訓練的挑戰外,還有邊緣設備的挑戰。 「由於提供的算力所能夠承載的功耗往往是有限的,所以如何在有限資源的情況下去實現邊緣的推理及訓練,對芯片的性能、功耗比提出了更高的要求。」他還提出,邊緣設備的碎片化非常明顯,如何利用軟體很好地實現在不同平台之間的遷移也提出了更多要求。
此外,人工智慧的發展與算力息息相關,而算力的背後則是龐大的資料基礎,面對大量的資料資產,如何進行資料保護也成為邊緣人工智慧發展熱議的焦點。一旦人工智慧在邊緣部署,這些模型將超出服務提供者的控制範圍。這時候我們要如何去保護模型?且要在儲存和運行時都能達到很好的保護效果,這些都是邊緣人工智慧面臨的挑戰。 ”
「英特爾是一家數據公司,我們的產品正好涵蓋了運算、通訊和儲存的各個方面。在運算方面,英特爾提供的是包括CPU、GPU、FPGA和各種人工智慧加速晶片在內的多種產品,來滿足使用者對於算力的不同要求。例如在人工智慧大模型方面,英特爾旗下的Habana推出的Gaudi2產品是整個業界唯二的在大模型訓練方面表現出優異性能的產品。在邊緣在推理方面,英特爾提供的OpenVINO深度學習部署工具套件,可以將開發人員在開放的人工智慧框架上設計和訓練好的模型快速部署到不同硬體平台執行推理操作。」
以上是英特爾張宇:邊緣運算在整個AI生態系中扮演重要角色的詳細內容。更多資訊請關注PHP中文網其他相關文章!