3月15日訊息,當地時間週二,人工智慧#3月15日訊息,當地時間週二,人工智慧
OpenAI發布了最新版的大型語言模型GPT-4。這項讓人期待已久的高級工具不僅可以自動生成文字,還可以描述分析圖像內容;不僅推高人工智慧浪潮的技術水平,也讓技術開發的道德邊界愈發變得不可忽視。
OpenAI早期上線的聊天機器人
ChatGPT用自動生成的流暢文字獲得了大量關注,也讓公眾對其杜撰論文、虛構劇本的能力感到不安。要知道,ChatGPT用的還是一年多前就已經落伍的老一代技術GPT-3。 早期測試者曾聲稱,GPT-4在推理和學習新事物的能力方面非常先進。1微軟
週二也透露,上個月發布的必應人工智慧聊天機器人一直在使用GPT-4。 開發者週二表示,這項技術將進一步徹底改變人們的工作和生活。但同時這也讓大眾擔心,人工該如何與這種精密得可怕的機器競爭,人們該如何相信自己在網路上看到的內容。 OpenAI高層表示,GPT-4跨文字和圖像的「多模式」使其在「高階推理能力」方面遠超過ChatGPT。由於擔心功能被濫用,公司推遲發布GPT-4的圖像描述功能,而GPT-4支援的ChatGPT Plus服務訂閱用戶只能使用文字功能。 OpenAI政策研究員桑迪尼·阿加瓦爾(Sandhini Agarwal)稱,公司之所以還沒發布這項功能,是為了更好地了解潛在風險。 OpenAI發言人尼科·費利克斯(Niko Felix)表示,OpenAI正計劃「實施保障措施,防止影像中的個人資訊被識別」。 OpenAI也承認,GPT-4仍會有「產生幻覺」、出現無稽之談、延續社會偏見,以及提供糟糕建議等慣常錯誤。 微軟已經向OpenAI投資數十億美元,希望人工智慧技術能成為旗下辦公室軟體、搜尋引擎和其他線上產品的殺手鐧。該公司將這項技術宣傳成超級高效的合作夥伴,可以處理重複性工作,讓人們專注於創意工作,比如說幫助軟體開發人員完成整個團隊工作。 但有關注人工智慧的人士表示,這些可能只是表象,人工智慧可能會導致沒人能預料的商業模式和風險。 人工智慧的快速發展,加上ChatGPT的爆火,導致業內公司圍繞爭奪人工智慧領域主導地位展開激烈競爭,競相發布新軟體。 這種狂熱也引發了不少批評。許多人認為這些公司急於推出未經測試、不受監管且不可預測的技術,可能會欺騙用戶,破壞藝術家的作品,並為現實世界帶來傷害。 由於設計上就是為了產生令人信服的措辭,人工智慧語言模型經常會提供錯誤答案。而這些模型要用網路上的資訊和圖像接受訓練,也學會了模仿人類偏見。 OpenAI研究人員在一份技術報告中寫道,“隨著GPT-4和類似的人工智慧系統被廣泛採納”,它們“會強化固有見解”。 OpenAI前研究員、開源人工智慧公司Hugging Face政策總監艾琳·索萊曼(Irene Solaiman)認為,這種技術進展的速度需要全社會對潛在問題及時做出反應。 ######她進一步表示,“作為社會一員,我們已經可以在一些不應該由模型造成的危害方面達成廣泛共識”,“但許多傷害是微妙的,主要影響的是少數群體。”她補充說,那些有害的偏見「不能成為人工智慧性能的次要考慮因素。」###最新的GPT-4也不完全穩定。當用戶祝賀人工智慧工具升級為GPT-4時,它的回應是「我仍然是GPT-3模型」。然後被糾正後它為此道歉,並說:“作為GPT-4,我感謝你的祝賀!”隨後用戶又開玩笑稱,它實際上仍然是GPT-3模型,人工智能再次道歉,並說自己“確實是GPT-3模型,而不是GPT-4」。
OpenAI發言人費利克斯表示,公司研究團隊正在調查問題出在哪裡。
週二,人工智慧研究人員批評OpenAI披露的資訊不足。公司並沒有公佈GPT-4存在哪些偏見的評估數據。熱切的工程師們也失望發現,關於GPT-4模型、資料集或訓練方法的細節資訊很少。 OpenAI在技術報告中表示,考慮到面對的“競爭格局和安全影響”,該公司不會透露這些細節。
GPT-4所處的多感官人工智慧領域競爭激烈。谷歌母公司Alphabet旗下人工智慧公司DeepMind去年發布了一個名為Gato的全能模型,可以描述圖像和玩電玩遊戲。谷歌本月發布了一款多模式系統PaLM-E,能將人工智慧視覺和語言分析整合到單臂機器人中。例如,如果有人讓它去拿一些晶片,它可以理解這個請求,轉向抽屜,選擇合適的物體。
類似系統激發了人們對這項技術潛力的無限樂觀,有些人甚至從中看到幾乎與人類同等的智慧水平。然而,正如批評者和人工智慧研究人員所認為那樣,這些系統只是在重複訓練資料中發現既定模式和固有關聯,並沒有清楚地理解其中之意。
GPT-4是自2018年OpenAI首次發布以來的第四個“生成式預訓練轉換器”,基於2017年開發的突破性神經網路技術「轉換器」。這種透過分析網路文字和圖像進行「預先訓練」的系統讓人工智慧系統在如何分析人類語音和圖像的方式方面取得了快速進展。
多年來,OpenAI也從根本上改變了向大眾發佈人工智慧工具的潛在社會風險。 2019年,該公司曾拒絕公開發布GPT-2,並表示雖然人工智慧表現非常好,但他們擔心會出現使用它的「惡意應用程式」。
但去年11月,OpenAI公開上線了基於GPT-3微調版本的ChatGPT。在發布後的短短幾天內,用戶就超過了100萬。
ChatGPT和必應聊天機器人的公開實驗表明,如果沒有人工幹預,這項技術離完美表現還很遠。在出現一系列奇怪對話和錯誤答案後,微軟高層承認,就提供正確答案而言,人工智慧聊天機器人仍然不值得信賴,但表示正在開發「信心指標」來解決這個問題。
GPT-4有望改進一些缺點,科技部落客羅伯特·斯科博(Robert Scoble)等人工智慧倡導者認為,「GPT-4比任何人預期的都要好。」
OpenAI執行長薩姆·奧爾特曼(Sam Altman)曾試圖緩和人們對GPT-4的期望。他在1月份表示,對GPT-4能力的猜測已經達到了不可能的高度,“關於GPT-4的謠言是荒謬的”,“他們會失望的。”
但奧爾特曼也在推銷OpenAI的願景。在上個月的一篇部落格文章中,他表示,該公司正在計劃如何確保「所有人類」都受益於「通用人工通用能」(AGI)。這個行業術語指的是一種仍然不切實際的想法,要讓超級人工智慧和人類一樣聰明,甚至比人類更聰明。
以上是外媒評GPT-4:人工智慧領域的巨大飛躍,也是技術道德規範的另一個重大轉變的詳細內容。更多資訊請關注PHP中文網其他相關文章!