3月17日訊息,本週OpenAI發布了GPT-4。雖然這款人工智慧聊天機器人不斷增加新功能,但人們越來越擔心,這種人工智慧工具也可能被用於不良目的。 OpenAI聯合創始人、首席科學家伊利亞·薩茨科弗(Ilya Sutskever)在接受採訪時承認,別有用心的人容易利用人工智慧給他人造成傷害。
「這些模型非常強,而且會變得越來越強,」他說。 「在某種程度上,如果有人想的話,很容易用這些模型造成很大傷害。」
薩茨科弗是在解釋為什麼OpenAI不再提供關於如何訓練這些模型的詳細信息時這樣說的。
他在接受採訪時表示:「隨著人工智慧的效能不斷提升,不想透露它們是有原因的。」「我確信,在幾年內,每個人都將十分清楚,人工智慧開源是不明智的做法。」
OpenAI首席執行官薩姆·奧爾特曼(Sam Altman)過去也表達過類似的看法。
在今年稍早的一次採訪中,奧爾特曼表示,就人工智慧而言,雖然最好的情況是“令人難以置信的好,以至於我都很難想像” ,但最糟的情況是「讓我們所有人都熄火」。
上個月,奧特曼還在推特上表示,他認為人工智慧工具可以幫助人們變得更有效率、更健康、更聰明,但也補充說,世界可能離可怕的人工智慧工具可能沒有那麼遠,所以對它們進行監管「至關重要」。
以上是為何不公佈ChatGPT訓練細節? OpenAI聯合創始人:容易造成巨大傷害的詳細內容。更多資訊請關注PHP中文網其他相關文章!