首頁  >  文章  >  硬體教學  >  新的培訓方法旨在減少人工智慧中的社會偏見

新的培訓方法旨在減少人工智慧中的社會偏見

王林
王林原創
2024-06-27 08:29:45445瀏覽

New training approach aims to reduce social bias in AI

眾所周知,人工智慧聊天機器人在遇到各種問題時經常產生帶有種族偏見的解決方案,許多研究工作都針對這個問題。現在,一種新的訓練方法已經準備好解決這個問題。該方法被稱為“公平重複資料刪除”或簡稱“FairDeDup”,是 Adob​​e 和俄勒岡州立大學工程學院博士生 Eric Slyman 團隊的研究成果。

人工智慧訓練中使用的資料集去重包括刪除冗餘訊息,從而降低整個過程的成本。目前,所使用的數據來自整個互聯網,因此其中包含人類經常提出並在網上分享的不公平或有偏見的想法和行為。

根據Slyman 的說法,「FairDeDup 刪除了冗餘數據,同時納入了可控的、人類定義的多樣性維度,以減少偏見。我們的方法使AI 訓練不僅具有成本效益、準確,而且更加公平。

FairDeDup 是一種稱為 SemDeDup 的早期方法的改進版本,儘管它被證明是一種具有成本效益的解決方案,但它經常加劇社會偏見。對此領域感興趣的人應該閱讀Kris Hermans 的《掌握AI 模型訓練:成為訓練AI 模型專家的綜合指南》,該書目前在Kindle 上有售,售價9.99 美元,平裝版(售價44.07 美元) 。

Working For Notebookcheck技術高手誰知道怎麼寫?那就加入我們的團隊吧!誠聘:- 新聞撰稿人詳情請點擊此處

以上是新的培訓方法旨在減少人工智慧中的社會偏見的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn