首頁 >科技週邊 >人工智慧 >負責任的人工智慧是技術問題還是商業問題?

負責任的人工智慧是技術問題還是商業問題?

WBOY
WBOY轉載
2023-04-10 08:11:021374瀏覽

人工智慧(尤其是ChatGPT)已經在世界各地應用。人工智慧被誤用或濫用的可能性也很大,這是必須嚴肅對待的風險。然而,人工智慧也為社會和個人帶來了一系列潛在的好處。

多虧了ChatGPT,人工智慧成為了一個熱門話題。人們和組織已經開始地考慮它的無數用例,但也有一種潛在的風險和限制的擔憂。隨著人工智慧的快速實施,負責任的人工智慧(RAI)已經走到了最前沿,許多公司都在質疑這是一項技術還是商業問題。

根據麻省理工學院史隆管理學院於2022年9月發布的白皮書,世界正處於人工智慧失敗開始成倍增加的時期,第一批與人工智慧相關的法規即將上線。該報告打開了一個新的窗口,儘管這兩種發展為實施負責任的人工智慧專案提供了緊迫性,但人們已經看到,在負責任的人工智慧方面領先的公司主要不是由法規或其他運營問題驅動的。與其相反,他們的研究建議領導者從策略角度看待負責任的人工智慧,強調他們組織的外部利害關係人、更廣泛的長期目標和價值觀、領導優先事項和社會責任。

這與負責任的人工智慧既是技術問題也是商業問題的觀點是一致的。顯然,潛在的問題體現在人工智慧技術內部,所以這是前沿和中心。但現實情況是,對人工智慧來說,什麼是可接受的,什麼是不可接受的,標準並不明確。

例如,人們都認同人工智慧需要“公平”,但我們應該使用誰的“公平”定義呢?這是一個公司對企業的決定,當你進入細節時,很難做出決定。

「技術和業務問題」方法是一個重要的方法,因為大多數人只評估技術方面。從業務和技術角度評估和完全自動化負責任的人工智慧有助於彌合兩者之間的差距。對於受到嚴格監管的行業來說尤其如此。上週剛公佈的NIST人工智慧框架提供了有用的指導方針,幫助組織評估和解決他們對負責任的人工智慧的需求。

什麼是負責任的人工智慧?

人工智慧可以區分和製造偏見。人工智慧模型可以根據包含固有偏見的數據進行訓練,並且可以使社會中現有的偏見永久化。例如,如果電腦視覺系統主要是使用白人的圖像進行訓練,那麼它在識別其他種族的人時可能不太準確。同樣,在招聘過程中使用的人工智慧演算法也可能存在偏見,因為它們是在過去招聘的簡歷資料集上進行訓練的,這些資料集可能在性別或種族方面存在偏見。

負責任的人工智慧是一種人工智慧(AI)方法,旨在確保人工智慧系統在道德和負責任的情況下使用。這種方法基於這樣一種理念,即人工智慧應該用於造福人類和社會,並且必須考慮道德、法律和監管方面的考慮。負責任的人工智慧涉及使用透明度、問責制、公平和安全措施,以確保負責任地使用人工智慧系統。這些措施可以包括使用人工智慧審計和監測,制定道德行為守則,使用資料隱私和安全措施,以及採取措施確保以符合人權的方式使用人工智慧。

哪裡最需要負責任的人工智慧?

人工智慧的早期採用者是銀行/金融、保險、醫療保健和其他受到嚴格監管的行業,包括電信和麵向消費者的重業(零售、酒店/旅遊等)。可按行業細分:

?銀行/金融:人工智慧可用於處理大量客戶數據,以更好地了解客戶的需求和偏好,然後用於改善客戶體驗,提供更量身定制的服務。人工智慧還可用於識別詐欺和可疑活動,自動化流程,並提供更準確和及時的財務建議。

?保險:人工智慧可用於更好地了解客戶資料和行為,以提供更個人化的保險覆蓋範圍和定價。人工智慧還可以用於自動化索賠流程和簡化客戶服務操作。

?醫療保健:人工智慧可用於識別醫療數據中的模式,並可用於診斷疾病、預測健康結果,並提供個人化治療計劃。人工智慧還可用於自動化管理和操作任務,如患者調度和保險處理。

?電信:人工智慧可以透過分析客戶數據和了解客戶需求和偏好來提供更好的客戶服務。人工智慧還可以用於自動化客戶服務流程,例如故障排除和計費。

?零售:人工智慧可以透過分析客戶資料和了解客戶需求和偏好來個人化客戶體驗。人工智慧還可以用於自動化庫存管理和客戶服務操作。

?飯店/旅遊:人工智慧可用於自動化客戶服務流程,如線上預訂和客戶服務。人工智慧還可以用來分析客戶數據,並提供個人化的建議。

如何監管負責任的人工智慧?

政府對人工智慧的監管是政府為確保人工智慧(AI)的開發和使用是安全、道德和合法而實施的一套規則和條例。不同國家的規定各不相同,但它們通常涉及為人工智慧系統造成的任何傷害設定道德、安全、保障和法律責任標準。政府監管機構也可能要求開發人員接受安全和安保協議的培訓,並確保其產品在設計時考慮到最佳實踐。此外,政府可能會為公司提供激勵措施,以創建對社會有益的人工智慧系統,例如那些有助於應對氣候變遷的系統。

透過將安全法規框架納入其負責任的人工智慧計劃,公司可以確保其人工智慧系統滿足必要的標準和法規,同時降低資料外洩和其他安全問題的風險。這是通往負責任的人工智慧之旅的重要一步,因為它有助於確保組織能夠以負責任和安全的方式管理其人工智慧系統。此外,安全法規框架還可以作為指南,幫助組織識別和實施使用機器學習和深度學習等人工智慧技術的最佳實踐。總之,負責任的人工智慧既是技術問題,也是一個商業問題。

安全法規框架可以幫助組織評估和解決他們對負責任的人工智慧的需求,同時提供一套標準、指導方針和最佳實踐,以幫助確保他們的人工智慧系統是安全和合規的。安全法規架構的早期採用者包括嚴格監管的行業和那些嚴重面向消費者的行業。

一個平凡的新世界?

人工智慧仍然是一項相對較新的技術,目前大多數用例都集中在更實際的應用上,例如預測分析、自然語言處理和機器學習。雖然「美麗新世界」的場景當然是可能的,但目前許多人工智慧驅動的應用程式都是為了改進現有的系統和流程,而不是破壞它們。

負責任的人工智慧既是技術問題,也是一個商業問題。隨著技術的進步,企業必須考慮在營運中使用人工智慧和其他自動化系統的道德影響。他們必須考慮這些技術將如何影響他們的客戶和員工,以及他們如何負責任地使用它們來保護資料和隱私。此外,在使用人工智慧和其他自動化系統時,企業必須確保遵守適用的法律法規,並意識到使用此類技術的潛在風險。

負責任人工智慧的未來是光明的。隨著科技的不斷發展,企業開始意識到道德人工智慧的重要性,並將其納入營運。對於企業來說,負責任的人工智慧正變得越來越重要,以確保他們所做的決策是道德和公平的。人工智慧可以用來創造透明和可解釋的產品,同時也可以考慮決策對人類和倫理的影響。此外,負責任的人工智慧可以用於自動化流程,幫助企業更快、更低風險、更高準確性地做出決策。隨著技術的不斷進步,企業將越來越依賴負責任的人工智慧來做出決策,並創造出安全、可靠、對客戶和世界有益的產品。

人工智慧(AI)的潛在誤用或濫用帶來了必須嚴肅對待的風險。然而,人工智慧也為社會和個人帶來了一系列潛在的好處,重要的是要記住,人工智慧的危險程度取決於使用它的人的意圖。

以上是負責任的人工智慧是技術問題還是商業問題?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除