ChatGPT的影響已經觸及各個產業,證明人工智慧正在改變世界。無論如何,並非這些進展從根本上是確定的。我們不能忽視這樣一個事實,即人工智慧缺乏內在的道德指南針或事實查核系統來指導其決策,儘管它在許多領域提供了令人興奮的新機會。
隨著世界以人工智慧為中心的趨勢不斷進展,我們必須堅持對我們所聽到的一切進行事實核實。不明智地信任人工智慧是不可取的,因為有些工具可能會誤解上下文並自信地犯錯,甚至操縱資料。
最明顯、最根本的是安全。違背「先不傷害」基本原則將會帶來嚴重而無法挽回的後果,如背叛。在2018年,一名駕駛死於一輛特斯拉自動駕駛汽車與混凝土護欄的碰撞。 2019年的一篇研究論文試圖證明,有策略地在道路上繪製的線條可能會劫持人工智慧演算法,或導致其撞毀車輛,儘管這個案例是一個災難性的異常值。
限制存取、維護資訊誠實性並保持可訪問性的一致性是安全性的核心。數以千計的演算法利用了人工智慧在穩健性和安全性方面的弱點。這些惡意攻擊繼續被想像。在缺乏全面保護措施的情況下,模擬智慧工程師將為每項新的安全措施量身訂做適當的安全比例,這更為重要。人工智慧可能會被設計缺陷或特定對抗性攻擊的弱點所愚弄或削弱。如果這是真的,那麼也有可能劫持某人的輪椅進入安全區域。
防止傷害也是隱私原則的核心。有太多資訊洩露,所有這些都為不法分子提供機會,可以在未經個人同意的情況下識別或分析——了解其幸福、金錢和個人生活的數據。 81%的美國人認為資料收集的好處大於風險,令人擔憂。研究人員發現,有色人種和少數族裔群體相較於其他群體更容易受到傷害。由於其代表性不足,因此在前面提到的洩漏之後,更有必要對它的資訊進行更有效的匿名化處理。
關於基於電腦的智能,簡單性是一個廣泛的特徵。使用者至少知道其正在與人工智慧而不是人類進行互動。最極端情況下,所有專業週期和資訊均已報告、可存取且具有意義。這個例子充分說明了缺乏透明度會導致的後果,英國的考試評分醜聞非常具有代表性。演算法在評定得分時,不僅考慮學生的成績,還會考慮學校歷史得分記錄和獲得相同分數的學生人數。
道德與公平必須成為人工智慧的目標。其必須遵守既定和強制執行的社會規範,也稱為法律。這很簡單,但在技術上具有挑戰性。真正的情況開始於公共權力執行過時或採取自由企業策略。尋找正確的道德平衡是人工智慧工程師和所有者應對利益相關者利益、手段和目的、隱私權以及資料收集等方面的責任。不只是在工作場所,大型科技企業經常被指責延續性別歧視。女性語音助理被積極分子和研究人員認為是將女性作為員工和家長的觀點標準化。
職責確保可以針對先前引用的不同元件調查框架。為了篩選進度並防止利益損失,目前許多組織都在內部建立負責任的人工智慧。但是,其可能不允許外部控製或審查。在這方面,Clearview AI就是一個例子。該企業的臉部辨識技術勝過市場上的所有其他技術,然而其為私人擁有且所有者自主決定。如果被罪犯團體或獨裁政權利用,這可能會使無數人處於危險之中。
以上是反對盲目信任人工智慧的六個因素的詳細內容。更多資訊請關注PHP中文網其他相關文章!