最近,普華永道的分析師們對國外科技媒體 VentureBeat 分享了關於生成式人工智慧和 ChatGPT 等工具將如何影響威脅情勢以及防禦者將出現哪些用例的看法。
他們認為,雖然人工智慧產生惡意程式碼和釣魚郵件的能力給企業帶來了新的挑戰,但也為一系列防禦性用例打開了大門,例如威脅偵測、補救指導,以及保護Kubernetes 和雲端環境等。
總的來說,分析師們樂觀地認為,從長遠來看,防禦性用例將上升,以打擊人工智慧的惡意使用。
以下是 11 個關於生成式人工智慧在未來將如何影響網路安全的預測。
1. 惡意使用人工智慧
當涉及到我們可以在利用人工智慧的方式時,我們正處於一個轉折點,這種範式轉變影響著每一個人和每一件事。當人工智慧掌握在公民和消費者手中時,偉大的事情可以發生。
同時,它可以被惡意的威脅者用於邪惡的目的,例如惡意軟體和複雜的網路釣魚郵件。
鑑於人工智慧的未來能力和潛力的許多未知數,組織開發強大的程式來建立抵禦惡意網路的彈性是至關重要的。
也需要有以社會價值為基礎的監管,規定這種技術的使用要符合道德。同時,我們需要成為這項工具的「聰明」用戶,並考慮需要哪些保障措施,以使人工智慧在提供最大價值的同時將風險降到最低。
2. 需要保護人工智慧的訓練與輸出
現在,生成式人工智慧已經具備了可以幫助企業轉型的能力,對於領導者來說,與對如何駕馭日益增長的安全和隱私考慮有深刻理解的公司合作,是非常重要的。
有兩方面原因。首先,公司必須保護人工智慧的訓練,因為他們從微調模型中獲得的獨特知識將對他們如何經營業務、提供更好的產品和服務,以及與員工、客戶和生態系統接觸至關重要。
其次,公司還必須保護他們從生成式人工智慧解決方案中獲得的提示和反應,因為它們反映了公司的客戶和員工正在利用該技術做什麼。
3. 制定生成式人工智慧使用政策
#當你考慮使用你自己的內容、檔案和資產進一步訓練(微調)生成式人工智慧模型,以便它可以在你的(行業/專業)背景下對你的業務的獨特能力進行操作時,許多有趣的商業用例就出現了。透過這種方式,企業可以用他們獨特的智慧財產權和知識來擴展生成式人工智慧的工作方式。
這就是安全性和隱私變得重要的地方。對一個企業來說,你促使生成式人工智慧產生內容的方式應該是你企業的隱私。幸運的是,大多數生成式人工智慧平台從一開始就考慮到了這一點,其設計是為了實現提示、輸出和微調內容的安全和隱私。
然而,現在所有使用者都明白這一點。所以,任何企業都必須為使用生成式人工智慧制定政策,以避免機密和私人資料進入公共系統,並在企業內部為生成式人工智慧建立安全和可靠的環境。
4. 現代化的安全性審計
生成式人工智慧很可能在審計工作方面催生創新。複雜的生成式人工智慧有能力創造考慮到某些情況的回應,同時以簡單、易懂的語言編寫。
這項技術所提供的是一個獲取資訊和指導的單點,同時也支援文件自動化和分析資料以回應特定的查詢--而且效率很高。這是一個雙贏的結果。
不難看出,這種能力可以為我們的員工提供更好的體驗,進而為我們的客戶提供更好的體驗。
5. 更重視資料衛生與評價偏誤
任何輸入人工智慧系統的資料都有可能被盜或被濫用的風險。首先,確定輸入系統的適當數據,將有助於減少遺失機密和私人資訊的風險。
此外,重要的是進行適當的資料收集,以製定詳細和有針對性的提示,並將其輸入系統,這樣你就可以獲得更有價值的輸出。
一旦你有了你的產出,就需要檢視系統內是否有任何固有的偏見。在這個過程中,請一個多元化的專業團隊來幫助評估任何偏見。
與編碼或腳本的解決方案不同,生成式人工智慧是基於經過訓練的模型,因此它們給出的回應不是 100% 可預測的。要讓生成式人工智慧給予最值得信賴的輸出,需要背後的技術和利用它的人之間的合作。
6. 跟上不斷擴大的風險並掌握基礎知識
既然生成式人工智慧正在被廣泛採用,實施強大的安全措施是防止威脅者的必要條件。這項技術的能力使網路犯罪分子有可能創建深度偽造影像,更容易執行惡意軟體和勒索軟體打擊,公司需要為這些挑戰做好準備。
最有效的網路措施繼續受到最少的關注:透過維持基本的網路衛生和壓縮龐大的遺留系統,公司可以減少網路犯罪分子。
整合營運環境可以降低成本,使公司能夠最大限度地提高效率,並專注於改善其網路安全措施。
7. 創造新的工作和責任
#總的來說,我建議公司考慮擁抱生成式人工智慧,而不是建立防火牆和抵制--但要有適當的保障措施和風險緩解措施。生成式人工智慧在如何完成工作方面有一些非常有趣的潛力;它實際上可以幫助釋放人類用於分析和創造的時間。
生成式人工智慧的出現有可能導致與科技本身相關的新工作和責任--並產生確保人工智慧被道德地和負責任地使用的責任。
它也將要求使用這些資訊的員工發展一種新的技能--評估和識別所創建的內容是否準確的能力。
就像計算器被用於簡單的數學相關任務一樣,在日常使用生成式人工智慧的過程中,仍有許多人類技能需要應用,如批判性思維和有目的的客製化--以釋放生成式人工智慧的全部力量。
因此,雖然從表面上看,它似乎在自動化人工任務的能力方面構成了威脅,但它也可以釋放創造力,幫助人們在工作中表現出色。
8. 利用人工智慧來優化網路投資
即使在經濟不確定的情況下,公司也沒有積極尋求在2023 年減少網路安全支出;然而,CISO 必須考慮他們的投資決策是否更具經濟性。
他們正面臨著少花錢多辦事的壓力,導致他們投資於用自動化替代方案取代過度手工的風險預防和緩解過程的技術。
雖然生成式人工智慧並不完美,但它非常快速、有效率且連貫,技能也迅速提升。透過實施正確的風險技術--如為更大的風險覆蓋率和檢測而設計的機器學習機制--組織可以節省資金、時間和人員,並且能夠更好地駕馭和抵禦未來的任何不確定性。
9. 加強威脅情報
#雖然釋放生成式人工智慧能力的公司專注於保護,以防止惡意軟體、錯誤訊息或虛假訊息的創建和傳播,但我們需要假設生成式人工智慧將被不良行為者用於這些目的,並提前採取行動。
在 2023 年,我們期待看到威脅情報和其他防禦能力的進一步增強,以利用生成式人工智慧做對社會有益的事。生成式人工智慧將允許在效率和即時信任決策方面取得根本性的進步。例如,對系統和資訊的存取形成即時結論,其置信度比目前部署的存取和身分模型高得多。
可以肯定的是,生成式人工智慧將對每個產業和該產業中的公司的運作方式產生深遠的影響;普華永道認為,這些進步將繼續由人類主導和技術驅動,2023 年將出現最快速的進步,為未來幾十年確定方向。
10. 威脅預防和管理合規風險
#隨著威脅情勢的不斷發展,衛生部門- -這個個人資訊氾濫的行業--繼續發現自己處於威脅者的交叉瞄準區。
衛生產業的高階主管們正在增加他們的網路預算,並投資於自動化技術,這些技術不僅可以幫助防止網路打擊,還可以管理合規性風險,更好地保護病人和工作人員的數據,降低醫療成本,減少低效率流程等。
隨著生成式人工智慧的不斷發展,確保醫療系統安全的相關風險和機會也不斷增加,這強調了醫療產業在接受這種新技術時建立其網路防禦和復原力的重要性。
11. 實施數位信任策略
#生成式人工智慧等技術的創新速度,加上不斷發展的「拼湊」監管和對機構信任的侵蝕,需要一個更具策略性的方法。
透過追求數位信任策略,企業可以更好地協調傳統上孤立的功能,如網路安全、隱私和資料治理,使他們能夠預測風險,同時也為企業釋放價值。
其核心是,數位信任框架確定了超越合規性的解決方案--而是優先考慮組織和客戶之間的信任和價值交換。
以上是普華永道:ChatGPT和生成式AI的11大安全趨勢的詳細內容。更多資訊請關注PHP中文網其他相關文章!