首頁  >  文章  >  科技週邊  >  九種方法避免成為AI washing的犧牲品

九種方法避免成為AI washing的犧牲品

WBOY
WBOY轉載
2023-06-03 19:33:38621瀏覽

這幾個月來,人工智慧一直是為大家津津樂道的流行語。矽谷的新創公司和財富 500 強公司都看到,隨著人工智慧步伐的穩定加快,各行業都發生了革命性變化。但是,興奮、進步與 AI washing(誇大人工智慧作用的現象)這樣的危險訊號,正以同樣的速度蓬勃發展。儘管事實上,一些企業採用的人工智慧微乎其​​微或根本不存在,但是,由於他們急切地想搭上賺錢的列車,想從炒作中獲利,所以他們誇大了自己的人工智慧能力。

與非人工智慧新創公司相比,這種行銷策略儘管有問題,但可以幫助他們獲得更大的種子輪、A 輪和 B 輪融資。根據 GlobalData 的數據,光是去年,人工智慧新創公司就籌集了超過 500 億美元的創投資金,鑑於圍繞 ChatGPT 和其他公司的狂熱,今年這個數字預計還會增加。

考慮到湧入這些新創公司的資本,AI washing 現像只會越來越激烈。 The US Federal Trade Commission(FTC)充分意識到了這種危險,並警告供應商在宣傳其AI能力時要透明和誠實。

FTC 廣告業務部門的律師 Michael Atleson 在一篇部落格文章中寫道:「有些聲稱有人工智慧的產品甚至可能根本不具備廣告宣傳中的功能。在某些情況下,無論產品可能造成什麼其他傷害,這種誇大宣傳都可能存在。行銷人員知道產品功效上造假或誇誇其談無法證實才是這個行業的生存之道,而這也正是 FTC 執法的原因所在。」

在這種複雜的情況下,要區分合法的人工智慧解決方案和行銷噱頭恐怕非常困難。

德勤全球人工智慧研究所執行長 Beena Ammanath 表示:「當面臨供應商對其人工智慧產品的宣傳時,公司需要採取合理的懷疑態度。就像對待任何事情一樣,如果這聽起來太好了,不可能是真的,那事實可能就是這樣。」

Donald Welch 是紐約大學的CIO。他表示,如果 CIO 和他們的公司沒有找到正確的答案,他們可能面臨的後果包括專案失敗或延遲、財務損失、法律案件、聲譽風險,以及最終被解僱。 「我確實目睹了高階主管因此被解僱,而且,我甚至沒辦法說這是一個錯誤的決定。」

幸運的是,他們可以使用以下幾種策略來避免錯誤。

人工智慧驅動的企業需要熟練的員工

#對聲稱使用人工智慧的企業進行審查可能是一個漫長而耗時的過程。然而,有一些簡單的方法,例如在 LinkedIn 上搜索,就可以發現對評價這個企業有價值的資訊。

Ammanath 說:「審查供應商的員工所擁有的人工智慧經驗和教育水平,正在開發人工智慧解決方案的公司應該有這方面的人才,這意味著他們必須有數據科學家和數據工程師,而且這些工程師在人工智慧、機器學習、演算法開發等方面有深厚的經驗。」

除了考察員工之外,資訊長還可以尋找與外部人工智慧專家和研究機構合作的證據。這個類別包括與大學的合作夥伴關係、參與產業會議和活動,以及對開源人工智慧倡議的貢獻。如果供應商有類似專案或應用程式的經驗,這也是一個好跡象,因為這表明它可以提供高品質的結果。

"仔細檢查供應商的歷史,"烏克蘭-美國創業公司MacPaw 的新創公司MacPaw 的首席技術和創新官、美籍烏克蘭裔Vira Tkachenko 表示:「仔細檢查供應商的歷史背景。如果一家公司是人工智慧專家,那麼它歷史上很可能有發表該領域或其他人工智慧產品的研究論文。」

尋找一個精心設計的數據策略

############################################################################################都########真正將人工智慧融入其產品的公司還需要一個精心設計的數據策略,因為人工智慧演算法需要它。他們需要與高品質的數據一起工作,數據越慷慨和相關,結果就越理想。 ######Ammanath 說:「人工智慧系統是由大量數據推動的,所以這些公司也應該有一個精心構建的數據策略,並且能夠解釋收集了多少數據以及來自哪些來源。」###

另一個需要關注的問題是,這些公司是否在遵守監管要求方面投入了足夠的精力,並保持較高的資料隱私和安全標準。隨著《一般資料保護規範》(EU GDPR)和《加州消費者隱私法》(CCPA)等資料隱私法規的興起,組織必須對其資料做法保持透明,並為個人提供對其個人資料的控制權。如果事實不是這樣,那就是一個危險訊號。

要求提供證據來支持其主張

雖然之宣傳口號可能很誘人,但平靜地要求提供證據會有幫助。 Ammanath 說:「提出正確的問題並要求提供產品功能的證據,對於剝離行銷和銷售的說辭以確定產品是否真正由人工智慧驅動是至關重要的。」

需要評估一個看似當人工智慧驅動的特定產品或服務時,CIO 可以詢問模型是如何訓練的,使用了什麼演算法,以及人工智慧系統將如何適應新資料。

Tkachenko 說:「你應該問供應商他們使用什麼函式庫或AI模型。他們可能只是簡單地呼叫了OpenAI API 實現自己的功能。」

管理與技術顧問公司BearingPoint 的合夥人和全球技術領導人Matthias Roeser 對此也表示同意。他補充說,應該徹底理解組成部分和框架,評估應該包括「道德、偏見、可行性、智慧財產權和永續性。」

這項調查可以幫助CIO 更充分地了解該產品的真正功能和局限性,從而幫助他們決定是否購買該產品。

專注於新創公司

新創公司將自己定位在創新的最前線。然而,儘管他們中的許多人突破了人工智慧領域的極限,但有些人可能只是誇大自己的能力來獲得關注和金錢。

烏克蘭裔美國新創公司Claid.ai 的共同創辦人兼技術長Vlad Pranskevičius by Let's Enhance 說:「身為機器學習公司的CTO,我經常遇到AI washing 的案例,特別是在創業社群。」而且,他注意到,最近這種情況變得更加嚴重。他補充說,在像目前這樣的炒作週期中,這種現象尤其危險,因為人工智慧被視為一場新的淘金熱。

不過,Pranskevičius 認為,在不久的將來,隨著圍繞人工智慧的法規變得更加嚴格,AI washing 將受到控制。

建立技術專業的聲譽

一家公司收購可疑的人工智慧解決方案並不罕見,在這種情況下,CIO 不一定有錯。這可能是 “公司領導不力的結果”, Welch 說:“企業上了營銷炒作的當,凌駕於IT 團隊之上,而IT 團隊卻只能收拾殘局。”

為了防止類似這樣這樣的時刻,企業需要培養一種合作文化,在這種文化中,技術專家的意見得到重視,他們的觀點得到充分曝光。

同時,CIO 和技術團隊應該在公司內部建立自己的聲譽,以便他們的意見更容易被納入決策過程。為了實現這一目標,他們應該展現專業知識、專業和軟技能。

Sigma 軟體集團的首席創新長Max Kovtun 表示:「我覺得身CIO 審查AI washing 並不困難。更大的問題可能是商業利益相關者或企業家推動以任何形式使用人工智慧,因為他們希望看起來具有創新性和前沿性。因此,正確的問題是如何避免在創業的壓力下自己投身於AI washing。」

超越流行語

在比較產品和服務時,必須以開放的心態評估它們,徹底看清它們的屬性。

Tkachenko 說:「如果一個產品或服務對你來說唯一的優勢是人工智慧,你應該在採購前再仔細斟酌。最好是研究它的價值主張和功能,只有當你了解這個專案在人工智慧之外的優勢時才開始合作。」

Welch 也表示贊同並反問:「我會因為他們用C、C 或Java 編寫的系統而購買它嗎?作為我盡職調查的一部分,我可能想了解他們是否能夠維護代碼、公司生存能力等。」

做一個徹底的評估可能有助於企業確定他們計劃購買的產品或服務是否與他們的目標一致,是否有可能提供預期的結果。

Kovtun 說:「技術越複雜,非專業人員就越難理解它,越難驗證該技術的應用是正確的、有意義的如果你已經決定為你的公司利用人工智慧技術,你最好聘請在人工智慧領域有經驗的知識淵博的專家。否則,你的努力可能不會帶來你期望得到的好處。」

關注人工智慧相關新聞

喜歡隨時了解人工智慧相關產品和圍繞它們的問題,也可以幫助CIO 做出明智的決定。這樣一來,他們就可以發現自己可能犯的錯誤的同時還可以利用新的想法和技術。

Art Thompson 是底特律市的 CIO。他表示:「我認為現在的教育還不夠。」他建議 CIO 們做足夠的研究,以避免落入新技術或實驗性技術的陷阱,因為這些技術的承諾超過了它所能提供的。如果發生這種情況,「重新定價和更換產品的時間真的會傷害員工,使他們無法支持任何改變,」他說。 「更不用說人們投入時間學習新技術的困難了。」

此外,了解最新的人工智慧相關事項可以幫助CIO 預測監管變化和新興的行業標準,這可以幫助他們合規並保持競爭優勢。

而且,需要保持最新狀態的不只是 CIO。 BearingPoint 公司的Roeser 表示:「教育你的團隊或聘請專家來為你的投資組合增加相關的能力。」

##圍繞人工智慧的額外監管行動

即將推出的新法規可以簡化CIO 的任務,以確定產品或服務是否採用了真正的人工智慧技術。美國白宮最近發布了一項人工智慧權利法案,其中包括負責任地設計人工智慧系統的指導方針。而在未來幾年,可能會有更多的法規出台。

Ammanath 說:「這些行動背後的前提是保護消費者權益和人類免受技術的潛在傷害。我們需要預測技術的潛在負面影響,以減輕風險。」

道德不應只是事後才考慮

企業往往會影響對新技術的討論,強調潛在的好處,而往往淡化潛在的負面影響。

瑞士聖加侖大學的博士後研究員Philip Di Salvo 說:「當一項技術成為流行語時,我們往往會失去對它在社會中可能產生的潛在有害影響的關注。研究表明,企業正在推動圍繞人工智慧的話語,技術決定論仍然占主導地位。」

這種認為技術是社會和文化變革背後的主要驅動力的信念,可能會掩蓋圍繞倫理和政治影響的討論,而傾向於更以行銷為導向的論點。正如 Di Salvo 所說,這創造了「一種論證的迷霧,使這些技術和它們的生產者更加模糊和不負責任」。

為了解決這個問題,他指出一個關鍵的挑戰,即向公眾傳達人工智慧實際上不是什麼,以及它不能做什麼。

Di Salvo 說:「我們今天看到的,包括ChatGPT 在內的,大多數人工智慧應用,基本上都是圍繞著規模化的統計和數據分析應用而構建的。這聽起來可能是一個無聊的定義,但它有助於避免對'人工智慧'定義中'智能'所指的任何誤解。我們需要關注真實的問題,如偏見、社會排序和其他問題,而不是假設的、推測性的長期假設。」

#來源:www.cio.com

以上是九種方法避免成為AI washing的犧牲品的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除