【新聞】新AI職業誕生!Gartner:未來75%企業需僱用「人工智慧檢查官」
AI大浪潮來襲,Gartner大中華區資深合夥人龔培元(Michael Kung)今(4)日指出,預期2023年將有75%大型組織會雇用「人工智慧檢查官」,針對非法行為、隱私、客戶信任等面向監督,幫企業降低風險。
他指出,人工智慧跟機器學習技術發展,將使人類決策力大提升,未來「超級自動化」及「自主物件」將成為企業轉型利器,但也因為網路串連更緊密,遭受惡意攻擊度也提高,帶來新的企業風險。
企業大量導入AI,「人工智慧檢查官」職位興起
當企業大量引用AI專案,就需要注意 數據偏差 ,因為對AI而言,事物沒有常識與否的問題,一切都是數據導引出來的結果,然後就會毫不思索的執行,所以餵給AI的數據好壞,將為企業帶來正面效益,同時也可能面對負面挑戰。數據偏見將會導引出隱私權跟種族歧視等問題,讓企業不知不覺走向非預期方向。
因此人工智慧檢查官這個工作至關重要,龔培元說,當企業收納很多數據,就必須注意數據是否中毒或被破壞,導致AI系統不可信賴,這與10年前大家為資訊安全,催生「可信賴電腦運算系統」一樣,企業如何信任AI帶來的結果,AI是否跑偏?都是靠機制監督。在企業大量投入AI下,AI安全未來將是重要議題。龔培元說,未來網路駭客可能攻擊的層次將升高,目前共有三種攻擊手法,包括訓練數據病毒、竊取AI模型,甚至從數據源頭就放毒,藉此掌握對手企業的AI模型,誤導對手AI演算結果來競爭。
靠AI決策,企業人才荒將爆發
Gartner資深研究總監呂俊寬(CK Lu)也分享,2022年將有30%企業靠AI做決策,目前調查,平均一間企業手上有3個AI專案,但預計5年內企業導入的AI專案將倍增至30件,所需要花費時間將數十年,這其中關鍵問題是AI科學家太少,無法應付太多AI場景,所以企業必須讓AI技術不強的員工也加入專案協助。
提到AI前景,呂俊寬表示不得不提到「Shadow AI」這個觀念,這是指企業根本不知道的AI訓練,由員工自行研發,現在企業非常欠缺AI規範,員工自行做的AI訓練是否合規?所取得的數據來源合法嗎?企業掌握度並不高。
為了規範AI模型,部分科技大廠已經建立AI計畫平台,讓數據跟模型都公開透明,類似建立一個AI廚房供各部門使用。
針對AI興起帶來的隱私權跟安全性問題,各國都給予高度重視,新歐盟執行委員會主席馮德萊恩(Ursula von der Leyen)12月上任,也宣示將在就任後的一百天內推出規範人工智慧(AI)及大數據應用的新法,加強管理AI機制。
不過如何監管AI是一個難題,近期社會上出現許多AI演算法大規模失誤造成的人身安全危害事件,比方自駕車撞死人,引起市場廣泛注意。若要保護大眾不被演算法影響,就必須追究演算法失誤的法律責任,而指定相關法規也會延長人工智慧跟機器學習演算法發展週期,企業人力的培訓跟認證將更花時間。
文章來源:數位時代