【源頭出錯】解決AI偏見 演算法、訓練數據要公平透明
AI 人工智能被視為協助人類解決問題的救星,特別是一些重複性工作,AI 的介入的確可減少人類做無謂的事,將專注力集中在重要的工作上。不過,近年對於 AI 偏見 (AI Bias) 的爭論愈來愈多,甚至有一半以上的企業表示對 AI 偏見帶來的風險有深切憂慮,有八成受訪者更希望政府能立法監管……
早前數據分析公司 DataRobot 為了探討 AI 偏見情況對各行各業帶來的影響,便與世界經濟論壇合作,向全球 350 多間企業或機構派發問卷。經統計後,主辦方除了有上述發現,更有三分之一的受訪者表示 AI 偏見已實際上對業務帶來負面影響,當中有 62% 受訪者表示導致收入減少、61% 表示導致流失客戶,35% 反映因採用 AI 解決方案而引致訴訟。
所謂 AI 偏見,實際上並非指人工智能存在偏見,而是因供應給它進行機器學習 (machine learning) 的數據組合存在「偏見」,才會在 AI 的演算法下繼承這類標籤。最經典的例子是 Amazon 於 2014 年曾開發出一套人工智能招聘系統,其中一種供它學習的數據組合,便是過去 10 年來 Amazon 聘用的僱員資料。由於當時 IT 從業員仍以男性為主,因此人工智能便傾向會從芸芸求職者中選出男性,導致造成不公平現象,這便是為何 AI 會出現偏見的其中一個原因。
DataRobot 副總裁 Ted Kwartler 指出,要消除 AI 偏見必須克服多項挑戰,包括要了解導致 AI 做出決定的原因、理解輸入值與 AI 抉策的關聯、開發公開透明及可信賴的演算法,同時確保供機器學習的數據組合未有偏見成分。他認為研發 AI 解決方案的企業或機構需要指導,而現時歐盟已提出有關人工智能的原則和法規,監管上已有一定進展,不過現階段確保模型公平、可信和可解釋仍言之過早,需要進行更深入的研究及討論。
資料來源:https://bwnews.pr/3BREwx2
相關文章:【學無止境】自學型AI成效高 潛水機械人較海洋生物游得更有效率
https://www.wepro180.com/ai_ocean220131/