【信定唔信?】AI 網絡安全工具的零信任盲點

    網絡安全行業現時非常看重「零信任」(Zero Trust)防禦概念,即對所有網絡連線及活動保持懷疑態度,不再單純依賴已知的病毒資料去預防入侵。與此同時,被視為網絡安全明日之星的 AI(人工智能)技術,卻建基於「可信任」的數據包作為訓練材料,兩者應該如何共存?

    將 AI 技術引入網絡安全用途,帶來的好處極多,例如可以快速處理各種安全警報,阻止惡意軟件入侵,減少人力需求。另外,經訓練的 AI 模型還會不斷提升防禦能力。不過,由於 AI 技術非常複雜,持續發展過程到底是否仍能符合網絡安全法規?如缺乏適當的監管,相信業界仍難言可以 AI 完全取代網絡安全專家。

    發展 AI 技術的主要障礙之一是數據,更具體地說,是確保數據的質量和完整性,畢竟 AI 模型的好壞完全取決於數據包的質量。基於 AI 的網絡安全系統,在匯入數據方面正面臨種種挑戰:

    數據污染:不法人士可以通過操縱 AI 訓練模型所依賴的數據包,去操控 AI 訓練的成果,例如偷換數據包,將一些受污染的數據供 AI 學習及訓練。此類操縱可能會導致細微的偏差,例如將惡意活動標記為良性的安全控制,或者通過破壞或禁用安全控制產生更深遠的影響,最終讓不法人士日後可避過 AI 網絡安全工具的監測,入侵目標企業。

    數據動態:安全人員須不斷積累更多與安全相關的數據,去改善人工智能驅動的安全模型,但同時,它可能會導致攻擊者改變他們的作案手法,削弱現有數據和人工智能模型的功效。雖然額外數據點收集到的數據,有可能提升整體對傳統惡意軟件的檢測效能,但從理論上說,過多的傳統惡意軟件數據,卻有可能會拖低AI 模型識別新型惡意軟件的能力。

    未知因素:由於未知因素太多,就連企業本身是否已遭入侵,亦因缺乏網絡安全知識而難以獲得肯定,因此許多服務供應商便可以假設企業已受入侵,說服客戶採用 AI 技術去製定安全策略。不過,如果服務供應商未能事前確認客戶的網絡安全狀態,就以當下的用家使用習慣去訓練 AI 識別帳戶登入有沒有可疑,便有可能將這些未知因素整合到防禦條件中。舉例如公司網絡已存在惡意軟件,又或已有一些帳戶被黑客控制,如將這些已被污染的網絡流量數據作為 AI 分析的基準,便無法分辨到真正的惡意行為。

    錯誤數據:用於訓練 AI 的數據組合,當中有可能存在不正確的數據,例如在記錄過中因人為出錯,或者隨著時間推移,令部分數據變得過時,如 AI 仍以這些數據作為分析基準,便無法因應企業業務轉變而作出調整。

    隱私保護問題:為了讓組織內和組織之間的人員可以訪問數據包,較保險的做法是將數據包內涉及個人身份訊息(PII)去標籤化,例如刪除或加密姓名等個人資料。另外,於數據包中添加噪音(Noise),掩蓋真正的數據內容,亦可減少數據包外洩時所引發的私隱問題。不過,安全考慮某程度上會令數據品質和統計上的重要屬性丟失,及有可能影響數據包的準確性。

    雖然問題一籮籮,但 AI 確實是應付千變萬化網絡攻擊的有力援手,因此專家們正在努力排除上述各種障礙。數據科學和網絡安全社區有責任設計、整合和倡導穩健的風險評估和壓力測試、增強數據質量的可見性和驗證統一性。除此之外,不可放任 AI 模型在缺乏監管下自主決定攔截網絡攻擊的取態,不單要確立監管制度,更必須實施問責制,數據訓練專家才會更謹慎監管 AI 的成長。

    資料來源:https://bit.ly/3hG5bErhttps://bit.ly/36E7q4L

    #AI #MachineLearning #ZeroTrust #人工智能 #數據污染 #零信任

    相關文章