【出入自如】人工智能服務欠監管 黑客可遙距污染數據庫改寫答案
Legit Security 最近發佈了一項調查,深入探討人工智能應用程序的基礎設施存在的安全問題。研究顯示,當中兩類最常見的可公開訪問人工智能服務:向量資料庫(Vector Database)和大型語言模型(LLM)工具,均容易遭受數據洩露和數據污染等攻擊,企業應立即採取防範措施。
在向量資料庫方面,研究人員發現許多可公開訪問的實例(Instance)缺乏基本的安全防護措施,例如允許匿名訪問而不設權限控制,代表只要能通過互聯網連接,任何人就可以讀取儲存的敏感數據,包括用於訓練大型語言模型的數據庫。
研究人員還發現,這些向量資料庫容易受到數據污染攻擊,黑客可以篡改數據庫中的內容,從而影響 AI 應用程序的行為,例如黑客可以操縱醫療諮詢聊天機械人,令其提供錯誤的診斷或失實的建議,隨時造成人命傷亡;又或者令 AI 聊天機械人提供錯誤的答案,引導受害者下載惡意軟件。其次是伺服器上的軟件可能存在已知漏洞,黑客同樣可以利用這些漏洞來盜取或污染其中的數據。
此外,Legit Security 的調查報告也提及一種稱為 Flowise 的低程式碼(Low Code) LLM 自動化服務存在的風險,低程式碼的好處在於大多採用直覺式圖形介面,允許使用者簡化開發流程。研究人員發現,Flowise 伺服器普遍存在簡單的安全漏洞,例如在掃描發現的 959 台伺服器中,有 45% 存在身份驗證繞過漏洞,其他的風險還包括:
缺乏安全防護措施:研究員發現大約有 30 個可公開訪問的 Flowise 伺服器儲存了企業或個人的敏感數據,如私人電郵、客戶個人訊息、財務記錄等。
易受數據污染攻擊:部分 Flowise 伺服器儲存了病人數據、公司的問答數據以及房地產公司的數據,這些數據都容易被黑客篡改。
暴露敏感憑證:在掃描 Flowise 伺服器時,研究人員發現大約有數十個包含 OpenAI API 密鑰、GitHub 訪問令牌、含有數據庫密碼的 URL 以及向量數據庫 API 密鑰的敏感訊息。
Legit Security 研究員建議企業應重新評估其開發人員所使用的平台,並立即實施嚴格的權限管理,以防止匿名訪問。報告建議如情況許可,應避免曝露這些服務,並通過私人網絡登入系統,確保將客戶個人識別資料(PII)和其他敏感訊息從其 AI 服務使用的數據中移除,減少數據洩漏風險。
網絡安全公司 Green Radar 推出雲端員工培訓平台,透過短片形式,由淺入深向員工講解網絡安全注意事項,更備有即時考核,評估員工學習進度及企業網絡安全風險。立即登記與專家聯絡: https://bit.ly/4dX1oO4