【DeepSeek風暴】AI模型安全性惹關注 多間安全機構發表報告圍攻

    中國初創公司 DeepSeek 開發的人工智能模型最近榮登科技界的熱門話題,最大原因莫過於開發商聲稱 DeepSeek V3 的訓練成本只花了約 558 萬美元,佔 GPT-4o 的二十分之一,令人懷疑西方科技公司投放於訓練 AI 的成效。

    不過鋒頭一轉,DeepSeek 很快成為被圍攻的對象,例如 OpenAI 指控對方違反使用守則,盜用其數據訓練 AI 模型;網絡安全供應商則深入研究 DeepSeek 的安全性,將其潛在風險逐一揪出,讓人不得不重新思考這種 AI 技術可能帶來的風險。

    在提供 ChatGPT 這類生成式 AI 模型時,研究人員除了要訓練 AI 理解用家的問題及指令,並提供準確無誤的答案外,還會限制 AI 回答某些類型的問題,當中最主要的原因是出於安全性、倫理和法律考量。

    首先,AI 模型可能會被用來生成有害內容,例如暴力、仇恨言論或違法活動指引等,其次在處理敏感話題如醫療、法律或財務建議時,可能會因缺乏專業知識而提供不準確或誤導性的資訊,因此研究人員才必須限制此類問題,以免造成潛在的傷害或法律責任,並讓用家能夠安心地使用這些工具。

    這些考量絕非憑空想像,因為現時網絡犯罪份子已廣泛使用「暗黑版」生成式 AI 去編寫惡意程式,又或高針對性的釣魚內容,所以研究人員才會爭相針對 DeepSeek 進行安全測試。

    DeepSeek存安全防護漏洞

    不過,多間安全機構發表的研究結果就令業界非常不安,首先是 Palo Alto Networks 的 Unit 42 研究團隊表示 DeepSeek 的 V3 和 R1 模型的防護措施存在明顯漏洞,研究人員只用了幾種簡單的「越獄」方法,便成功繞過模型的安全限制,引導 DeepSeek 回答出製作鍵盤記錄器、盜竊機密數據甚至燃燒彈的詳細步驟及方法。

    未能阻止任何有害提示

    其次是 Cisco 安全團隊針對 DeepSeek R1 模型進行的測試,輸入多種包含網絡犯罪、生化武器、毒品、虛假訊息及欺凌內容的提示詞時,都可 100% 令 DeepSeek 提供相應的回答,意味著它未能阻止任何一個有害提示,抵抗率幾乎為零。

    數據庫可通過互聯網隨意訪問

    此外,安全服務供應商 Wallarm 亦就 DeepSeek 的內部運作進行測試,並發現用家能夠從中提取有關用於訓練和精煉模型的詳細訊息,研究人員指出這些訊息一般是受到保護,避免外人了解模型的性能、弱點及管理方法,而且研究人員更發現 DeepSeek 的數據庫竟可通過互聯網隨意訪問,可見開發商並無做足基本的安全措施。

    雖然 DeepSeek 的訓練成本為業界帶來極大衝擊,不過,在安全性方面似乎就未能獲得業界認同,而且相信針對 DeepSeek 的合法性及安全性的研究只是剛剛開始,最終能否保持開局時的聲勢,抑或會由天堂直插地獄,就要繼續留意事態發展。

    資料來源:https://www.zdnet.com/article/deepseeks-ai-model-proves-easy-to-jailbreak-and-worse/

    #AI #CyberSecurity #網絡安全

    相關文章