【語音誘罪】人工智能扮聲 成功呃走200萬港幣
單係電話騙案已經好難防備,如果再加埋人工智能嚟扮聲扮口音,中招風險肯肯定大增。以為好難攞到你把聲?少年,你太年輕了。
而家最多人討論嘅欺詐科技,一定係 Deepfake 技術,透過 AI 模擬技術,就可以令浸浸、朱克伯格等名人,喺影片中講出你想佢講嘅說話,要製造災難性假新聞真係一啲都唔難,跟車太貼嘅個案亦只會愈嚟愈多。不過,現階段模擬像真度都仲有啲瑕疵,小心留意絕對可以發現唔自然嘅地方。
語音分析提升像真度
如果唔睇畫面,淨係聽聲又如何?相信會仲多人中招。好似今年三月英國一間能源公司嘅 CEO,就因為收到德國母公司上司一通電話,就將 200 萬港幣轉咗去匈牙利供應商嘅戶口。呢個 CEO 事後話騙徒唔單只把聲同佢上司一模一樣,而且仲連語氣、口音都無分別,所以就咁上當,如果唔係對方幾分鐘內又再要求過數令佢起疑,隨時會二次中招添。
欺詐案調查專家 Rudiger Kirsch 喺收到承保嘅保險公司委托,經調查後發現今次唔單只係一般電話騙案,仲係加入咗人工智能元素。由於保險公司從未處理過同 AI 有關嘅個案,所以先搵佢幫手。佢話自己都測試過一啲黑客用嚟模擬語音嘅軟件,像真度極高,而且唔難買到,所以預期呢類騙案會大幅增加。
其實上年網絡安全公司 Pindrop 已發表過一份調查報告,指出由 2013 年至 2017 年期間,電話騙案嘅數字大幅增加咗 350%,Pindrop CEO Vijay 指出,配合機器學習及人工智能技術,電話騙案只會變得更複雜及難分真假。事實上,隨住結合語音助理功能嘅 IoT 產品愈嚟愈多,再加上銀行、保險公司傾向採用語音答話功能,只要採集呢啲語音數據嘅資料庫被黑客攻擊,而內裡又有齊個人私隱,黑客就好易用人工智能製作假嘅音效檔,向目標人士身邊嘅人發動電話騙案。
唔想咁易俾人呃?就要借助多啲方法去確認電話另一邊嘅人嘅身份,無論對方係咪你上司都好,始終謹慎保守都係為公司著想。