詐騙受AI「加持」愈難分辨 人聲視訊皆可偽造

近期詐騙者正使用人工智能(AI)增強騙局的複雜度,偽造視頻或語音,專家警告絕不可小覷這一危險趨勢,因為這意味着人們會收到聲音與親友幾乎一模一樣的詐騙電話。

據《每日電訊報》報導,計算機安全公司McAfee的亞太區產品部總經理Tyler McGee說:「您可能會收到聽起來像您兒子或女兒打來的電話,聽到類似『我在加油站,我沒錢了,能給這個銀行賬戶轉點錢幫我付加油費嗎』這樣的話。」 McGee認為,現在已經很難分辨語音的真假了。

去年,澳洲因詐騙和黑客攻擊共損失5億澳元,而且損失仍在增加,因為聊天機器人、幫助騙子深度偽造並減輕「工作量」的人工智能工具已經可以冒充親人。人工智能研究實驗室OpenAI的首席執行官Sam Altman說,連他本人也有點害怕人工智能的潛力。

McGee表示,人工智能讓網絡犯罪分子占了上風,比如以前騙子可能會犯拼寫或語法錯誤,但現在用ChatGPT可以幫助他們寫出更通順的詐騙文。

ChatGPT自去年11月推出,可產生類似人類的回應,也可以幫一些公司製作營銷材料或演講稿等內容,或編寫並修復計算機代碼,但也容易被網絡犯罪分子利用,在極短時間內創建惡意軟件。

McGee說,有些從事網絡犯罪的編碼員的技能很一般,但有些相當厲害。

他舉例稱,騙子最近冒充一位首席執行官,通過Zoom電話要求某公司的員工將資金轉到騙子的賬戶中。有一些軟件只需獲取一小段人聲就能立刻仿造此人的聲音。

因此他建議,不要為電話信息庫設置個性化的語音問候語。「現實是,你的聲音就是你的資產。」 McGee說。

澳大利亞聯邦科學與工業研究組織(CSIRO)Data61項目主任Jon Whittle預測,詐騙者也可能很快創造出聊天機器人,從受害者口中套取敏感信息。

「想象一下,有個假網站偽裝成銀行網站,它還設有一個聊天機器人。」Whittle說,「隨着每一項新技術出現,都會有新的要求,那就是更好地教育公眾,讓他們了解可能出現的問題。」

他指出,人們現在已經進入了人工智能的「軍備競賽」,可以使用人工智能工具來抵禦或防範其他人工智能工具生成的騙局。

 

 

 

 

關注時事,訂閱新聞郵件
本訂閱可隨時取消

評論被關閉。