百科 > IT百科 > 百科學堂 > 正文

新型「微信詐騙」上線?外國CEO被騙走173萬

  在這個滿是「照騙」的年代,我們可能更相信「耳聽為實」。比方說在用微信或者支付寶給好友轉賬的時候,很多人都會像騷尼一樣先讓對方發一句「語音」作為接頭暗號。說什麼都行,只要能聽得出那是「本人」。然而,這種自認為靠譜的認證方式,其實早就被詐騙分子Shutdown了。

AI變聲

騙術一:語音提取法

  首先和大家講的這個騙術在國內有個流傳更廣泛的名字——「微信克隆」。畢竟樹大招風,超10億的用戶量很難不讓詐騙分子盯上。所謂的微信克隆實際上是透過木馬程式盜取微信號並提取微信號語音數據來實施詐騙的一種手段。安徽衛視在去年底就曾經報道過這樣的案例:

AI變聲

  河北石家莊的一位董女士收到其父親的微信,後者稱自己在超級市場買東西需要董女士轉200塊錢。董女士也非常警惕的用語音回覆「爸,是你嗎?」,對方隨即回覆了一句「是我」。董女士聽後確認這是自己父親的聲音,便把錢轉了過去。直到晚上回到家與父親聊起,董女士才意識到受騙。

AI變聲

  詐騙分子就是透過克隆的微信號將其中的關鍵語音資訊發送給好友(例如上述案例的「是我」以及「沒錯」、「好的」這類短語音),降低好友的防範意識,從而成功詐騙。

  有人會說:被騙的話只能說明你們這些人的防範意識還不夠強,直接打個微信電話一問就都完事兒了。騙子總不能老是回覆你「我是,我是」吧?

  還真不能。像下面這類用上了AI技術的詐騙分子,在你轉錢之前還能和你嘮嘮嗑。

騙術二:AI變聲暢聊法

  就在上月底,華爾街日報報道了一個利用AI變聲的詐騙案例。犯罪分子利用AI軟體合成英國某能源公司德國母公司CEO的聲音,並成功詐騙轉移了22萬歐元(約合人民幣173萬元)。

AI變聲

  根據該英國公司CEO描述,他接到了德國母公司波士的電話,對方要求他在1小時內給匈牙利供應商轉賬22萬歐元。整個通話過程中,這位英國CEO沒有絲毫懷疑對方身份的真實性,因為對方正操著與波士同樣腔調的德味兒英語和他講話。所以,這筆款項非常順利地進入了詐騙分子的口袋。

  然而,詐騙分子並未就此收手。在收到款項後,這位英國CEO又連續兩次接到「波士」的匯款命令。若不是第三通電話的通信位置(來自奧地利)引起了公司行政部門的懷疑,該CEO可能仍被蒙在鼓堙C經調查,已轉賬的22萬歐元被轉移到墨西哥等多個地方,詐騙分子身份至今仍未確定。

AI變聲

  負責處理此次案件的欺詐專家Rüdiger Kirsch表示,這是他們首次應對「語音釣魚(Vishing,以AI技術模倣受害者聲音實施詐騙)」案件,對於受害公司以及調查當局來說都是一次全新的挑戰。未來可能會有更多的聲音遭到模倣,目前尚未有很好的應對措施,形勢並不樂觀。

  試想一下,如果國內的騙子把AI變聲技術應用進微信詐騙,多少人會中招?

你離被AI克隆,只差一念

  有不少人認為,這種和我們隔著8個時區的騙局遠在天邊,不痛不癢,因此也無須杞人憂天。事實上,AI變聲的技術已經相當成熟,國內部分科技公司甚至已經將這項技術應用到了一些產品之中。天天為你「高德導航」的志玲姐姐,據科大訊飛董事長劉慶峰介紹就是透過機器合成的。而在最新版本的「搜狗輸入法」中,你甚至可以透過內置的變聲功能模倣馬雲、周星星。

  更關鍵的一點是,和之前鬧得沸沸揚揚的DeepFake以及近兩周被用戶「Q斃」掉的ZAO一樣,AI變聲技術同樣能夠從網上穫得相關的開源代碼。在一些論壇上,你甚至還能找到現成的訓練工具(B站之前還有UP主上傳過使用教程,目前已被屏蔽)。也就是說,AI變聲技術的使用門檻並不高。

AI變聲

  遺憾的是,目前防範AI詐騙的技術手段還比較匱乏,「以AI制衡AI詐騙」的方案也還處於談兵階段。但詐騙分子不會等著我們,在防範措施上線之前,他們會最大化地瘋狂輸出。想要不遭此類詐騙侵害,我們目前最好的方式還是「不亂用軟體,不亂點鏈接,不亂看網站,不隨意填寫隱私資訊」。萬一上當受騙,「不要緊張、不要私了,找警察叔叔才是更安全有效的應對途徑」。

  中秋將至,願科技向善。

網友評論