最近,2019防范治理電信網(wǎng)絡(luò)詐騙論壇在中國互聯(lián)網(wǎng)大會期間舉行。
據(jù)論壇內(nèi)容顯示,機器學(xué)習(xí)、人工智能、大數(shù)據(jù)等熱點技術(shù)已被犯罪分子用于實施詐騙。比如上游黑產(chǎn)利用機器學(xué)習(xí)、人工智能,突破互聯(lián)網(wǎng)企業(yè)的驗證碼體系,或是利用人工智能技術(shù)惡意注冊,獲取號碼資源,提供給犯罪分子實施詐騙。
隨著科技的進步,花樣翻新的電信網(wǎng)絡(luò)詐騙令人防不勝防。
“技術(shù)一直以來都是雙刃劍,我們在享受技術(shù)帶來便利、新奇的同時,也會面臨技術(shù)被濫用帶來的風(fēng)險。”中國傳媒大學(xué)政法學(xué)院法律系副主任鄭寧說。
詐騙手段不斷翻新
四種形式防不勝防
隨著技術(shù)的更新,詐騙手段也不斷翻新,那么AI詐騙主要有什么方式呢?
對此,鄭寧總結(jié)了四種AI詐騙形式,并詳細介紹了其中的原理。
據(jù)鄭寧介紹,第一種是轉(zhuǎn)發(fā)微信語音。騙子通過盜取微信號,然后提出轉(zhuǎn)賬要求,多數(shù)人會選擇要求對方語音回復(fù),這時騙子會轉(zhuǎn)發(fā)之前的語音,從而獲取信任,進而獲得錢款。雖然目前微信語音是不能轉(zhuǎn)發(fā)的,但騙子可以通過提取語音文件或者安裝增強版微信(一般是基于xposed框架的插件),實現(xiàn)轉(zhuǎn)發(fā)語音。
“對于這種詐騙形式,群眾只需提高警惕,直接電話聯(lián)系,即可識破騙局。此外,即使要求對方語音回復(fù),也可提出具體的要求,比如要求對方提供身份信息、說明轉(zhuǎn)賬原因等,避免騙子利用之前的語音蒙混過關(guān)。”鄭寧說。
鄭寧談到的第二種騙術(shù)是聲音合成。具體的操作是騙子通過騷擾電話等錄音來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
鄭寧說,通過神經(jīng)網(wǎng)絡(luò)和機器學(xué)習(xí)技術(shù)可以達到合成聲音的效果。第一個利用神經(jīng)網(wǎng)絡(luò)生成人類自然語音的,就是DeepMind的WaveNet。WaveNet(波網(wǎng))是一個用于生成原始音頻的深度神經(jīng)網(wǎng)絡(luò)。它是由倫敦人工智能公司DeepMind的研究人員創(chuàng)建的。此技術(shù)通過使用用真實語音記錄訓(xùn)練的神經(jīng)網(wǎng)絡(luò)方法直接模擬波形,能夠生成聽起來相對真實的類人聲音。
據(jù)了解,2016年,谷歌在加拿大蒙特利爾大學(xué)建立的人工智能實驗室(MILA)?;诼曇艉铣杉夹g(shù),MILA在2017年4月成立了Lyrebird公司。在其網(wǎng)站DEMO部分,可以聽到官方合成的足以以假亂真的特朗普以及奧巴馬的聲音。美國有位記者用機器合成的句子和家里人打電話做實驗,他的家人完全分不清楚真假。
“合成的聲音有明顯的痕跡,但WaveNet可以把合成痕跡明顯的機器語音,轉(zhuǎn)換成更加流暢自然的語音,與人類聲音之間的差異大幅降低,目前在鬼畜視頻界做得風(fēng)生水起。而Lyrebird則更進一步,它可以基于音色、音調(diào)、音節(jié)、停頓等多種特征,來定義某個人的聲音,然后生成更加擬真的聲音。”鄭寧說。
鄭寧補充說,第三種是AI換臉。視頻通話的可信度明顯高于語音和電話,但利用AI換臉,騙子可以偽裝成任何人。第四種是通過AI技術(shù)篩選受騙人群,通過分析公眾發(fā)布在網(wǎng)上的各類信息,騙子會根據(jù)所要實施的騙術(shù)對人群進行篩選,從而選出目標(biāo)人群。例如實施情感詐騙時,可以篩選出經(jīng)常發(fā)布感情信息的人群;實施金融詐騙時,可以篩選出經(jīng)常搜集投資信息的人群。
對此,中國人民大學(xué)法學(xué)院教授劉俊海說:“AI技術(shù)用于詐騙已經(jīng)不是新鮮事,因為任何技術(shù)一旦出現(xiàn),不法分子就會想到利用新技術(shù)來實施犯罪。”
常山圖庫
新聞排行榜
返回頂部 