聲明:本文來自于微信公眾號 量子位 (ID:QbitAI),楊凈 蕭簫 發(fā)自 凹非寺 ,授權(quán)站長之家轉(zhuǎn)載發(fā)布。
(資料圖)
防不勝防,10分鐘就被AI騙走430萬!
這是這兩天震驚全網(wǎng)的真實詐騙案件。
據(jù)包頭警方發(fā)布,一公司老板接到朋友的微信視頻電話,由于長相和聲音確認(rèn)都是“本人”,他絲毫沒有懷疑就把錢打了過去。
結(jié)果一問朋友,對方根本不知道此事。這人才知道,原來詐騙者DeepFake了他朋友的面部和聲音。
消息一出,直接沖上熱搜第一。網(wǎng)友們紛紛表示:離大譜啊!不敢接電話了。
也有人提出質(zhì)疑:AI這么好訓(xùn)練?這需要掌握個人的大量信息吧。
不過,雖說是看上去離譜的小概率事件,但據(jù)相關(guān)統(tǒng)計,AI技術(shù)新騙局來襲后,詐騙成功率竟接近100%。
畢竟連那些直播賣貨“楊冪”“迪麗熱巴”、B站歌手“孫燕姿”“林俊杰”都不是真的.
據(jù)微信號平安包頭介紹,一個月前,福州市一科技公司法人代表郭某,突然接到好友的微信視頻。
聊天過程中,這個“好友”透露,自己朋友在外地投標(biāo),需要430萬保證金,且公對公賬戶過賬,所以想用郭某公司的賬戶走一下賬。
背景介紹之后,“好友”就找郭某要了銀行卡號,而后甩出一張銀行轉(zhuǎn)賬底單的截圖告訴郭某,已經(jīng)把錢打到了郭某的賬戶上。
結(jié)果因為已經(jīng)視頻聊天以及各種“物證”,郭某并沒有過多懷疑,甚至也沒去核實錢款是否到賬。
幾分鐘之后郭某就分兩筆將錢打了個過去,本想去跟好友報備一下:“事情已經(jīng)辦妥”。
然而,好友緩緩打出來一個問號。
好在郭某反應(yīng)比較快,第一時間報警。于是在警方和銀行聯(lián)動下,僅用時10分鐘就成功攔截了330多萬元被騙資金。
有網(wǎng)友表示,AI正成為騙子高手新一代工具。
還有網(wǎng)友調(diào)侃道,我沒錢,哪個都騙不了我。(等等,好友有錢也不行doge)
而在這起案件背后,核心涉及了AI換臉以及語音合成這兩個技術(shù)。
大眾所熟知的AI換臉方面,現(xiàn)在即便一張2D照片,就能讓口型動起來。據(jù)此前新華每日電訊消息,合成一個動態(tài)視頻,成本也僅在2元至10元。
當(dāng)時涉案嫌疑人表示:“客戶”往往是成百上千購買,牟利空間巨大。
至于面向更精準(zhǔn)、更實時的大型直播平臺,視頻實時換臉的全套模型購買價格在3.5萬元,而且不存在延遲、也不會有bug。
至于像語音合成方面,技術(shù)效果也是越來越逼真,新模型和開源項目涌現(xiàn)。
前段時間,微軟新模型VALL·E炸場學(xué)術(shù)圈:只需3秒,就可以復(fù)制任何人的聲音,甚至連環(huán)境背景音都能模仿。
而具備語音合成功能的工具Bark,更是曾登頂GitHub榜首,除了聲色接近真人,還能加入背景噪音和高度擬真的笑聲、嘆息和哭泣聲等。
在各類社交網(wǎng)絡(luò)上,各種小白教程也層出不窮。
要是結(jié)合虛擬攝像頭,可能就更加防不勝防。
只需一個軟件應(yīng)用程序,就可以在視頻通話中使用任意視頻資源。
點擊接通后,對方完全不會看到播放、暫停視頻等具體操作,只會看到視頻播放的效果,“接通后看到的就是美女了”.
這樣一來,不僅視頻可以通過虛擬攝像頭,隨意拍攝甚至更換,甚至連說話方式都可以真人定制:
核心技術(shù)門檻的降低,也就給了犯罪分子可乘之機(jī)。
事實上,AI加持下的新型網(wǎng)絡(luò)詐騙,并不止這一種操作。
無論是國內(nèi)還是國外,都有不少用AI換臉的詐騙案例,小到在網(wǎng)絡(luò)購物、兼職刷單等方面騙點小錢,大到冒充客服、投資理財人員等身份,獲取銀行卡賬號密碼直接轉(zhuǎn)一大筆賬,都有出現(xiàn)。
在國內(nèi),據(jù)南京警方消息,此前就出現(xiàn)過一起被QQ視頻AI詐騙3000元的案例。
當(dāng)事人小李表示,自己的大學(xué)同學(xué)小王通過QQ跟自己借3800元,稱自己很著急,因為表姐住院了。
小李懷疑了小王的身份,而小王很快給她傳來了一個4~5秒左右的動態(tài)QQ視頻,不僅背景在醫(yī)院,而且還打了聲招呼。
這讓小李打消了疑慮并轉(zhuǎn)了3000元,然而隨后發(fā)現(xiàn)對方已經(jīng)將她刪除拉黑,發(fā)現(xiàn)視頻原來是AI偽造的。
目前包括北京反詐、武漢市反電信網(wǎng)絡(luò)詐騙中心等官方公眾號平臺,都警告了AI技術(shù)新騙局的嚴(yán)重性,甚至表示“詐騙成功率接近100%”。
可別以為這些詐騙現(xiàn)象只在國內(nèi)出現(xiàn),國外的語音詐騙同樣花樣百出。
一種方式是用AI合成語音騙取電話轉(zhuǎn)賬。
據(jù)Gizmodo介紹,英國最近就同樣發(fā)生了一起涉及金額高達(dá)22萬英鎊(折合人民幣約192.4萬元)的詐騙案件。
一位當(dāng)?shù)啬茉垂镜腃EO,在不知情的情況下被騙子“DeepFake”了自己的聲音。隨后,騙子用他這段聲音,電話轉(zhuǎn)賬了22萬英鎊到自己的匈牙利賬戶。
據(jù)CEO表示,他后來自己聽到這段AI合成語音時都驚訝了,因為這段語音不僅模仿出了他平時說話的語調(diào),甚至還帶有一點他的口癖,有點像是某種“微妙的德國口音”。
另一種則是用合成語音冒充親友身份。
據(jù)nbc15報道,美國一位名叫Jennifer DeStefano的母親,最近接到了一個自稱是“綁匪”的詐騙電話,對方稱劫持了她15歲的女兒,要求這位母親交出100萬美元的贖金。
電話那頭傳來了女兒的“呼救聲”,不僅聲音、就連哭聲都非常相似。幸運的是她的丈夫及時證明了女兒是安全的,這次詐騙才沒能成功。
現(xiàn)在,不僅是詐騙,在AI技術(shù)加持下,就連楊冪、迪麗熱巴們都在今天引發(fā)了熱議。
原來,這是商家們想出的新“搞錢之道”,那就是在直播的時候,用AI換臉等技術(shù)“Deepfake”一下楊冪、迪麗熱巴、Angelababy等明星的臉,這樣大家就會誤以為是明星本人在帶貨,從而拉升直播流量。
然而,這類行為目前還不能被直接判定為侵權(quán)。據(jù)21世紀(jì)經(jīng)濟(jì)報道,北京云嘉律師事務(wù)所律師趙占領(lǐng)表示:
平臺對于平臺內(nèi)商家的侵權(quán)行為不承擔(dān)直接侵權(quán)的責(zé)任,而是否構(gòu)成幫助侵權(quán),主要是看平臺對于商家的侵權(quán)行為是否屬于明知或應(yīng)知。
但對于如何判定平臺對用戶、權(quán)利人的投訴是否明知或應(yīng)知,在一般情況下很難認(rèn)定。
顯然,在AI技術(shù)越來越火熱的當(dāng)下,相關(guān)法律也還需要進(jìn)一步完善。
就在昨天夜里,最近火爆全網(wǎng)的“AI孫燕姿”本人,也就是歌手孫燕姿,出來回應(yīng)了。
她發(fā)布了一篇名為《我的AI》的英文版文章,這是她團(tuán)隊的中文翻譯全文:
然后,網(wǎng)友們看到后的評論是醬嬸的:
參考鏈接:
[1]https://mp.weixin.qq.com/s/Ije3MyQxN-kkw4jCE5Wieg
[2]https://mp.weixin.qq.com/s/kcbNlaFe_-ebYNlfoGcIoA
[3]https://gizmodo.com/deepfake-ai-scammer-money-wiring-china-1850461160
[4]https://www.nbc15.com/2023/04/10/ive-got-your-daughter-mom-warns-terrifying-ai-voice-cloning-scam-that-faked-kidnapping/
[5]https://weibo.com/1796087453/JEaCeaOK6
[6]https://weibo.com/1420862042/4904325194975650
—完—
(舉報)
標(biāo)簽: