網(wǎng)信反詐
參加多人視頻會議結(jié)果只有自己是真人這事聽上去似乎匪夷所思卻真實地發(fā)生了。近期,香港警方披露了一起多人 “AI臉”詐騙案涉案金額高達(dá)2億港元。
在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務(wù)官發(fā)起的“多人視頻會議”,并按照要求先后轉(zhuǎn)賬多次,將2億港元分別轉(zhuǎn)賬15次,轉(zhuǎn)到5個本地銀行賬戶內(nèi)。
其后,向總部查詢才知道受騙。警方調(diào)查得知,這起案件中所謂的視頻會議中只有受害人一個人是“真人”,其他“參會人員”都是經(jīng)過“AI換臉”后的詐騙人員。
近期,在陜西西安也發(fā)生了一起“AI換臉”詐騙案例。
陜西西安財務(wù)人員張女士與老板視頻通話,老板要求她轉(zhuǎn)賬186萬元到一個指定賬號。
轉(zhuǎn)賬之后,張女士按照規(guī)定將電子憑證發(fā)到了公司財務(wù)內(nèi)部群里,然而出乎意料的是,群里的老板看到信息后,向她詢問這筆資金的來由。
意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯(lián)系相關(guān)銀行進(jìn)行緊急止付,最終保住了大部分被騙資金——156萬元。
據(jù)專家介紹“AI換臉”過程主要包括人臉識別追蹤面部特征提取人臉變換融合背景環(huán)境渲染圖像與音頻合成等幾個關(guān)鍵步驟其背后,最核心的包括三個部分:
首先,利用深度學(xué)習(xí)算法精準(zhǔn)地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關(guān)鍵面部特征。
其次,將這些特征與目標(biāo)人臉圖像進(jìn)行匹配、替換、融合。
最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。
AI換臉這一技術(shù)的出現(xiàn),導(dǎo)致眼見也不一定為實了,我們該如何防范呢?
專家表示,其實AI人工換臉無論做得多逼真,想要識別真假還是有一些方法的。
中國計算機學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員 方宇:我們可以要求對方在視頻對話的時候,在臉部的前面通過揮手的方式,去識別實時偽造的視頻,因為它要對這個視頻進(jìn)行實時的生成和處理以及AI的換臉。
在揮手的過程中,會造成面部的數(shù)據(jù)干擾。揮手過程中,他所偽造的人臉,會產(chǎn)生一定的抖動或者是閃現(xiàn),再或是一些異常的情況。
第二個就是,在點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。
中國科技大學(xué)網(wǎng)絡(luò)空間安全學(xué)院執(zhí)行院長俞能海提醒,可以讓對方摁鼻子、摁臉,觀察其面部變化。
他在一個采訪中表示,如果是真人的鼻子,按下去是會變形的,但AI生成的鼻子并不會。
同樣,臉部也一樣。真人臉部按下去是會變形的。
專家表示,除了知曉一些辨別AI換臉詐騙的小訣竅,我們每一個人都應(yīng)該提高防范意識,在日常生活中也要做好相關(guān)防范,養(yǎng)成良好的上網(wǎng)習(xí)慣。
首先,應(yīng)該是做好日常信息安全保護(hù),加強對人臉、聲紋、指紋等生物特征數(shù)據(jù)的安全防護(hù)。另外做好個人的手機、電腦等終端設(shè)備的軟硬件的安全管理。
第二,不要登錄來路不明的網(wǎng)站,以免被病毒侵入。
第三,對可能進(jìn)行聲音、圖像甚至視頻和定位等信息采集的應(yīng)用,做好授權(quán)管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠(yuǎn)離自己。
原標(biāo)題:《【網(wǎng)信反詐】央視:“AI換臉”詐騙金額高達(dá)2億港元,視頻會議里,只有自己是真人》
閱讀原文