人工智能深度合成技術(shù)的快速發(fā)展,推動了“AI換臉擬聲”在影視、廣告、社交等領(lǐng)域廣泛興起,同時,“AI換臉擬聲”的不當(dāng)濫用也引發(fā)了諸多關(guān)注。
4日,全國人大代表、小米集團(tuán)創(chuàng)始人雷軍接受總臺記者專訪時表示,“AI技術(shù)發(fā)展以后,AI換臉、AI擬聲在網(wǎng)上已經(jīng)成為了重災(zāi)區(qū),我本人也是主要的受害者,呼吁盡快立法重點(diǎn)整治”。
雷軍:明確“AI換臉擬聲”應(yīng)用邊界紅線
雷軍在建議中指出:人工智能(AI)深度合成技術(shù)的快速發(fā)展,推動了“AI換臉擬聲”在影視、廣告、社交等領(lǐng)域廣泛興起,成為社會喜聞樂見、傳播力強(qiáng)、易成熱點(diǎn)的技術(shù)應(yīng)用。但同時也看到,“AI換臉擬聲”不當(dāng)濫用成了違法侵權(quán)行為的重災(zāi)區(qū),易引發(fā)侵犯肖像權(quán)、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規(guī)模形象和聲譽(yù)損害,帶來社會治理等風(fēng)險。AI深度合成技術(shù)所需素材獲取便利、技術(shù)使用門檻低、侵權(quán)主體及其手段隱蔽性強(qiáng)等特點(diǎn),給治理帶來較大挑戰(zhàn)。
雷軍的具體建議包括:
一是針對“AI換臉擬聲”等某一代表性問題,探索推出人工智能單行法,提高立法位階及其效力,分級分類的基礎(chǔ)上進(jìn)行務(wù)實(shí)治理,明確“AI換臉擬聲”應(yīng)用邊界紅線,完善侵權(quán)證據(jù)規(guī)則,加大對利用人工智能技術(shù)實(shí)施犯罪行為的刑事處罰力度。
二是強(qiáng)化行業(yè)自律共治,壓實(shí)平臺等各方的責(zé)任。支持平臺企業(yè)開發(fā)可精準(zhǔn)識別人工智能深度合成內(nèi)容的技術(shù)能力,優(yōu)化升級通信軟件和內(nèi)容平臺巡查審核機(jī)制、投訴舉報機(jī)制、應(yīng)急處理機(jī)制,確保及時阻斷問題內(nèi)容傳播。
三是建議加強(qiáng)人工智能方面的法制宣傳教育,增強(qiáng)民眾的警惕性和鑒別力,聚焦重點(diǎn)人群,在中小學(xué)人工智能教材中加入倫理規(guī)范內(nèi)容,深入老年人聚居的社區(qū)開展相關(guān)知識普及活動,在全社會夯實(shí)“以人為本、智能向善”的人工智能發(fā)展生態(tài)。
未經(jīng)授權(quán)
合成制作他人視頻聲音屬侵權(quán)
前段時間,雷軍、劉德華、張文宏等名人,紛紛被人工智能技術(shù)換臉擬聲合成視頻。這類視頻以假亂真,很容易“欺騙”受眾。
去年國慶假期,還有人用AI捏造雷軍配音,所謂“雷軍語音包”層出不窮,從吐槽假期到罵人,各種內(nèi)容應(yīng)有盡有。對此,雷軍本人還專門發(fā)視頻,呼吁大家不要再惡搞。
記者在手機(jī)應(yīng)用商城搜索“換臉換聲”,會出現(xiàn)眾多工具。不過,記者發(fā)現(xiàn),換臉工具設(shè)定了固定的場景,且從效果看逼真度不高。
專家表示此類軟件目前在網(wǎng)絡(luò)上有數(shù)十種,不過不論換聲還是換臉軟件,不同的場景需要調(diào)整相應(yīng)的參數(shù),步驟較多,屬于半專業(yè)軟件,有一定的技術(shù)門檻,所以不被網(wǎng)民熟知。
專家表示,相關(guān)法律法規(guī)明確規(guī)定,未經(jīng)授權(quán),不得深度合成制作發(fā)布他人信息。網(wǎng)店接單AI深度合成制作名人視頻,已經(jīng)屬于侵權(quán)行為,并應(yīng)該承擔(dān)相應(yīng)的法律責(zé)任。
北京市競天公誠律師事務(wù)所合伙人周楊告訴記者,這類用AI合成的名人音視頻,會侵犯名人的肖像和聲譽(yù),還存在散布虛假、不良信息的風(fēng)險。
她舉例:“DeepSeek爆火之后,《黑神話:悟空》制作人馮驥發(fā)文盛贊。很快,一條DeepSeek創(chuàng)始人梁文鋒的回應(yīng),引發(fā)朋友圈廣泛轉(zhuǎn)載。最后,多個知名大V聲稱梁文鋒的回應(yīng)為AI偽造?!?/p>
用AI生成別人的臉和聲音?
可以置入隱式標(biāo)識
據(jù)北京日報報道,AIGC(人工智能生成內(nèi)容)與過去影響網(wǎng)絡(luò)空間安全的內(nèi)容一樣,都會出現(xiàn)虛假和不良信息,但更加難以甄別,更容易導(dǎo)致不良影響和后果。《互聯(lián)網(wǎng)信息服務(wù)管理辦法》明確規(guī)定了網(wǎng)絡(luò)發(fā)布信息“九不準(zhǔn)”。《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》還有“十一不得”。國家互聯(lián)網(wǎng)信息辦公室還發(fā)布了《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》,與全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)委員會發(fā)布的《網(wǎng)絡(luò)安全技術(shù) 人工智能生成合成內(nèi)容標(biāo)識方法》強(qiáng)制性國家標(biāo)準(zhǔn)(征求意見稿)配套使用,要求對人工智能生成合成內(nèi)容進(jìn)行標(biāo)識,規(guī)范AIGC在網(wǎng)絡(luò)空間中的流通安全。
此外,還有合成普通人音視頻、對其親友實(shí)施詐騙的行為,未成年人和中老年尤其容易被針對。周楊表示,《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》《未成年人網(wǎng)絡(luò)保護(hù)條例》均有關(guān)于弱勢群體的專門規(guī)定。
浙江大學(xué)研究員韓蒙表示,AI合成偽造和AI標(biāo)識,存在相互博弈的關(guān)系。在技術(shù)上,可以對AIGC進(jìn)行標(biāo)識?!皹?biāo)識有顯式的,比如現(xiàn)在大家在視頻網(wǎng)站上看到的水印。隨著技術(shù)升級,包括我們團(tuán)隊在內(nèi),一些國內(nèi)團(tuán)隊也對隱式標(biāo)識展開研究?!碑?dāng)利用AI生成作品時,隱式標(biāo)識會被藏在作品中,肉眼是看不見的。但通過檢測手段,標(biāo)識可以顯現(xiàn)。
原標(biāo)題:《雷軍這個建議引熱議!他本人也曾是“受害者”》
閱讀原文