AI仿冒名人帶貨屬違法行為 消費(fèi)者可要求退一賠三

分享到:
分享到:

AI仿冒名人帶貨屬違法行為 消費(fèi)者可要求退一賠三

2024年12月23日 07:21 來源:央視新聞客戶端
大字體
小字體
分享到:

  如今,從智能家居的語音助手到自動(dòng)駕駛汽車,從高效能的數(shù)據(jù)分析到醫(yī)療領(lǐng)域的精準(zhǔn)診斷,AI正以前所未有的方式改變著世界。然而,隨著AI技術(shù)的不斷發(fā)展和應(yīng)用,其雙刃劍的特性也逐漸顯現(xiàn)。其中,深度偽造技術(shù)就帶來了不小的隱患。

  所謂的深度偽造技術(shù),是一種利用人工智能算法生成高度逼真但并非真實(shí)的視頻或圖像的技術(shù)。通過深度學(xué)習(xí)算法,深度偽造技術(shù)能夠分析大量的真實(shí)視頻或圖像數(shù)據(jù),從而學(xué)習(xí)到特定人物或場(chǎng)景的特征,并生成與之極為相似的虛假內(nèi)容。這種技術(shù)的出現(xiàn),使得造假變得更加容易和難以辨別,給社會(huì)帶來了諸多安全隱患。

  今年以來AI深度偽造假冒名人的事件時(shí)有發(fā)生,不久前,就有人利用AI技術(shù),深度偽造了張文宏醫(yī)生的臉部和聲音進(jìn)行直播帶貨。在這段視頻中,被合成的人像反復(fù)介紹一種產(chǎn)品,聲音也很像張文宏本人,商品中的蛋白棒產(chǎn)品已經(jīng)售賣了1200多件。目前該賬號(hào)已經(jīng)搜索不到。而張文宏醫(yī)生本人對(duì)有人利用AI模仿自己帶貨的行為也非常氣憤。

  張文宏醫(yī)生:這個(gè)事情已經(jīng)有幾個(gè)星期了,一開始我也是投訴。特別是對(duì)AI不是很熟悉的年紀(jì)比較大的市民,他們很容易就會(huì)相信。

  用AI制作,假冒名人欺騙網(wǎng)民的現(xiàn)象,張文宏事件并非個(gè)例。今年國慶期間就有人用企業(yè)家雷軍的聲音和頭像制作了眾多惡搞視頻。

  也有人AI制作了劉德華的聲音為自己增加流量。該視頻出現(xiàn)后,劉德華電影公司連續(xù)發(fā)布兩則聲明,提醒各方人士注意,避免落入偽造劉德華聲音的AI語音合成技術(shù)騙局。

  上海市消保委也注意到了最近日益增加的AI假冒名人的視頻。

  上海市消費(fèi)者權(quán)益保護(hù)委員會(huì) 副秘書長 唐健盛:我們關(guān)注到現(xiàn)在這種虛擬人直播帶貨的情況,也是越來越多了。有不法商家通過AI手段去冒用張文宏老師的形象和聲音,做的假的直播帶貨,這種行為我們覺得是對(duì)消費(fèi)者合法權(quán)的侵害,因?yàn)樗褪且粋€(gè)赤裸裸的欺詐消費(fèi)者行為。

  AI模仿他人技術(shù)成熟 可輕松克隆臉和聲音

  現(xiàn)在的AI技術(shù)在克隆他人面部和聲音上,到底發(fā)展到了什么程度?專家介紹,目前模仿他人的聲音和臉的技術(shù)已經(jīng)非常成熟,提供一張照片就能做出換臉的效果,他人的聲音也能被輕易模仿。

  中國網(wǎng)絡(luò)空間安全協(xié)會(huì)人工智能安全治理專業(yè)委員會(huì)專家 薛智慧:通過人工智能技術(shù),將臉進(jìn)行替換。聲音需要有一個(gè)語言的模型,語言模型里邊被模仿者的聲音進(jìn)行合成,實(shí)現(xiàn)音色的克隆。

  技術(shù)人員現(xiàn)場(chǎng)做了一個(gè)測(cè)試,將事先錄制好的視頻換成記者的臉和聲音。首先記者給技術(shù)人員提供了一張證件照片,不到兩分鐘,通過軟件的渲染,視頻的人臉就換成了記者的臉。

  隨后是聲音的AI制作。記者現(xiàn)場(chǎng)錄制了一段聲音輸入到AI資料庫中,很快AI就能用記者的聲音播報(bào)任何的文本內(nèi)容。

  AI制作的換臉和聲音的視頻完成后,將兩段視頻合成后出來的效果非常逼真。

  AI模仿度高 但并非毫無破綻

  專家表示,AI模仿度高但是并非毫無破綻。

  首先,這種既要換臉又要換聲的操作,只能制作視頻,無法做到實(shí)時(shí)直播。

  其次,觀眾通過仔細(xì)辨認(rèn)視頻,也能看出AI的痕跡。

  專家提醒,辨別時(shí)可以重點(diǎn)關(guān)注視頻中人臉的變換,包括人臉輪廓和背景環(huán)境融合度、協(xié)調(diào)度等。另外,在語音、語速和口型的匹配度上,也可以去重點(diǎn)關(guān)注。

  未經(jīng)授權(quán)利用AI假冒他人屬違法行為

  那么,是否可以利用AI深度偽造技術(shù)隨意將名人形象為己所用呢?專家表示,那些未經(jīng)過授權(quán)使用他人形象的行為,均屬于違法行為。

  中國政法大學(xué)副教授 朱?。何覀儸F(xiàn)在看到的一些編輯的人臉,包括聲音在內(nèi),實(shí)際上按照民法典的規(guī)定,這個(gè)都屬于當(dāng)事人權(quán)利人自己的人格權(quán)利,未經(jīng)允許,任何人不得侵害。不僅不能直接用,也不能使用當(dāng)事人的人臉信息、聲音信息進(jìn)行深度合成,不能放到深度合成的物料庫里或場(chǎng)景庫里。同時(shí),他經(jīng)過編輯的肖像和聲音,用這種方式去展現(xiàn)一個(gè)相關(guān)內(nèi)容,這屬于偽造的信息。按照網(wǎng)絡(luò)安全法的規(guī)定,這屬于違法信息。

  另外法律專家表示,AI假冒名人發(fā)表自己的作品,有可能會(huì)追究發(fā)布者的刑事責(zé)任。

  中國政法大學(xué)副教授 朱?。何唇?jīng)權(quán)利人同意隨便使用別人的肖像和聲音并對(duì)外發(fā)布,按照民法典的規(guī)定是一種侵權(quán)責(zé)任,要承擔(dān)包括損害賠償、精神損害賠償在內(nèi)的相關(guān)責(zé)任。如果把相關(guān)視頻,包括聲音編輯之后,形成了相關(guān)內(nèi)容。這個(gè)內(nèi)容如果違反網(wǎng)絡(luò)安全法的相關(guān)規(guī)定,當(dāng)事人可能要承擔(dān)包括刑事責(zé)任在內(nèi)的法律責(zé)任。

  購買AI假冒名人帶貨產(chǎn)品 可要求退一賠三

  專家表示AI假冒名人進(jìn)行帶貨這樣的行為,已經(jīng)涉嫌違法,一旦消費(fèi)者信以為真購買了產(chǎn)品,可以要求商家退一賠三。

  上海市消費(fèi)者權(quán)益保護(hù)委員會(huì) 副秘書長 唐健盛:消費(fèi)者權(quán)益保護(hù)法明確規(guī)定,如果消費(fèi)者遭到了欺詐,可以按照消費(fèi)者權(quán)益保護(hù)法的規(guī)定要求不法商家進(jìn)行賠償。具體的賠償標(biāo)準(zhǔn)就是退一賠三,如果不足500元,消費(fèi)者完全可以要求商家按照500元進(jìn)行相關(guān)的賠償。

  專家表示,短視頻平臺(tái)也應(yīng)該擔(dān)負(fù)主體責(zé)任,有義務(wù)防范AI假冒名人視頻在自己的平臺(tái)大量傳播。

  中國政法大學(xué)副教授 朱巍:如果發(fā)現(xiàn)利用AI合成的聲頻和視頻傳播虛假消息,并不是僅僅把視頻刪掉就完了,應(yīng)當(dāng)對(duì)發(fā)布者采取包括信用管理在內(nèi)的強(qiáng)制措施,包括賬號(hào)的盈利權(quán)限,包括賬號(hào)的一些相關(guān)的特殊的權(quán)限,是根據(jù)信用的降低,要隨之產(chǎn)生必要的處罰措施。

【編輯:黃鈺涵】
發(fā)表評(píng)論 文明上網(wǎng)理性發(fā)言,請(qǐng)遵守新聞評(píng)論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評(píng)論

頂部