近期,“AI換臉”的應用范圍越來越廣,但存在濫用之嫌,甚至有人利用AI換臉實施犯罪,例如偽造不雅視頻、換臉詐騙等。前不久,就有一男子因AI“偷臉”,10分鐘被騙430萬元。
如此以假亂真,讓人防不勝防。“AI換臉”的法律邊界在哪?普通人又該如何防范?
公司老板遭遇AI換臉詐騙
10分鐘被騙取430萬元
近日,內(nèi)蒙古包頭警方發(fā)布一起利用AI實施電信詐騙的典型案例。
來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯(lián)系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。
基于對好友的信任,加上已經(jīng)視頻聊天“核實”了身份,郭先生在10分鐘內(nèi),先后分兩筆把430萬元轉(zhuǎn)到了對方的銀行賬戶上。
事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術(shù),佯裝好友對其實施詐騙。“當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備。”郭先生事后說。
AI換臉冒充明星帶貨
律師:或涉嫌侵權(quán)
除了佯裝“熟人臉”實施詐騙,AI換臉還可能出現(xiàn)在直播帶貨中。最近,網(wǎng)上出現(xiàn)了一些“換臉直播”教程,教程發(fā)布者聲稱實時變臉軟件可以幫助用戶輕松“變臉”,極大地助力引流賣貨。
在一個展示換臉直播效果的視頻中,使用者把名為“成龍”的模型載入相關(guān)軟件后,攝像頭前的人在直播畫面中就有了與成龍相似的五官,但臉型和發(fā)型還保持原樣。
記者發(fā)現(xiàn),使用者歪頭或變換表情時,五官動效切換得自然順滑,只有手掌從臉前劃過時,出現(xiàn)了比較明顯的破綻。
發(fā)布者展示換臉為“成龍”的實時效果和軟件界面(視頻截圖)
北京岳成律師事務所高級合伙人岳屾山表示,換臉直播用于公開傳播可能涉嫌侵犯相關(guān)明星藝人的肖像權(quán)。如果涉及直播帶貨等商業(yè)行為,會成為加重情節(jié)。
岳屾山解釋,只要未經(jīng)肖像權(quán)人同意,在直播中通過技術(shù)手段把自己的臉換成了明星的臉,就是對明星肖像的侵權(quán)。根據(jù)不同情況,承擔的后果可能不同。即便只是娛樂,不涉及盈利行為,也屬于侵權(quán)。如果把明星肖像用于帶貨直播,屬于是商業(yè)行為,在賠償數(shù)額上一定會給予考慮。如果主觀惡性、過錯程度比較大,且因此獲利,賠償數(shù)額可能會更高。
記者注意到,一些使用換臉技術(shù)的直播并不會直接提到相關(guān)明星藝人的名字,但也不會主動聲明或者否認。岳屾山認為,該行為涉嫌欺詐或是虛假宣傳,讓公眾誤以為就是明星在帶貨。如果貨品本身質(zhì)量不好,或者主播在帶貨過程中說的話或行為導致公眾對被換臉的明星產(chǎn)生負面評價,明星可以主張名譽權(quán)的侵權(quán)責任。
AI技術(shù)存在濫用風險
務必保持防范意識
為規(guī)范人工智能發(fā)展,去年12月,《互聯(lián)網(wǎng)信息服務深度管理規(guī)定》正式發(fā)布,明確了數(shù)據(jù)和技術(shù)管理規(guī)范。其中提到:深度服務者對使用其服務生成或編輯的信息內(nèi)容,應當添加不影響使用的標識。智能對話、人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內(nèi)容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。
近期,也有平臺和企業(yè)發(fā)布了“關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識產(chǎn)權(quán)等,一經(jīng)發(fā)現(xiàn),平臺將嚴格處罰。
對于個人而言,除了在形形色色的“明星臉”中保持清醒,避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識。
保護信息,提高警惕。不要輕易透露自己的身份證、銀行卡、驗證碼等信息,不要輕易人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;
多重驗證,確認身份。如果有人自稱“熟人”“領導”等通過社交軟件、短信以各種理由誘導匯款,或涉及網(wǎng)絡轉(zhuǎn)賬交易行為時,務必通過電話、見面等多途徑核驗對方身份,不要未經(jīng)核實隨意轉(zhuǎn)賬匯款;
如不慎被騙或遇可疑情形,請注意保護證據(jù),并立即撥打96110報警。
整治AI換臉
要用“法”打敗“魔法”
“短短10分鐘,被騙430萬元”“換臉冒充當紅女星帶貨,賺得盆滿缽溢”……這種“換臉”術(shù)和擬聲術(shù),讓人防不勝防。如此種種,無不說明換臉術(shù)的濫用,已經(jīng)對公共利益構(gòu)成威脅。
整治AI換臉,當用“法”打敗“魔法”。
這個法,是方法、辦法的法。有人說,防騙最有效的一招就是不信,無論對方怎么“換”、怎么變、怎么翻著花樣騙,就是“不聽不信不轉(zhuǎn)賬”。最關(guān)鍵的是,優(yōu)化“打法”,升級高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面對騙子的新招數(shù),我們的反詐術(shù)、防騙方法更要優(yōu)化,總結(jié)出富有成效的好方法,并做好宣傳普及,構(gòu)筑反詐防騙的全民陣線。
這個法,也是法規(guī)、法律的法。此前,一款主打AI換臉的App很火,“只需一張照片,演遍天下好戲”。但很快,在監(jiān)管部門約談后,這款App下架,原因很簡單,如此換臉侵犯了公民的肖像權(quán)。去年12月,《互聯(lián)網(wǎng)信息服務深度管理規(guī)定》發(fā)布,對人臉生成、替換、操控,人聲、仿聲等都有明確約束。顯然,隨著制度設計更精準,相關(guān)立法更健全,AI換臉空間將越來越逼仄。
AI換臉術(shù)濫用,也促使大家思考一個深層次問題。新技術(shù)不斷面世,帶給了人們便利,但可能被居心叵測之徒非法利用。人們固然不能因噎廢食,但也不能忽略它的雙刃劍效應。如果缺乏應有規(guī)束,AI換臉則可能打開潘多拉魔盒。因勢利導,使其趨利避害,這是我們要全力做到的。
來源:央視新聞綜合中國之聲
據(jù)上海交警官方微博24日消息,2023年5月24日17時52分,內(nèi)環(huán)高架近漕溪立交段兩車碰撞,致其中一輛工程車騎跨在高架護...[詳細]