<style id="utfaj"></style>

      <p id="utfaj"></p>
      <noscript id="utfaj"><meter id="utfaj"></meter></noscript><rp id="utfaj"><tbody id="utfaj"></tbody></rp>
    1. 中國西藏網(wǎng) > 即時新聞 > 時政

      防范“AI換臉”詐騙 你需要的知識都在這兒了

      發(fā)布時間:2024-02-26 10:00:00來源: 央視新聞客戶端

        近年來,隨著人工智能技術的進步,一些不法分子開始利用AI技術融合他人面孔和聲音,制造非常逼真的合成圖像來實施新型網(wǎng)絡詐騙,這類騙局常常會在短時間內(nèi)給被害人造成較大損失。我們應該如何看清這類AI“深度造假”?辨別“AI換臉”有沒有什么好方法?我們先來看看近期發(fā)生在陜西西安的一起“AI換臉”詐騙案例。

        陜西西安財務人員張女士與老板視頻通話,老板要求她轉(zhuǎn)賬186萬元到一個指定賬號。

        被害人 張女士:老板讓把這個款趕緊轉(zhuǎn)過去,這個款非常著急,因為他聲音還有視頻圖像都跟他人長得一樣的,所以就更確信這筆款是他說的了,然后我直接就把這筆款轉(zhuǎn)了。

        轉(zhuǎn)賬之后,張女士按照規(guī)定將電子憑證發(fā)到了公司財務內(nèi)部群里,然而出乎意料的是,群里的老板看到信息后,向她詢問這筆資金的來由?

        被害人 張女士:然后我們就打電話再跟老板去核實,老板說他沒有給我發(fā)過視頻,然后也沒有說過這筆轉(zhuǎn)賬。

        意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯(lián)系相關銀行進行緊急止付,最終保住了大部分被騙資金156萬元。

        AI“多人換臉”詐騙案 騙走2億港元

        一百多萬的現(xiàn)金,對大部分人來說都算是一筆巨款了,好在警方處理及時,挽回了大部分損失,下面我們再來看另一起案例,這起案例的“換臉”技術難度更高,涉案金額也更大。近期, 香港警方也披露了一起AI"多人換臉"詐騙案,涉案金額高達2億港元。

        在該起案件中,一家跨國公司香港分部的職員,受邀參加總部首席財務官發(fā)起的多人的視頻會議。并按照要求,前后轉(zhuǎn)賬多次,將2億港元轉(zhuǎn)賬到5個本地銀行賬戶內(nèi),其后向總部查詢方知受騙。警方調(diào)查得知,這起案件中,所謂的視頻會議中,只受害者一人為“真人”,其余所謂參會人員,全部是經(jīng)過AI換臉后的詐騙人員。

        看完這兩起案例,您一定有些好奇,AI換臉背后的技術原理到底是什么?在技術層面,它是如何實現(xiàn)人臉的精確識別與替換,創(chuàng)造出逼真效果?我們來聽聽專家的講解。

        技術上如何實現(xiàn)人臉精確識別與替換

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:AI換臉過程主要包括人臉識別追蹤、面部特征提取、人臉變換融合、背景環(huán)境渲染、圖像與音頻合成等幾個關鍵步驟。其背后最核心的包括為三個部分,首先,利用深度學習算法精準地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關鍵面部特征。其次,將這些特征與目標人臉圖像進行匹配、替換、融合。最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。

        快速AI“換臉”僅通過一張照片就可完成

        為了了解AI換臉到底能有多么逼真,記者經(jīng)過與專業(yè)技術人員合作,深度體驗了AI換臉技術。

        技術人員首先用手機給記者拍了一張臉部照片,導入到AI人工智能軟件后,讓記者驚訝的是,雖然電腦攝像頭前的是技術人員,但是輸出的確是記者的照片,幾乎可以說是“一鍵換臉”,不需要復雜的環(huán)境和解壓操作。

        更令人驚訝的是,隨著技術人員面部表情變化,照片上記者的臉也跟著一起發(fā)生了相應變化。

        記者:為什么技術人員這張臉動,我的照片會跟著動呢?

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:首先通過視頻的采集,能夠把圖片里這個人臉的面部追蹤定位到,定位到以后第二步他能夠做一個人臉的面部特征點的采集和提取,主要就是包括嘴、鼻子跟眼睛相關的這些明顯的面部特征。采集到以后, 第三步就跟把這張原始的照片,做一個變換跟融合跟整形。

        記者:通過這張照片還可以做到什么?

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:當前通過這張照片技術人員已經(jīng)讓這張照片能夠動起來,活起來了,而如果更進一步的將這張照片存下來,能夠存儲大量的照片的話。后期可以把這張照片合成一段簡短的視頻發(fā)布出來。

        人工智能人臉檢測技術主要通過深度學習算法實現(xiàn),這種技術能夠識別出面部特征并對其進行精準的分析??梢詫⒁粋€人的面部表情從一張照片或視頻中提取出來,并將其與另一個人的面部特征進行匹配。專家告訴記者,如果想要實現(xiàn)視頻實時通話時采用人工智能AI換臉技術,一張照片是遠遠不夠的,那就需要不同角度的近千張照片的采集。

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:如果要實時點對點交流的話,需要再采集更多的照片,完了進行深度學習算法模型的訓練,訓練出來這個模型以后灌到咱們這個視頻里去,就可以做實時的變化跟轉(zhuǎn)換了。這種情況下,就可以做到實時的變臉。聲音的交流也可以,需要預先采集一些咱們目標人群當中的聲音,然后進行模型的訓練,能夠把目標人群的聲音還原出來。

        AI生成仿真度極高視頻 難度高投入大

        專家介紹,以詐騙為目的,實施點對點視頻通話,需要AI人工智能生成仿真度極高的視頻。想要達到以假亂真效果用于詐騙,難度不小。

        中國計算機學會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員 方宇:針對詐騙,其實主要是通過點對點的視頻通話,這時候如果采用換臉技術和聲音合成做實時的換臉詐騙的話,想要完成這些技術操作,就需要投入很強的技術支持。

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:背后需要有大量的資金的投入,包括圖片的采集,包括專業(yè)算法的人員等等,需要很長的一個周期,包括一些算力算法。各方面的投入,需要長時間不斷地迭代,進行操作,才能達到一個相當逼真的效果,才有可能實現(xiàn)到詐騙的實際效果。

        目前AI“換臉”更多應用于娛樂視頻錄制

        除了一些不法分子企圖利用AI技術實施詐騙,事實上,近年來,AI技術更多地被應用于短視頻的二次創(chuàng)作,屬于娛樂性質(zhì),越來越多的名人AI換臉視頻出現(xiàn)在網(wǎng)絡上,不少網(wǎng)友感嘆,這類視頻“嘴型、手勢都對得上,太自然了,差點兒以為是真的?!?/p>

        比如這款軟件,拍下記者面部照片后,就能錄制生成出一段記者秒變賽車手的視頻。

        中國計算機學會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員 方宇:AI技術目前我們??吹降闹饕嵌桃曨l換臉,通過做一些特定的動作,跳舞啊等等。這些視頻其實看起來是有一些不自然的,本身也是純屬于娛樂性質(zhì)的換臉。

        記者發(fā)現(xiàn)在手機應用商城中,有數(shù)十款換臉軟件,都可以做到換臉的目的。

        中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:如果從娛樂大眾的角度來說的話,現(xiàn)在市面上也有很多的這些軟件和工具,能夠達到AI換臉的效果,但是仿真度只有六七分的樣子,大眾直接就能看出來。但是如果要生成一個詐騙視頻來說話,就要生成咱們仿真度極高的這種點對點視頻。

        AI技術“換臉換聲”可能存在法律風險

        不過,AI技術也是把“雙刃劍”,即使是出于娛樂使用AI換臉、AI換聲,也是存在法律風險的。法律專家表示,用AI技術為他人換臉換聲甚至翻譯成其他語言并發(fā)布視頻,可能涉嫌侵權,主要有三個方面:

        一是涉嫌侵犯著作權,例如相聲、小品等都屬于《中華人民共和國著作權法》保護的“作品”。例如網(wǎng)友用AI軟件將相聲、小品等“翻譯”成其他語言,需經(jīng)過著作權人授權,否則就存在侵權問題。

        二是涉嫌侵犯肖像權,根據(jù)《中華人民共和國民法典》,任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。未經(jīng)肖像權人同意,不得制作、使用、公開肖像權人的肖像,但是法律另有規(guī)定的除外。

        三是涉嫌侵犯聲音權,根據(jù)《中華人民共和國民法典》規(guī)定,對自然人聲音的保護,參照適用肖像權保護的有關規(guī)定。也就是說,需要取得聲音權人的同意,才能夠使用他人的聲音。

        學會幾招 輕易識別AI“換臉換聲”

        AI換臉這一技術的出現(xiàn),導致耳聽為虛、眼見也不一定為實了。那我們該如何防范呢?專家表示,其實AI人工換臉無論做得多么逼真, 想要識別視頻真假還是有一些方法的。

        中國計算機學會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員 方宇:實際上從我目前看到的深度偽造的實時視頻上來看,其實還是可以通過一些方式,去進行一些驗證。

        那比如說我們可以要求對方在視頻對話的時候呢,在臉部的面前通過揮手的方式,去進行一個識別,實時偽造的視頻,因為它要對這個視頻進行實時的生成和處理和AI的換臉。

        那么在揮手的過程中,就會造成這種面部的數(shù)據(jù)的干擾,最終產(chǎn)生的效果就是我們看到的這樣,揮手的過程中,他所偽造的這個人臉會產(chǎn)生一定的抖動或者是一些閃現(xiàn),或者是一些異常的情況。

        第二個就是點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。

        提高防范意識 避免個人生物信息泄露

        專家表示,除了一些辨別AI換臉詐騙的小訣竅,我們每一個人都應該提高防范意識,在日常生活中也要做好相關防范措施,養(yǎng)成良好的上網(wǎng)習慣。首先應該是做好日常的信息安全的保護,加強對人臉、聲紋、指紋等生物特征數(shù)據(jù)的安全防護:另外做好個人的手機、電腦等終端設備的軟硬件的安全管理。第二,不要登錄來路不明的網(wǎng)站,以免被病毒侵入。第三,對可能進行聲音、圖像甚至視頻和定位采集的應用,做好授權管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠離自己。

        伴隨AI技術發(fā)展 需要多層面監(jiān)管規(guī)范

        除了要提高自我防范意識,如何對AI技術加強監(jiān)管,也成了越來越多人關注的問題。AI技術本身不是問題,關鍵是我們要怎么用它?如何形成有效監(jiān)管?專家介紹,AI技術發(fā)展,需要多層面監(jiān)管規(guī)范。

        一是在源頭端,需要進一步加強公民個人信息保護,尤其是加強對生物特征等隱私信息的技術、司法保護力度。二是在技術層面可以加強管理。例如可以讓視頻傳播網(wǎng)站或者社交軟件,使用專業(yè)的鑒別軟件來鑒定,對AI生成視頻,打上不可消除的“AI生成”水印字樣。目前,這種數(shù)字水印鑒偽技術有待進一步普及。三是在法律制度層面,要進一步完善人工智能等領域相關法律法規(guī)。2023年8月15日,我國正式施行《生成式人工智能服務管理暫行辦法》。《辦法》從多個方面“劃下紅線”,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用。 (記者 崔世杰)

      (責編:李雨潼)

      版權聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。

      国产精品福利在线无码卡一,亚洲欧洲无码中文字幕,高清人人天天夜夜狠狠狠狠狠,中文字幕久久精品一二三区 不卡精品视频福利 精品国产国产自在线观看 99精品只有久久精品免费
        <style id="utfaj"></style>

        <p id="utfaj"></p>
        <noscript id="utfaj"><meter id="utfaj"></meter></noscript><rp id="utfaj"><tbody id="utfaj"></tbody></rp>