010-87687239          010-87688211
   010-69243484   13910407259(微信同號)

AI成造謠詐騙新方式?記者教你如何辨別真假 防范被騙

 二維碼
發(fā)表時間:2024-03-05 12:02作者:岳群 朱江 王世玉 孫戈 王子新來源:央視新聞客戶端

近日,文生視頻模型“Sora”的推出引起廣泛關(guān)注。人工智能技術(shù)快速發(fā)展,其潛在的風險也隨之出現(xiàn),真假的界限似乎變得更加模糊。在網(wǎng)絡龐雜的信息里,哪些是真,哪些是假,面對AI正反兩面的作用,我們?nèi)绾巫鞒鱿鄬蚀_判斷?我們來看記者的觀察↓↓↓

“有圖”真有“真相”嗎?

總臺央視記者 王世玉:是不是一切都很真實?但其實連這個“我”都是“假”的。通過人工智能替換了臉,用大模型制作模仿出跟我相似的聲音,以我的身份做了剛才一件件事情。

總臺央視記者 王世玉:現(xiàn)在我保證我是真實的。但是在真實世界里仍然有很多問題。我們統(tǒng)計了近期一些熱門話題,內(nèi)容很豐富。在我們的實驗室里,有一套最新的鑒別系統(tǒng)。我們把這些話題錄入到鑒別系統(tǒng),它幫我們分析出了幾項有爭議性的信息。

總臺央視記者 王世玉:當然,我們無法直接判定它們?yōu)橹{言,但是系統(tǒng)幫我們對比出了它和正常信息之間傳播的路徑,可以看到在這些節(jié)點出現(xiàn)了明顯不同。人工智能在謠言的傳播中起到了什么樣的作用?我們找到了幾位長期研究網(wǎng)絡數(shù)據(jù)和鑒別真?zhèn)蔚膶<摇?/p>

中國電信研究院戰(zhàn)略發(fā)展研究所所長 饒少陽:借助AI能夠分析用戶的一些情緒,通過一些爬蟲的技術(shù)可以分析網(wǎng)絡上正在討論什么熱點,已有的內(nèi)容,利用AI可以進行一些修改。比如說兩年前發(fā)生的一個事情,時間稍微改一下,換一部分場景,真假難辨的修改,快速引起新的討論。

中科睿鑒深度偽造檢測專家 葛星宇:前一段在湖北發(fā)生了凍雨的情況,我們第一時間注意到有謠言,發(fā)了一張圖,展示了當時大量汽車擁堵在高速路上的情景,其實這張圖是由AI生成的。AI可以把很多抽象的概念具象化展示在觀眾的面前。形式非常夸張,這就在精神層面上對觀眾進行沖擊,讓它的謠言變得更加可信。

總臺央視記者 王世玉:分析謠言的組成,我們發(fā)現(xiàn),人工智能技術(shù)不僅僅能夠精準捕捉用戶的心理預期,還能針對性釋放出部分真實的信息,進一步混淆視聽。

總臺央視記者 王世玉:以湖北凍雨為例,我們分析了從2023年1月至今,應急管理部四級以上響應的事件,謠言產(chǎn)生的比例達到70%,而把篩選條件調(diào)整到三級以上,謠言產(chǎn)生的概率甚至達到100%。突發(fā)情況越嚴重,出現(xiàn)謠言的概率就越高。

將時間拉近到2024年,我們分析了今年以來的幾次突發(fā)事件,謠言的產(chǎn)生手段也從過去的圖片拼接發(fā)展到了現(xiàn)在利用大模型生成文字信息和圖片視頻。

場景還原:AI世界的真假博弈

記者通過場景還原了一個真假難辨的世界??梢钥吹饺斯ぶ悄芗夹g(shù)在其中不斷模糊真假界限,同時精準找到掀起網(wǎng)友情緒和討論的內(nèi)容,進一步增加辨別真?zhèn)蔚拇鷥r。

不過現(xiàn)在,人工智能技術(shù)同樣也可以成為檢測手段,兩股力量的博弈如何實現(xiàn)?我們再跟隨記者進入一場視覺還原。

總臺央視記者 王世玉:幾天前,一個跨國公司的財務人員收到了一封郵件,是他所在公司的英國總部,邀請他參加一場涉密會議。加入之后,眼前的面孔果然十分熟悉。

香港特區(qū)政府警務處網(wǎng)絡安全及科技罪案調(diào)查科署理高級警司 陳純青:我們發(fā)現(xiàn)詐騙人員利用英國公司的各個職員在網(wǎng)上公開的視頻片段,配合后期人工智能生成技術(shù)、換聲技術(shù),配合預先錄制的對白,在線上會議里播放,播放的過程中就向這位報案人做出轉(zhuǎn)賬的指示。

總臺央視記者 王世玉:錄制好的視頻進行換臉,已經(jīng)是當前人工智能能做到的最基礎(chǔ)的情形了。現(xiàn)在,動態(tài)實時換臉、虛擬人物有來有往的對話,早已不是新鮮事。

既然是博弈,就一定有相應的技術(shù)應對。在實驗室里,有一套最新的鑒定系統(tǒng)。我們將人工智能生成的視頻錄入系統(tǒng),后臺四十多個模型開始了實時分析測算。

中科睿鑒深度偽造檢測專家 葛星宇:光影是一個很重要的指標,光源打在環(huán)境里,人對于光的反射結(jié)果、環(huán)境和光影反射的結(jié)果應該是一樣的。或者當屏幕開始抖動,我們無論是人在動還是背景的圖像在動,它們的運動軌跡應該都是一樣的。

總臺央視記者 王世玉:分析結(jié)果很快就出現(xiàn)了,人工智能生成的視頻已經(jīng)被判定為假?!癝ora”等先進技術(shù)生成的視頻同樣可以被鑒定出來。老百姓如何鑒定真?zhèn)涡畔?,或者更好判斷防止被騙呢?最簡單的方式可以在視頻過程中,讓對方用手遮擋一下面部,就會因為算法不夠精確而出現(xiàn)破綻。未來,這些先進的鑒別軟件也會嵌入手機系統(tǒng)進行自動防護,提示真?zhèn)涡畔ⅰ?/p>

AI的兩面 邊界需明晰

可以看到,人工智能技術(shù)既可以成為制造虛假信息的手段,同時也可以成為判斷謠言、詐騙的新方式。那如何更好利用人工智能、在規(guī)范中發(fā)展人工智能技術(shù)?來聽專家的解讀↓↓↓

中國電信研究院戰(zhàn)略發(fā)展研究所所長 饒少陽:輸出的內(nèi)容,在真正呈現(xiàn)給用戶之前,也可以做一些監(jiān)管控制。AI式生成的,那就要打上它是AI生成的。不管是工信部還是國資委、科技部,頻繁出一些政策在推動AI產(chǎn)業(yè)的發(fā)展。反過來,個人的隱私、數(shù)據(jù)安全、生成內(nèi)容的法律法規(guī)也在推出,這兩面都在同時進行。

總臺央視記者 王世玉:人工智能技術(shù)本身并沒有好壞之分,如何讓它被更好地使用,是當前在規(guī)范中發(fā)展的重中之重。

2023年1月,我國《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》出臺;8月,《生成式人工智能服務管理暫行辦法》正式施行。2023年10月,我國率先發(fā)布《全球人工智能治理倡議》;同月,聯(lián)合國成立“人工智能高級別咨詢機構(gòu)”;11月,全球人工智能安全峰會發(fā)布《布萊奇利宣言》。當前,在人工智能治理水平方面,從率先提出治理倡議,到躋身全球治理的第一梯隊,中國方案始終在為人工智能的安全貢獻智慧。

[此文來源:央視新聞客戶端 記者 岳群 朱江 王世玉 孫戈 王子新,版權(quán)說明:以上文字及圖片來源于網(wǎng)絡,僅供學習和交流使用,不具有任何商業(yè)用途,其目的在于傳遞更多的信息,并不代表本平臺贊同其觀點。版權(quán)歸原作者所有,如涉版權(quán)或來源標注有誤,請及時和我們?nèi)〉寐?lián)系,我們將迅速處理,謝謝!]


咨詢點這里