西藏定日縣的6.8級地震,牽動億萬網(wǎng)友的心。但一些虛假信息,比如AI(人工智能)生成的圖片,也在造成誤導。


比如下面圖片中,一個戴帽子的小孩被重壓在倒塌的建筑物下。在某短視頻平臺上,至少有10個以上的賬號發(fā)布該內(nèi)容,有的賬號甚至和西藏日喀則地震關(guān)聯(lián),獲得好幾萬的轉(zhuǎn)、評、贊。不少網(wǎng)友看到圖片后,都為圖中的孩子落淚,甚至不斷追問,圖片中的小孩怎么樣了,并未留意到可能的疑點。


某平臺上多個的賬號發(fā)布該內(nèi)容。


后新京報記者查證發(fā)現(xiàn),上述圖片由AI創(chuàng)作,且原始作者在2024年11月18日發(fā)布了相同畫面的短視頻,并聲明該視頻由AI生成?!白屑毧吹脑?,可以從圖像細節(jié)發(fā)現(xiàn)問題,比如圖中‘孩子’的右手出現(xiàn)了六根手指、雙眼瞳孔反光不同等不符合常理的特征?!比鹑R智慧聯(lián)合創(chuàng)始人蕭子豪告訴新京報貝殼財經(jīng)記者。


那么,在人工智能給我們的學習、工作和生活帶來諸多便利之余,普通人應如何辨別人工智能生成或深度偽造的內(nèi)容?平臺在聚合和傳播信息之余,應如何維護社區(qū)生態(tài),使其不受人工智能生成的謠言的影響?


深度偽造:肉眼已喪失對數(shù)字世界辨識的能力?


螞蟻集團大模型數(shù)據(jù)安全總監(jiān)楊小芳向貝殼財經(jīng)記者解釋了人工智能生成內(nèi)容的發(fā)展:AIGC(人工智能生成內(nèi)容,包括圖片、視頻、聲音等)的初期,(生成的內(nèi)容)沒有那么真,很多圖片一看就知道是AI生成的或者深度偽造的。但現(xiàn)在有越來越擬真的趨勢,包括網(wǎng)絡上的一些知名企業(yè)家的聲音內(nèi)容,以及一些實時視頻,甚至能進行互動,達到了以假亂真的程度。


AI深度偽造技術(shù),也稱為深度偽像(Deepfake)是一種利用人工智能技術(shù)生成逼真的虛假內(nèi)容,通常是指用于偽造人物的視頻、音頻、圖像等。其主要原理涉及兩個關(guān)鍵技術(shù):生成對抗網(wǎng)絡(GANs)和深度學習。


“這是世界性難題,國外的社交媒體也充斥著大量深度偽造的視頻內(nèi)容,平臺雖然會開發(fā)識別算法、鑒真算法,也在實驗性地應用,但并沒有想象中管用,或者說鑒別速度跟不上傳播速度?!卑踩珜<依铊F軍告訴貝殼財經(jīng)記者。


“當前大模型能力的持續(xù)提升,AI生成的圖片和視頻已經(jīng)很難用肉眼去辨別真?zhèn)瘟恕N覀円呀?jīng)來到了一個‘人類肉眼喪失對數(shù)字世界信息真?zhèn)伪孀R能力’的時代,所以每一名社會公民都應該對網(wǎng)絡信息保持一定的警惕性,理性思考,或借助一些AI檢測工具求證?!比鹑R智慧聯(lián)合創(chuàng)始人蕭子豪說。


隨著近年來AI大模型技術(shù)的進步,一些AI生圖大模型在追求更多真實度的同時“誤打誤撞”成了AIGC謠言和深度偽造的“幫兇”,如此前著名的stable diffusion(一款AI智能繪畫大模型)就被開發(fā)出了一鍵脫衣的功能,并一度泛濫。雖然后來該模型修改了相關(guān)功能,讓這種行為有所收斂,但由于技術(shù)開源的特性,“潘多拉的盒子”已經(jīng)打開,或許難以再度關(guān)閉。


解決方法:需法律和平臺共治


如何在人工智能時代去偽存真?


楊小芳告訴貝殼財經(jīng)記者,在AIGC發(fā)展初期,螞蟻開發(fā)了AI鑒真能力,基于大量AI生成內(nèi)容訓練的算法模型。隨著AIGC的發(fā)展,AI生圖越來越逼真,需要進一步引入數(shù)字水印技術(shù),也就是在AI生圖時內(nèi)置隱水印,并做到經(jīng)過圖片裁剪或媒體傳播也能夠提取水印,以追根溯源。但是,技術(shù)只是手段,AIGC管理才是核心,這需要政策和監(jiān)管的引導與規(guī)范、也需要行業(yè)自律。


據(jù)貝殼財經(jīng)記者了解,國內(nèi)、國際的互聯(lián)網(wǎng)企業(yè)都有開發(fā)AI鑒真工具,但這些工具也有局限性。德雷克塞爾工程學院的多媒體和信息安全實驗室 (MISL) 多年來一直致力于研究此類技術(shù)。他們的科學家們評估了11種可供公眾使用的合成圖像檢測器。這些程序顯示出很高的效率,在檢測被篡改的圖像方面至少有90%的準確率。然而,當負責識別公開可用的AI或者大模型生成的視頻時,它們的性能下降了20%至30%。


該學院副教授兼MISL主任馬修·斯塔姆在一份報告中稱:“在沒有一個好的系統(tǒng)來檢測不良行為者制造的假貨之前,這種視頻技術(shù)就已經(jīng)發(fā)布,這真是令人不安。”


安全專家李鐵軍認為,必須靠法律法規(guī)的威懾力來解決深度偽造問題?!捌脚_缺少主動鑒別深度偽造的動力,需要國家層面給予平臺足夠的約束,比如出現(xiàn)重大造假事件、造成嚴重社會影響的,處罰平臺,這樣平臺才有動力去鑒別真?zhèn)巍!崩铊F軍說。


事實上,我國也在完善相關(guān)法律。根據(jù)《中華人民共和國治安管理處罰法》第二十五條第(一)項規(guī)定,散布謠言,謊報險情、疫情、警情或者以其他方法故意擾亂公共秩序的,處五日以上十日以下拘留,可以并處五百元以下罰款;情節(jié)較輕的,處五日以下拘留或者五百元以下罰款。明知是AI生成的虛假圖片卻故意在重大災難事件中傳播,意圖誤導公眾、擾亂社會秩序或獲取不當利益的個人或組織,可能面臨行政處罰的責任。如果引起的后果特別惡劣,甚至可能構(gòu)成刑事責任。如果是轉(zhuǎn)發(fā)的人故意隱去AI標識,可能也要承擔同樣的行政處罰責任。


此外,若平臺未能盡到合理的審核和監(jiān)管義務,導致AI虛假圖片廣泛傳播并造成嚴重負面影響,平臺也需承擔相應的法律責任。如可能面臨監(jiān)管部門的罰款、責令整改等。


2024年9月,國家網(wǎng)信辦公布了《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》,其中明確規(guī)定服務提供者具有對生成內(nèi)容(文字、圖片、視頻等)的標注義務,網(wǎng)絡信息內(nèi)容傳播平臺對傳播的內(nèi)容具有核驗及標注義務,用戶上傳生成合成內(nèi)容時負有主動聲明義務,使用平臺提供的標識功能進行標識。雖然目前只是征求意見稿,但該標識辦法審批生效的可能性較大,具有直接的參考作用。


隨著AIGC和深度偽造技術(shù)的發(fā)展,各平臺也均出臺了相應規(guī)范。微信要求自媒體發(fā)布使用AI等技術(shù)生成的信息時,必須標注內(nèi)容為AI制作;重點打擊造假、蹭炒社會熱點等違規(guī)內(nèi)容和行為。抖音要求發(fā)布者對人工智能生成內(nèi)容進行顯著標識,幫助用戶區(qū)分虛擬與現(xiàn)實;發(fā)布者需對人工智能生成內(nèi)容產(chǎn)生的相應后果負責;禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容。快手則要求對數(shù)字人直播等AIGC輔助創(chuàng)作的內(nèi)容,不再給予額外流量扶持;對使用外站AIGC數(shù)字人生成的錄制直播將按“播放錄制內(nèi)容”規(guī)則管控,違規(guī)行為將受到警告、扣分、封禁賬號等處罰。


記者聯(lián)系郵箱:avril-1989@163.com

新京報貝殼財經(jīng)記者 白金蕾 羅亦丹

編輯 袁秀麗 校對 穆祥桐